Probabilité antérieure



Qu’est-ce que la probabilité antérieure ?

La probabilité a priori, dans l’inférence statistique bayésienne, est la probabilité d’un événement avant que de nouvelles données ne soient collectées. Il s’agit de la meilleure évaluation rationnelle de la probabilité d’un résultat sur la base des connaissances actuelles avant la réalisation d’une expérience.

Probabilité antérieure expliquée

La probabilité antérieure d’un événement sera révisée à mesure que de nouvelles données ou informations deviennent disponibles, afin de produire une mesure plus précise d’un résultat potentiel. Cette probabilité révisée devient la probabilité postérieure et est calculée à l’aide du théorème de Bayes. En termes statistiques, la probabilité postérieure est la probabilité que l’événement A se produise étant donné que l’événement B s’est produit.

Par exemple, trois acres de terre portent les étiquettes A, B et C. Une acre a des réserves de pétrole sous sa surface, tandis que les deux autres n’en ont pas. La probabilité a priori de trouver du pétrole sur l’acre C est d’un tiers, soit 0,333. Mais si un test de forage est effectué sur l’acre B et que les résultats indiquent qu’aucun pétrole n’est présent à l’emplacement, alors la probabilité postérieure de trouver du pétrole sur les acres A et C devient 0,5, car chaque acre a une chance sur deux.

Le théorème de Baye est un théorème très courant et fondamental utilisé dans l’exploration de données et l’apprentissage automatique.

se

P

(

UNE

|

B

)

=

P

(

UNE

B

)

P

(

B

)

=

P

(

UNE

)

×

P

(

B

|

UNE

)

P

(

B

)

où:

P

(

UNE

)

=

la probabilité a priori de

UNE

se produisant

P

(

UNE

|

B

)

=

la probabilité conditionnelle de

UNE

étant donné que

B

se produit

P

(

B

|

UNE

)

=

la probabilité conditionnelle de

B

étant donné que

UNE

se produit

begin{aligned}&P(Amid B) = frac{P(Acap B)}{P(B)} = frac{P(A) times P(B mid A)}{P(B)}\&textbf{où :}\&P(A) = text{la probabilité a priori que }Atext{ se produise}\&P(Amid B )= text{la probabilité conditionnelle de }A\&qquadqquadquad text{ étant donné que }Btext{ se produit}\&P(Bmid A) = text{le probabilité conditionnelle de }B\&qquadqquadquad text{ étant donné que }Atext{ se produit}\&P(B) = text{la probabilité que }Btext{ se produise} end{aligné} P(UNE|B) = P(B)P(UNEB) = P(B)P(UNE) × P(B|UNE)où:P(UNE) = la probabilité a priori de UNE se produisantP(UNE|B)= la probabilité conditionnelle de UNE étant donné que B se produitP(B|UNE) = la probabilité conditionnelle de B étant donné que UNE se produitse

Si nous nous intéressons à la probabilité d’un événement dont nous avons des observations préalables ; nous appelons cela la probabilité a priori. On considérera cet événement A, et sa probabilité P(A). S’il y a un deuxième événement qui affecte P(A), que nous appellerons événement B, alors nous voulons savoir quelle est la probabilité de A étant donné que B s’est produit. En notation probabiliste, il s’agit de P(A|B) et est appelé probabilité a posteriori ou probabilité révisée. C’est parce qu’il s’est produit après l’événement d’origine, d’où le post postérieur. C’est ainsi que le théorème de Baye nous permet uniquement de mettre à jour nos croyances précédentes avec de nouvelles informations.

Laisser un commentaire