PROBABILITÉ PROBABILITÉ CONDITIONNELLE. INDÉPENDANCE. INDÉPENDANCE.
SOMMAIRE SOMMAIRE 1. Rappel : espace probabilisé
2
1.1. Univers
2
1.2. Tribu
2
1.3. Probabilité
2
2. Probabilité conditionnelle
3
2.1. 2.1. Thé Théorème rème : constr nstruc ucti tioon dd'u 'unn nnoouve uvelle lle pro probabil abilit itéé rela relati tivvement ment à un événeme nement nt donn donnéé
3
2.2. Définition : probabilité conditionnelle
3
2.3. Définition : système complet d'événements
4
2.4. Théorème des probabilités totales
4
2.5. Corollaire : formule de Bayes
5
3. Indépendance d'événements
7
3.1. Théorème : trois assertions équivalentes
7
3.2. Définition : p-indépendance
7
3.3. Propriétés des événements indépendants
9
Probabilité conditionnelle. Indépen dance.
Page 1
G. COSTANTINI http://bacamaths.net/
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
1. Rappel : espace probabilisé (facultatifs) Lors de la réalisation d'une expérience aléatoire, on est amené à choisir successivement : 1. Un univ univeers W Il représente l'ensemble de toutes les issues envisagées de l'expérience. Il est donc fonction de l'idée de modélisation a priori que l'on se fait de l'expérience. Si lors du lancer d'une pièce de monnaie on considère usuellement qu'il y a deux issues "PILE" et "FACE", rien n'empêche d'en rajouter une troisième, par exemple "TRANCHE". C'est, à chacun (ou à chaque énoncé) de le définir. À défaut, on considère tacitement, qu'il s'agit de l'univers usuellement utilisé dans telle ou telle situation. 2. Une Une trib tribuu Il s'agit d'une partie de Ã(W). Les éléments de
sont appelés événements. Il s'agit des issues discernables ou mesurables par
l'observateur. Si W est discret (a fortiori si W est fini), on peut choisir = Ã(W). Cependant, si W a la puissance du continu (par exemple W = [0, 1]), on ne peut plus choisir = Ã(W) car certaines parties de W peuvent être extrêmement complexes. On fait donc le choix d'une partie stricte de
Ã(W) vérifiant un minimum structurel : · Æ Î et W Î ·
A Î
Þ W \ A Î
· ( A An)n Î famille d'éléments de Þ
U An Î nÎ ¥
Ces propriétés permettront de calculer de manière commode des probabilités. Remarquons que, dans le cas où W est discret, ces propriétés sont évidemment vérifiées par
= Ã(W).
3. Une Une app applic licati ation on p de dans [0, 1] Application vérifiant :
·
p(W) = 1
æ ö · ( A An)n Î famille d'événements deux à deux disjoints Þ p ç C An ÷ = ç n Î¥ ÷ è ø
å p( A ) n
(Propriété de s-additivité)
nÎ ¥
(En conséquence, on a : p(W È Æ) = p(W) + p(Æ) d'où p(Æ) = 0) Une telle application p s'appelle probabilité. Le triplet (W, , p) s'appelle un espace probabilisé. Modéliser une expérience aléatoire, c'est choisir un tel triplet. Exemple : Lors du lancer d'une pièce de monnaie, on convient que W = { P ; ; F }
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
2. Probabilité conditionnelle 2.1. Théorème Soit (W, , p) un espace probabilisé. Soit B un événement tel que p( B B) ¹ 0. L'application p B de dans [0, 1] définie par p ( A Ç B )
p B( A A) =
p ( B )
pour tout A Î Ã(W)
est une probabilité sur . Démonstration : p B(W) =
On a :
p ( W Ç B ) p ( B )
=
p ( B ) p ( B )
= 1
Soit ( A An)n Î une famille d'événements deux à deux disjoints. On a :
æ ö ÷= A n çC ÷ è n Î¥ ø
ææ ö ö ÷ ÷ Ç A B n çç C ÷ ÷ è è nÎ¥ ø ø= p ( B )
p ç ç
p B ç
æ ö ÷ Ç A B n çC ÷ è nÎ¥ ø p ( B )
p ç
Or, les événements An Ç B sont deux à deux disjoints puisque les An le sont, donc :
æ ö ÷ = Ç A B n çC ÷ è nÎ¥ ø
p ç
D'où :
æ ö ç p B C An ÷ = ç n Î¥ ÷ è ø
å p( A Ç B) n
nΥ
p( B)
=
å p( A Ç B) n
nÎ ¥
å
p( An Ç B)
nÎ ¥
p( B)
=
å p ( A ) B
n
nÎ ¥
L'application p B est bien une probabilité, le théorème est donc démontré.
2.2. Définition L'application p B ainsi définie s'appelle "probabilité B-conditionnelle". On note souvent (et abusivement) A | B l'événement "A est réalisé" sachant que B l'est. On note aussi p( A A | B) au lieu de p B( A A). On a ainsi :
p( A A | B) =
p ( A Ç B ) p ( B )
Remarques :
· la relation ci-dessus est très utile également dans l'autre sens : p( A A Ç B) = p( A A | B) P ( B B) = p( B B | A) P ( A A)
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Exemple : 1. Le tiers d'une d'une population population a été vacciné vacciné contre contre une maladie. Au cours cours d'une épidémie, épidémie, on constate que, sur quinze malades, il y a deux personne vaccinées. Le vaccin est-il efficace ? Pour le savoir, on compare la probabilité d'être malade p( M M ) avec celle d'être malade sachant que l'on a été vacciné p( M ). M | V ).
On peut aussi comparer p( M M | V ) et p( M M | V ), on trouve p( M M | V ) = 3,25 p( M M | V )
1 2 On a : p(V ) = et p(V | M ) = . 15 3 p( M M | V ) =
Ç V ) = p (V )
p ( M
p (V
| M ) p ( M ) 2 2 ). M ) = p( M M ). = ´ 3 p( M 15 5 p (V )
On a : p( M ). Le vaccin est donc efficace. M | V ) < p( M M ). 2. On suppose suppose de plus que que sur cent personne personne vaccinées, vaccinées, huit sont malades. malades. Quelle est la proportion proportion de malades dans la population ? p( M M | V ) =
On a donc : Or, p( M M | V ) =
2 p( M M ) d'où : 5
8 2 = 100 25
p( M M ) =
1 5
Il y a donc 20% de malades.
2.3. Définition Système complet d'événements On dit qu'une famille ( B Bk )1
!k !n
est un système système complet complet d'événements lorsque :
2
· "(i, j) Î 1, n! , (i ¹ j Þ Bi Ç B j = Æ) ·
(On dit alors que les Bk , 1 ! k ! n, sont deux à deux disjoints ou incompatibles)
n
C Bk = W k =1
Autrement dit, les Bk , 1 ! k ! n, constituent une partition de W.
2.4. Théorème Probabilité total es Soit (W, , p) un espace probabilisé. Si une famille ( B Bk )1
!k !n
est un système complet d'événements d'événements alors pour tout événement A, on a : p( A A) =
n
å k =1
p( A Ç Bk ) =
n
å p(A | B ) p( B ) k
k =1
k
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
æ n ö p( A A) = p çç C A Ç Bk ÷÷ = è ø
n
å p( A Ç B ) k
k =1
k = 1
Et comme p( A tel que 1 ! k ! n, on a : A Ç Bk ) = p( A A | Bk ) p( B Bk ) pour tout entier k tel p( A A) =
n
å p(A | B ) p( B ) k
k
k =1
W B1 B2
B3
B4
B5
...
Bn
Remarques :
· La formule des probabilités totales reste vraie si B1, B2, ... , Bn sont des événements deux à deux incompatibles et si A Ì
n
C Bk . k =1
· On a en particulier :
p( A A) = p( A A Ç B) + p( A A Ç B )
Exemple : Le feu tricolore. Un automobiliste arrive à proximité -disons une dizaine de mètres- d'un feu tricolore. On suppose qu'aucun véhicule ne le précède. On suppose que, si le feu est vert à ce moment là, l'automobiliste décide de passer avec une probabilité de 99/100. Si le feu est orange, l'automobiliste décide de passer avec une probabilité de 3/10 3 /10 et enfin si le feu est rouge, l'automobiliste décide de d e passer avec une un e probabilité de 1/100 (quelques fous...). Le cycle du feu tricolore dure une minute : vert : 25s, orange : 5s et rouge : 30s. Quelle est la probabilité que l'automobiliste passe sans s'arrêter à ce feu tricolore ? Soient A l'événement "l'automobiliste passe sans s'arrêter au feu" et V (resp O et R) = "le feu est vert (resp orange et rouge)". Comme V È O È R = W, on a : P ( A A) = P ( A A | V ) P P (V ) + P ( A A | O) P P (O) + P ( A A | R) P P ( R R) =
3 1 1 1 177 1 99 5 < ... ´ + ´ + ´ = 100 12 10 12 100 2 400 2
2.5. Corollaire Formule de Bayes Soit (W, , p) un espace probabilisé. Soit ( B Bk )1
!k !n
un système système complet complet d'événements. d'événements.
Soit A un événement tel que p( A A) ¹ 0. Alors :
" j Î 1, n!, p( B B j | A) =
p( A | B j ) p( B j ) n
å
(A | B ) (B )
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Démonstration : D'après la formule des probabilité totales : p( A A) =
n
å p(A | B ) p( B ) k
k
k =1
" j Î 1, n!, p( B B j | A) =
D'où :
p( A Ç B j )
=
p( A)
p( A | B j ) p( B j ) n
å p( A | B ) p( B ) k
k
k =1
Remarque : on peut toujours se passer de cette formule lourde. Exemple : Un individu est tiré au hasard d'une population dans laquelle une personne sur 10000 est séropositive. On lui fait passer un test de dépistage de séropositivité. Sachant que le test est positif, quelle est la probabilité que la personne soit effectivement séropositive ? Données :
· Si on est séropositif, alors le test est positif avec une probabilité de 0,99. · Si on n'est pas séropositif, alors le test est positif avec une probabilité de 0,001. Notons S l'événement l'événement "l'individu est séropositif" et T "le "le test est positif" p ositif" Illustrons la situation à l'aide d'un arbre :
p(S ) = 0,0001
p( S ) = 0,9999
S
p(T |S ) = 0,99
T
p(S | T ) =
p( S Ç T ) p(T )
S
p( T |S ) = 0,01
T
=
p(T | S ) = 0,001
T
p(T | S) p( S ) p(T | S) p( S ) = p(T ) p(T | S ) p( S ) + p( T | S ) p( S )
=
p( T | S ) = 0,999
T
1 p(T | S) p( S ) 1+ p(T | S) p( S )
-3
! 0,090 à 10
Conclusion : même si le test est positif, on a environ 9 chances sur 10 de ne pas être malade ! (Ouf !)
près
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
3. Indépendance d'événements 3.1. Théorème Soit (W, , p) un espace probabilisé. Soient A, B Î tels que p( A A) ¹ 0 et p( B B) ¹ 0. Les trois assertions suivantes sont équivalentes : 1) p B( A A) = p( A A) 2) p A( B B) = p( B B) 3) p( A A Ç B) = p( A A) p( B B) Démonstration : p B( A A) = p( A A)
Û p( A A Ç B) = p( A A) p( B B) Û p A( B B) = p( B B)
3.2. Définition p -indépendance -indépendance Soit (W, , p) un espace probabilisé. Soient A, B Î . On dit que A et B sont p-indépendants lorsque p( A A Ç B) = p( A A) p( B B). Remarques immédiates :
· Cette définition permet d'étendre l'indépendance à des événements de probabilité nulle · On peut généraliser cette définition à n événements (n Î
,
n "
2) A1, A2, ... , An qui seront dit
La notion d'indépendance dépend de la probabilité p . Cependant
lorsqu'il n'y aura pas de confusion
"indépendants dans leur ensemble" lorsque :
æ n ö p ç I Ak ÷ = ç ÷ è k =1 ø ·
n
Õ p ( A ) k
k =1
possible, on parlera d'événements indépendants in dépendants au lieu l ieu de p-indépendants.
Exemples :
· On lance deux dés et on désigne par A l'événement "le premier dé amène un nombre pair", par B
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Remarque : il faut être méfiant avec la notion d'indépendance. Deux événements peuvent intuitivement sembler indépendants sans pour autant l'être après calculs. Par exemple, considérons l'expérience suivante : Quatre lots sont répartis entre 5 personne P 1, ... , P 5 de la façon suivante : chaque lot est attribué par tirage au sort d'une personne parmi les 5. L'univers W de cette expérience aléatoire est l'ensemble des 4-listes de { P 1 ; ... ; P 5}. Il y en a 54. Pour tout k Î 1, 5! 5!, notons E k k l'événement reçoit aucun lot". l'événement décrit par "la personne P k k ne Les événements E k k , 1 ! k ! 5, sont-ils indépendants ? Réponse : non. En effet, soient h et k distincts distincts compris entre 1 et 5. 4 L'événement E k k est constitué des 4-listes de { P 1 ; ... ; P 5} \ { P k k}. Il y en a 4 .
Avec la probabilité uniforme P sur sur W, on a : p( E E k k ) =
44 44 . De même ( ) = . p E E h 54 54
34 E k k Ç E h est constitué des 4-listes de { P 1 ; ... ; P 5} \ { P k k ; P h}. Il y en a 3 . Donc p( E E k k Ç E h) = 4 5 4 4 4 4 Et comme p( E E k k ). p p( E E h) = 4 ´ 4 , on a : p( E E k k Ç E h) ¹ p( E E k k ). p p( E E h) 5 5 4
Exercice : Une urne U 1 contient trois boules noires et sept boules blanches. Une urne U 2 contient cinq boules noires et cinq boules blanches. On choisit une urne au hasard (équiprobablement) et on tire successivement deux boules, avec remise, dans l'urne choisie. On note : B1 l'événement "obtenir une boule blanche au premier tirage" B2 l'événement "obtenir une boule blanche au second tirage" Les événements B 1 et B 2 sont-ils indépendants ? 1 2
U 1
Arbre 0,7
Premier tirage
1 2
B
U 2
0,3
1 2
N
B
1 2
N
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
Titles you can't find anywhere else
Try Scribd FREE for 30 days to access over 125 million titles without ads or interruptions! Start Free Trial Cancel Anytime.
3.3. Propriétés des événements indépendants Soit (W, , p) un espace probabilisé. 1) Si A et B sont des événements indépendants, alors A et W \ B aussi. 2) Si [( A sont indépendants) et ( B )] alors A et C \ \ B sont indépendants. A et B sont indépendants), ( A A et C sont B Ì C )] 3) Tout Tout événe événeme ment nt A est indépendant de l'événement impossible (resp. certain). 4) Si ( A Ak )1
!k !n
est une famille d'événements d'événements deux à deux incompatibles et si A est indépendant de chaque Ak , n
C Ak .
1 ! k ! n, alors A est indépendant de
k =1
Démonstration : 1) D'après la la formule formule des probabilité probabilitéss totales totales : p( A A) = p( A A Ç B) + P ( A A Ç B )
Et comme A et B sont indépendants : p( A A) = p( A A) p p( B B) + P ( A A Ç B ) P ( A A Ç B ) = p( A A)(1 - p( B B) = p( A A) p p( B )
D'où :
Donc A et B sont indépendants. On en déduit :
A et B indépendants
Û A et B sont indépendants.
B Ì C
B Ì C
2) p( A \ B)) = p(( A \ B) A Ç (C \ A Ç C ) \ ( A A Ç B)) = p( A A Ç C ) - p( A A Ç B) = p( A A) p p(C ) - p( A A) p p( B B) = p( A A) p p(C \ Donc A et C \ \ B sont indépendants. 3) p( A A Ç Æ) = p(Æ) = 0 = p(Æ) p p( A A) p( A A Ç W) = p( A A) = p( A A) p p(W) n æ ö æ n ö 4) p çç A Ç C Ak ÷÷ = p çç C A Ç Ak ÷÷ = è ø è k =1 ø k =1
æ n ö p( A Ç Ak ) = p( A) p( Ak ) = p( A A) p( Ak ) = p( A A) p ç C Ak ÷ ç ÷ è k =1 ø k =1 k =1 k =1 n
å
n
å
n
å