SUITES DE VARIA VARIABLES BLES ALÉATOIRES INDÉPENDANTES INDÉPENDANTES DE LOI DE BERNOULLI. BERNOULLI. VARIABLE ALÉATOIRE DE LOI BINOMIALE
SOMMAIRE SOMMAIRE 1. Suites de variables aléatoires indépendantes
2
1.1. Définition : indépendance de n variables aléatoires
2
1.2. Cas particulier : indépendance de deux variables aléatoire
2
1.3. Remarque : l'indépendance dépend de la probabilité choisie
2
1.4. Exercice : X et Y indépendantes et ¦ bijective Þ ¦ o X et Y indépendantes
2
1.5. Proposition : espérance d'un produit et variance d'une somme de variables aléatoires indépendantes 2
2. Variables aléatoires de Bernoulli
4
2.1. Définition : variable aléatoire de Bernoulli
4
2.2. Remarque sur le paramètre
4 2
2.3. Exercice : si X est de Bernoulli de paramètre p alors X l'est aussi.
4
2.4. Espérance et variance de la loi de Bernoulli
4
2.5. Théorème de Bernoulli
5
3. Variable aléatoire de loi binomiale
5
3.1. Définition de la loi binomiale (comme somme de variables de Bernoulli)
5
3.2. Théorème : formule de loi binomiale
6
3.3. Proposition : espérance et variance de la loi binomiale
6
3.4. Théorème : stabilité de la loi binomiale
7
4. Exemples
8
4.1. Cas de variables aléatoires de Bernoulli indépendantes
8
4.2. Cas de variables aléatoires de Bernoulli non indépendantes
9
Dans toute la leçon, W est un ensemble fini. On considère un espace probabilisé (W, , P) avec fait de choisir
= Ã(W) fait que toute application X : W ®
condition : "pour tout intervalle I de , X -1( I )
est une variable aléatoire (réelle) puisque la
Î " est alors toujours satisfaite. Il en découle immédiatement
que si X et Y sont des variables aléatoires, alors X + Y , l X (où l Î ), )
= Ã(W). Le
¦ o X (où ¦ est une application de dans
et XY le sont également.
Suites Suites de variable variabless aléatoi aléatoires res de Bernoull Bernoulli. i. Loi binomial binomialee
Page Page 1
G. COSTANTINI http://bacamaths.net/
1. Suites de variables aléatoires indépendantes 1.1. Définition Considérons n variables aléatoires (réelles) X 1, X 2, ... , X n définies sur
-1
W.
X ( x) représente l'événement
traditionnellement noté { X = x}
On dit que les variables aléatoires X 1, X 2, ... , X n sont P-indépendantes si :
æ ö "K Ì 1, n, "i ÎK , " xi Î X i(W), P çç I X i-1 ( xi )÷÷ = è i ÎK ø
Õ
(
-1 P X i ( xi )
)
i ÎK
Soit maintenant une suite ( X n) de variables aléatoires réelles. Elles sont dites indépendantes si pour tout sousensemble fini I de , ( X i )i Î I est une famille de variables aléatoires indépendantes. 1.2. Cas particulier : indépendance de deux variables aléatoires X et Y . La définition pose que X et Y sont P-indépendantes si :
" x Î X (W), " y Î Y (W), P( X -1( x) Ç Y -1( y)) = P( X -1( x)) P(Y -1( y)) la notion d'indépendance dépend de la probabilité P choisie
1.3. Remarque : 1.4. Exercice :
Soient X et Y deux variables aléatoires réelles P-indépendantes et ¦ :
® une application bijective.
Alors les variables aléatoires ¦ o X et Y sont aussi P-indépendantes. En effet : Soient x' Î ¦ o X (W) et y Î Y (W). Comme ¦ est bijective : On a :
$! x Î X (W) tel que x' = ¦( x)
-1 -1 -1 -1 -1 -1 -1 P((¦ o X ) ( x' ) Ç Y ( y)) = P(( X o ¦ )( x' ) Ç Y ( y)) = P( X ( x) Ç Y ( y))
Et comme X et Y sont indépendantes : P(( X - ( x) Ç Y - ( y)) = P( X - ( x)) P(Y - ( y)) 1
D'où :
1
1
1
P((¦ o X )- ( x' ) Ç Y - ( y))= P( X - o ¦- ( x' )) P(Y - ( y)) = P((¦ o X )- ( x)) P(Y - ( y)). 1
1
1
1
1
1
1
D'où l'indépendance de ¦ o X et Y .
1.5. Proposition Lorsque des variables aléatoires X 1, X 2, ... , X n sont P-indépendantes, on a :
æ E ç çè
n
Õ k = 1
ö X k ÷ = ø÷
æ n Vç çè
n
Õ E ( X ) k
å
et
k = 1
k = 1
ö X k ÷ = ø÷
n
åV ( X ) k
k = 1
Démonstration : on démontre la proposition pour deux variables aléatoires X et Y . La généralisation se fait par simple récurrence. Notons X (W) ={ x1 ; ... ; xm} et Y (W) = { y1 ; ... ; yn}. Exemple : on lance deux dés et on note P
Espérance du produit égal au produit des espérances :
le produit obtenu.
Par définition de l'espérance : E ( XY ) =
å P(( XY)
-1
( z)) z
z Î XY ( W)
Or :
( XY )-1( z) =
1 1 X - ( x ) Ç Y - ( y)
C
( x , y ) ÎX ( W ) ´ Y ( W) xy = z
On note X et Y les résultats respectifs des deux dés. Les lancers étant indépendants, on a : E (P) = E ( XY ) = E ( X ) E (Y ) = 3,5
2
En effet :
·
-1 Soit w Î ( XY ) ( z). Alors XY (w) = z, c'est-à-dire X (w)Y (w) = z.
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 2
G. COSTANTINI http://bacamaths.net/
-1 -1 Posons x = X (w) et y = Y (w). Ainsi, z = xy et w Î X ( x) Ç Y ( y).
U X - ( x) Ç Y - ( y ) .
wÎ
Donc :
1
1
( x , y ) Î X ( W) ´ Y ( W) xy = z
·
U X - ( x) Ç Y - ( y) .
wÎ
Réciproquement, soit :
1
1
( x , y ) Î X ( W) ´ Y ( W) xy = z
-1 -1 Alors il existe ( x, y) Î X (W) ´ Y (W) tel que xy = z et w Î X ( x) Ç Y ( y).
On a donc X (w) = x, Y (w) = y et z = xy -1 D'où z = XY (w), c'est-à-dire w Î ( XY ) ( z).
·
Enfin, l'union est disjointe car si
-1 ( X ( x)
w Î
Ç
-1
Y ( y))
Ç
-1
-1 ( X ( x' )
Ç
-1
-1
-1
Y ( y' )) avec xy
= x'y' alors
-1
X (w) = x = x' et Y (w) = y = y' donc ( x, y) = ( x' , y' ) donc X ( x) Ç Y ( y) = X ( x' ) Ç Y ( y' )
Nous pouvons écrire :
æ ö ç ÷ -1 -1 ÷z E ( XY ) = Pç X x Y y ( ) ( ) Ç C ç ÷ ( x , y ) X ( ) Y ( ) Î W ´ W z Î XY ( W) ç è ø÷ xy = z
å
Et d'après l'additivité de la probabilité P :
å
E ( XY ) =
å
1 1 P( X - ( x) Ç Y - ( y)) z
zÎ XY ( W ) ( x, y )Î X ( W) ´Y ( W) xy = z
E ( XY ) =
å
å P( X
-1
( x) Ç Y - ( y)) xy = 1
z Î XY ( W) ( x , y ) Î X ( W ) ´ Y ( W) xy = z
å P( X
-1
( x ) Ç Y - ( y)) xy 1
( x , y ) Î X ( W) ´ Y ( W)
Et comme X et Y sont indépendantes : E ( XY ) =
å P( X
-1
( x)) P( Y -1 ( y)) xy =
P( X
-1
( x)) x P(Y -1 ( y)) y
xÎX ( W) yÎY ( W)
( x , y ) Î X ( W )´ Y ( W)
E ( XY ) =
å å
å
P( X - ( x)) x 1
x Î X ( W )
å P(Y
-1
( y)) y
y ÎY ( W )
E ( XY ) = E ( X ). E (Y )
Variance de la somme égale à la somme des variances : Par définition de la variance : V ( X + Y ) = E
{[( X + Y ) - E( X + Y )] } 2
D'après la linéarité de l'espérance : V ( X + Y ) = E
{[( X - E ( X )) + (Y - E(Y ))] } 2
Posons X c = X - E ( X ) et Y c = Y - E (Y ). Ainsi X c et Y c sont des variables aléatoires centrées. Comme X et Y sont indépendantes, X c et Y c le sont aussi (conséquence de l'exercice 1.4.) On a donc :
[(
V ( X + Y ) = E X c
]
+ Y c ) = E ( X c2 + 2 X cYc + Y c2 ) 2
D'où, par linéarité de l'espérance :
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 3
G. COSTANTINI http://bacamaths.net/
( ) + 2 E( X Y ) + E(Y )
2 V ( X + Y ) = E X c
2 c
c c
Et comme X c et Y c sont indépendantes :
( ) + 2 E ( X ) E( Y ) + E(Y )
2 V ( X + Y ) = E X c
c
2 c
c
Et comme X c et Y c sont centrées, E ( X c) = E (Y c) = 0, d'où
( ) + E(Y ) = E[( X - E ( X )) ] + E[(Y - E(Y )) ] = V ( X ) + V (Y )
V ( X + Y ) = E X c2
2
2 c
2
2. Variables aléatoires de loi de Bernoulli 2.1. Définition Soit p Î [0, 1]. Une variable aléatoire X est dite de loi de Bernoulli de paramètr e p pour la probabilité P si : -1
X (W) = {0 ; 1} et P( X (1)) = p
On note alors X ® B(1, p) Posons q = P( X - (0)). On a : p + q = P( X - (0)) 1
1
+ P( X -1(1)) = P( X -1(0)
-1
C X (1))
= P(W) = 1. D'où q = 1 - p.
2.2. Remarque : le fait, pour une variable aléatoire X , d'être de loi de Bernoulli n e dépend que de l'univers W. Mais son paramètre p dépend de la probabilité P choisie. Par exemple, considérons l'expérience suivante : Une urne contient 2 boules blanches et 1 boule noire (indiscernables) . On tire successivement 2 boules de l'urne avec remise. X =
On pose :
ì1 si au moins une boule blanche est tirée í0 sinon î
En notant E = { B1, B2, N } l'ensemble des 3 boules, l'univers W de cette expérience aléatoire est :
W = {( x, y) Î E ´ E } = {( B1, B1) ; ( B1, B2) ; ( B1, N ) ; ( B2, B1) ; ( B1, B2) ; ( B1, N ) ; ( N , B1) ; ( N , B2) ; ( N , N )} Il est clair que X est une variable aléatoire de loi de Bernoulli, mais son paramètre dépend de la probabilité choisie : Avec la probabilité P uniforme sur
Avec la probabilité A-conditionnelle où A alors un autre paramètre : p' =
2 3
9
"w Î W), on a : p =
8 9
= {( N , B1) ; ( N , B2) ; ( N , N )} (la première boule tirée est noire), on a
.
2.3. Exercice : Démontrer que si X ® B(1, p) alors X 2 On a :
1
W (c'est-à-dire P(w) =
® B(1, p).
X (W) = {0 ; 1} et P( X 2
2
= 1) = P( X = 1) = p.
2.4. Proposition
Remarque : la variance d'une variable
Si X ® B(1, p), alors :
aléatoire de loi de Bernoulli est donc
E ( X ) = p et V ( X ) = pq (où q = 1 - p)
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 4
majorée par
1 4
.
G. COSTANTINI http://bacamaths.net/
Démonstration : E ( X ) = P( X (0)) 1
´ 0 + P( X -1(1)) ´ 1 = q ´ 0 + p ´ 1 = p.
( ) - E( X )
V ( X ) = E X
2
2
= E ( X 2 ) - p2
® B(1, p) (d'après 2.3.), on a : E ( X 2 ) = E ( X ) = p
Et comme X 2
2 V ( X ) = p - p = pq
Donc :
2.5. Théorème de Bernoulli Soit ( X n)n 1 une suite de variables aléatoires indépendantes de même loi de Bernoulli de paramètre p. Y n =
On pose :
1
n
å X
n i =1
i
P(|Y n - p| e)
Alors :
1 4ne 2
Démonstration : D'après la loi faible des grands nombres :
P(|Y n - p| e)
s2 2 ne
Et comme les X i sont des variables aléatoires de loi de Bernoulli de paramètre p :
s2 = p(1 - p)
1 4
D'où le résultat.
3. Variables aléatoires de loi Binomiale 3.1. Définition * Soit W un ensemble fini et (W, Ã(W), P) un espace probabilisé. Soient p Î [0, 1] et n Î .
Soient des variables aléatoires (réelles) X 1, X 2, ... , X n définies sur
W,
indépendantes, de loi de Bernoulli de
même paramètre p pour la probabilité P. n
Soit S =
å X . i
i =1
On dit que S est une variable aléatoire de loi binomiale de paramètr es n et p. On note alors S ® B(n, p) En particulier toute variable aléatoire X de Bernoulli de paramètre p est une variable aléatoire de loi binomiale de paramètres 1 et p, ce qui justifie la notation X ® B(1, p).
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 5
G. COSTANTINI http://bacamaths.net/
3.2. Théorème Soit S ® B(n, p) avec n Î et p Î [0, 1]. Alors : *
ìS (W) = { 0 ; 1 ; ... ; n} ï í ïî"k Î S (W), P( S -1 ( k) ) = Cnk p k (1 - p) n - k
Démonstration : Supposons que S soit la somme de n variables aléatoires X 1, X 2, ... , X n indépendantes, de loi de Bernoulli de même paramètre p. On a clairement S (W) = 0, n.
(
)
Calculons P S -1 ( k ) pour tout k Î 0, n. n
-1
S (k ) = {w Î W tels que
å X (w) = k } i
i =1
Or, pour que la somme de n nombres égaux à 0 ou 1 soit égale à k Î 0, n, il faut et il suffit que k d'entre eux soient égaux à 1 et n - k d'entre eux soient égaux à 0 :
C {w ÎW tels que X j (w) = 1 "j Î J et X j (w) = 0 "j Î{ 0 ; 1 ; ... ; n} \ J }
-1 S (k ) =
(
)
J ÎÃ { 0 ; 1 ; ... ; n} Card ( J ) = k
Donc :
(
-1
P S ( k )
)
æ æ ö ö ö æ ç -1 ÷ -1 ç ç P I X j (1) Ç = I X j (0)÷÷ ÷÷ çç ÷ ç ø è j Î{0 ; 1 ; ... ; n} \ J ø ø J ÎÃ( {0 ; 1 ; ... ; n} ) è è j ÎJ
å
Card ( J ) = k
Et comme X 1, X 2, ... , X n sont indépendantes :
(
P S
-1
ö æ ö æ -1 ÷ ç -1 -1 -1 ç ( k )) = P I X j (1) P X j ( 0)÷ = P( X j (1) ) P( X j ( 0) ) I ç ø÷ çè j Î{ 0 ; 1 ; ... ; n} \ J ø÷ J ÎÃ({ 0 ; 1 ; ... ; n} ) j ÎJ j Î{ 0 ; 1 ; ... ; n} \ J J ÎÃ({ 0 ; 1 ; ... ; n} ) è j ÎJ
å
å
Card ( J ) = k
Card ( J ) = k
(
P S -1 ( k )
)=
(
å {
p (1 - p) = Õ Õ { } }
J ÎÃ 0 ; 1 ; ... ; n Card ( J ) = k
) j ÎJ
j Î 0 ; 1 ; ... ; n \ J
Õ
Õ
p (1 - p) å { }
1 - k
k
(
J ÎÃ 0 ; 1 ; ... ; n Card ( J ) = k
)
Et comme la somme comporte C nk termes :
(
P S -1 ( k )
) = C p k n
k
(1 - p)1- k
3.3. Proposition Si X ® B(n, p) avec n Î et p Î [0, 1], alors : *
E ( X ) = np et V ( X ) = npq (où q = 1 - p)
Démonstration :
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 6
G. COSTANTINI http://bacamaths.net/
E ( X ) =
å P( X
-1
n
å
( x)) x =
x ÎX ( W )
Cnk
p (1 - p) k
n
n- k
k =
åC
k n
p k (1 - p) n - k k
k = 1
k = 0
Or : k C nk = n C nk --11 d'où : n
E ( X ) = n
å
Cnk--11 p k (1 - p) n - k
n
= np
k = 1
å
Cnk--11 p k -1 (1 - p) ( n -1) - ( k -1) = np
k = 1
® B(n, p),
åC
k k n -1 p (1
- p) ( n-1) - k
k = 0
E ( X ) = np [ p + (1 - p) ]
Mieux : puisque X
n -1
n -1
= np
il existe des variables aléatoires (réelles) X 1, X 2, ... , X n définies sur
W,
n
indépendantes, de loi de Bernoulli de même paramètre p telles que X =
å X . i
i =1
Par linéarité de l'espérance :
æ n E ( X ) = E ç çè
å i =1
ö X i ÷ = ø÷
n
å E ( X ) i
i =1
n
å p = np.
E ( X ) =
Et d'après 2.4. :
i =1
Remarquons que ce résultat persiste même si X est la somme de variables aléatoires (réelles) X 1, X 2, ... , X n de loi de Bernoulli de même paramètre p non indépendantes. Par contre, pour la variance, l'hypothèse d'indépendance est indispensable :
æ n
V ( X ) = V ç ç
å
è i =1
ö ø÷
X i ÷
Et comme X 1, X 2, ... , X n sont indépendantes, on a (d'après 1.5.) : n
V ( X ) =
åV ( X ) i
i =1
n
V ( X ) =
Et d'après 2.4. :
å pq = npq i =1
3.4. Théorème stabilité additive de la loi binomiale Si X ® B(m, p) et Y ® B(n, p) avec X et Y sont indépendantes, alors : X + Y ® B(m + n, p) Démonstration : Posons S = X + Y . On a clairement S (W) = 0, m + n.
(
)
Calculons P S -1 ( k ) pour tout k Î 0, m + n :
-1
S (k ) =
k
C X - (i) Ç Y - ( k - i) 1
1
i =0
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 7
G. COSTANTINI http://bacamaths.net/
D'où :
(
-1
(
-1
k
P S ( k )
) = å P( X - (i) Ç Y - ( k - i)) 1
1
i=0
Et comme X et Y sont indépendantes : k
P S ( k )
) = å P( X - (i)) P(Y - ( k - i)) 1
1
i =0
Comme X ® B(m, p) et Y ® B(n, p) :
(
1 P S - ( k )
(
)=
P S
-1
k
å C p (1 - p) i m
i
m- i
Cnk - i p k - i (1 - p) n - ( k - i)
i=0
æ k ( k )) = çç è
å
ö ø÷
CmiCnk - i ÷ p k (1 - p) m+ n - k
i=0
k
å C C i m
Et d'après la formule de Vandermonde :
k -i n
=
C mk +n
i =0
(
P S - ( k )
D'où :
1
) = C +
k m n
p k (1 - p) m + n - k
Donc S ® B(m + n, p)
Preuve de la formule de Vandermonde : Soit E et F deux sous-ensembles disjoints d'un ensemble X . Notons m et n leur cardinaux respectifs. On dénombre, de deux façons différentes le nombre de parties à k éléments de E È F :
·
D'une part, il y en a : C mk +n
·
D'autre part, on obtient une telle partie en choisissant i éléments (0 i k ) dans E ( C mi possibilités) puis k - i éléments dans
F ( C nk - i
k
possibilités). Soit au total :
å C C i m
k -i n
parties.
i =0
D'où la formule de Vandermonde.
4. Exemples 4.1. Cas de variables aléatoires de loi de Bernoulli i ndépendantes : 40% des individus d'une population possèdent un caractère C . On considère un échantillon de 200 individus. Peut-on affirmer, à 99%, que la probabilité de la fréquence d'apparition du caractère C dans l'échantillon soit comprise entre 30% et 50% ? Population
C (40 %)
C (60 %)
Echantillon 200 individus
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 8
G. COSTANTINI http://bacamaths.net/
Pour tout i Î 1, 200, notons X i la variable aléatoire définie par X i =
ì1 si le i ème í î0 sinon
individu de l'échantillon possède le caractère C
X i est une variable aléatoire de Bernoulli de paramètr e 0,4.
Notons X =
n
å X = nombre d'individus de l'échantillon qui possèdent le caractère C . i
i =1
Alors :
X
B(200 ; 0,4)
E ( X ) = np = 80 et Var( X ) = np(1 - p) = 48
On a donc :
La fréquence d'apparition du caractère C dans la population est : On veut estimer :
p(0,3
X
200
X
200
0,5) = p(60 X 100) = p(| X - E ( X )| 20)
Première méthode : utilisation de l'inégalité de Bienaymé-Tchebychev p(| X - E ( X )| e)
On la rappelle :
Var( X )
e2
p(| X - E ( X )| 20) = 1 - p(| X - E ( X )| 21) 1 -
On a donc :
48 2
21
0,89
L'inégalité est trop faible pour qu'on puisse affirmer à 99% que la probabilité de la fréquence d'apparition du caractère C dans l'échantillon soit comprise entre 30% et 50%. Deuxième méthode : Approximation de la loi binomiale par la loi normale
æ -20 X - E( X ) 20 ö 2 p(| X - E ( X )| 20) = p ç ÷ è4 3 4 3 4 3ø
ò
5 3
0
2
1 2p
e
-
t
2
dt 0,996
Conclusion : oui, on peut affirmer à 99% que la probabilité de la fréquence d'apparition du caractère C dans l'échantillon soit comprise entre 30% et 50%.
4.2. Cas de variables aléatoires de loi de Bernoulli n on indépendantes : Soient n, p Î . *
On dispose de p lots à répartir entre n personnes P1, ... , Pn de la façon suivante : chaque lot est attribué par tirage au sort d'une personne parmi les n. Calculer le nombre moyen de personnes qui ne recevront aucun lot. L'univers W de cette expérience aléatoire est l' ensemble des p-listes de {P1 ; ... ; Pn}. Il y en a n p . Pour tout k Î 1, n, notons E k l'événement décrit par "la personne Pk ne reçoit aucun lot". L'événement E k est constitué des p-listes de {P1 ; ... ; Pn} \ {Pk }. Il y en a (n - 1) p . En choisissant la probabilité uniforme P sur W, on a : P( E k ) =
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 9
(n - 1) p n p
.
G. COSTANTINI http://bacamaths.net/
X k =
Notons :
ì1 si E k est réalisé í0 sinon î
Les X k , 1 k n, sont des variables aléatoires de loi de Bernoulli de paramètr e
(n - 1) p n p
.
n
Posons X =
å X = nombre de personnes ne recevant aucun lot. i
i =1
E ( X ) = nE ( X 1) =
On a :
Exemple : si p
= 4 et n = 5, E ( X ) =
4
4 3
5
=
(n - 1) p n p -1
256 > 2. Le nombre de personnes ne recevant aucun lot, en moyenne, 125
est supérieur à 2. Remarque : dans cet exercice , les X k , 1 k n, sont non indépendantes (lorsque n 2) : En effet, soient h et k distincts compris entre 1 et n. p E k Ç E h est constitué des p-listes de {P1 ; ... ; Pn} \ {Pk ; Ph}. Il y en a (n - 2 ) . p
P( E k Ç E h) =
Donc :
Et comme P( E k ).P( E h) =
(n - 1) p n p
´
(n - 1) p n p
( n - 2) p
n
, on en déduit que :
-1 -1 -1 -1 P( X k (1) Ç X h (1) ) ¹ P( X k (1) ) ´ P( X h (1) )
Donc X k et X h ne sont pas indépendantes et les X k , 1 k n non plus.
Suites de variables aléatoires de Bernoulli. Loi binomiale
Page 10
G. COSTANTINI http://bacamaths.net/