En
Mathématiques, une
loi binomiale de paramètres
n et
p est une
Loi de probabilité qui correspond à l'expérience suivante :
On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = (1 - p). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la Variable aléatoire correspondant à ce nombre de succès.
L'univers X ( Ω )~ désigne l'ensemble des entiers naturels de 0 à n.
La variable aléatoire suit une Loi de probabilité définie par :
p (k) = P (X = k) = | | ( | n k | | ) | p k q n-k |
En France, le premier terme du membre de droite est noté C n k . Cette notation n'est pas reconnue internationalement.
Les symboles et C n k correspondent à un nombre de combinaisons et se calculent à partir de la fonction Factorielle :
| ( | n k | | ) | = C n k = | n! ––––––––––– k!(n-k)! |
Cette loi de probabilité s'appelle la loi binomiale de paramètre (n ; p) et se note B(n ; p).
Calcul de p(k)
Une épreuve de Bernoulli conduit à la création d'un univers Ω = {S ; E}, (S pour Succès et E pour Echec).
n épreuves de Bernoulli indépendantes conduisent à la création d'un univers Ωn constitué de n-uplets d'éléments de Ω, sur lequel peut se définir une probabilité produit. La probabilité de l'éventualité (S, S, ..., S, E, E, ..., E) avec k succès et n - k échecs a donc pour valeur pkqn-k.
Plus généralement, tout n-uplet formé de k succès et de n-k échecs aura pour probabilité pkqn-k quel que soit l'ordre d'apparition des S et des E.
L'évènement « X = k » est formé de tous les n-uplets comportant k succès et n - k échecs. La Combinatoire permet de déterminer le nombre de n-uplets de ce type : il y en a autant que de parties à k éléments d'un ensemble à n éléments ; or chaque partie correspond à une façon de placer les k succès parmi les n places du n-uplet. Il y a donc n-uplets, chacun ayant une probabilité égale à pkqn-k.
Donc P (X = k) = | | ( | n k | | ) | p k (1-p) n-k = | | ( | n k | | ) | p k q n-k |
.
Espérance, variance, écart type
X est la somme de
n variables aléatoires indépendantes suivant toutes la (même) loi de Bernoulli de paramètre
p, prenant la valeur 1 en cas de succès (probabilité
p) et 0 en cas d'échec (probabilité
(1-p)) ; ces variables aléatoires ont pour espérance
p et pour variance
p(1-p).
- E(X) est donc la somme des espérances, soit np
- V(X) est la somme des variances, soit np(1-p)
-
Convergence
Pour de grandes valeurs de n, le calcul de
devient vite pratiquement impossible, sauf si l'on cherche à calculer le logarithme de cette expression au lieu de l'expression elle-même (et à condition d'utiliser l'approximation des factorielles par la
Formule de Stirling). On distingue deux cas :
- Lorsque n tend vers l'infini et que p tend vers 0 avec np = a, la loi binomiale converge vers une Loi de Poisson de paramètre a. En pratique, on remplace la loi binomiale par une loi de Poisson dès que n > 30 et np < 5. * Lorsque n tend vers l'infini et que p et q sont de même ordre de grandeur, la loi binomiale converge vers une Loi normale d'espérance np et de variance npq. En pratique, on remplace une loi binomiale par une loi normale dès que n > 30, np > 5 et nq > 5
Démonstration de la convergence vers la loi normale
Supposons que p (k) admette un extremum pour . Alors, ln p (k) admet un extremum , car la fonction logarithme est monotone croisante. On calcule ln p (k) à l'aide de la formule de Stirling :
ln (k !) ~ k ln k - k + | 1 –– 2 | ln ( 2 π k) |
Il vient :
ln p (k) ~ n ln n - n + | 1 –– 2 | ln ( 2 π n) - | | n |
- | | + k ln p - (n-k) ln (1-p) n |
La dérivée par rapport à k donne :
d~ ––– dk | ln p (k) ~ ln | | + O | ( | 1 –– k | ) | n |
Pour annuler cette dérivée, il faut que l'argument du logarithme soit égale à un. On obtient alors la valeur de k qui rend le logarithme extremum :
La valeur la plus probable est donc la valeur moyenne. La dérivée seconde vaut par ailleurs :
d 2 ~ ––––– dk 2 | ln p (k) ~ - | | + O | ( | 1 ––– k 2 | ) | n |
Calculée en , elle vaut :
d 2 ~ ––––– dk 2 | ln p | ( | ∽ k | ) | ~ - | | = - | 1 ––– σ 2 | n |
On peut donc écrire le développement limité au second ordre suivant :
ln p (k) ~ ln p | ( | ∽ k | ) | + | ( k - tilde(k)) 2 –––––––––––––––––––––– 2 | d 2 ~ ––––– dk 2 | ln p | ( | ∽ k | ) | + o | ( | ( k - | ∽ k | ) | 2) |
qui s'écrit compte-tenu de ce qui précède :
ln p (k) ~ ln p | ( | ∽ k | ) | - | ( k - tilde(k)) 2 –––––––––––––––––––––– 2 σ 2 | n |
soit en prenant l'exponentielle :
On détermine la constante avec la condition de normalisation des probabilités totales :
∫ | + ∞ - ∞ | p (k) dk = 1 p | ( | ∽ k | ) | = frac1{√{2 π σ 2 n</div> n</div></div></div> n |
d'où la distribution gaussienne :
p (k) = | 1 ––––––––––––––– √(2 π σ 2 ) | exp | | n |
}}
Loi des grands nombres
La loi binomiale, son espérance et sa variance, ainsi que l'inégalité de Bienaymé-Tchebychev permettent de démontrer une version simple de la loi des grands nombres.
Voir aussi
Lien externe