Définition de Laplace Pour calculer la probabilité P(A) d’un événement aléatoire A, on dénombre le nombre n(A) de cas, parmi les N cas possibles (d’égale vraisemblance), pour lesquels l’événement A est réalisé. On dit que n(A) est le nombre de cas favorables à l’événement A. Par définition2, on pose alors
P(A) =
nombre de cas favorables à Anombre de cas possibles= n (A)N
Exemple : Un sac contient 12 jetons numérotés de 1 à 12. On tire, un à un, deux jetons, sans remettre le premier jeton après tirage. On cherche alors à calculer la probabilité de l’événement A = «obtenir deux numéros pairs». Il y a N = 12 · 11 = 132 cas possibles. Le nombre de cas favorables est quant à lui n(A) = 6 · 5 = 30. La probabilité de l’événement A est donc P(A) = 30132 = 22,73%. Dénombrement
• •
La technique de l’arbre est indiquée dans les cas où l’on tient compte de l’ordre dans lequel se produisent les événements. (écrire tous les mots avec les lettres A, B, C, D). Avec les lettres du mot MISSISSIPPI (4 S, 4 I et 2 P), on peut composer 11!4!·4!·2! = 34650 mots différents.
Coefficients binomiaux et triangle de Pascal Propriété 1
nk= nn-k
Propriété 2
nk= n-1k-1+ n-1k (les choix du chat, malheureux + heureux)
Le triangle de Pascal
Le premier 15 est à la ligne 6, place 2 (on ne compte pas les 1), donc :
62= 51+ 52 Propriété 3
nk= n!k!n-k!
Exemple :
courses de chevaux, deviner les numéros à la loterie, QCM
La loi d’addition
P(A ou B) = P(A) + P(B) − P(A et B) Exemple : Dans une population, 45% des individus sont vaccinés contre la fièvre jaune, 60% sont vaccinés contre la diphtérie et 30% sont vaccinés contre les deux maladies. On se demande alors quelle est la proportion d’individus n’étant vaccinés contre aucune de ces deux maladies ?
Probabilité conditionnelle Définition : On définit la probabilité conditionnelle, notée P(A|B), comme étant la probabilité que l’événement A se réalise sachant que B est déjà réalisé. Remarque : P(A|B) n’est pas la probabilité d’un nouvel événement qui s’appellerait «A|B» mais c’est plutôt «la probabilité» de A lorsque l’on prend, comme ensemble de référence, l’ensemble des seuls cas favorables à B.
P(A|B) =
N(A et B)n(B)
=
n(A et B)/NN(B)/N
=
P(A et B)P(B)
P(A et B) = P(A B) · P(B) Exemple : Le personnel d’une entreprise est composé de 60% de femmes et de 40% d’hommes. Il ressort d’une enquête que 35% des femmes fument contre 25% des hommes. On choisit un collaborateur de cette société au hasard. Quelle est la probabilité qu’il s’agisse d’un homme fumeur ?
P(A|B) · P(B) = P(B|A) · P(A) car = P(A et B) = P(B et A) P(B|A) =
P(A|B) · P(B) P(A)
Exemple : Dans la même entreprise qu’à l’exemple précédent, on choisit un collaborateur au hasard et on constate qu’il fume. Quelle est alors la probabilité qu’il s’agisse d’une femme ? Définition : Deux événements A et B sont dits indépendants si et seulement si
P(A et B) = P(A) · P(B) Variables aléatoires Une variable aléatoire est une «règle» permettant de représenter les résultats d’une expérience aléatoire par une valeur numérique (c’est-à-dire un nombre). A chacune des valeurs possibles de la variable aléatoire, on associe la probabilité de l’événement correspondant. Ainsi, on obtient la loi de probabilité (ou distribution de probabilité) de la variable aléatoire X. Variable aléatoire X 2 3 4 5 6 7 8 9 10 11 12
Probabilité P ({X}) 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36
Ce tableau représente les résultats de la variable aléatoire X = « somme des résultats des deux dés ».
Espérance mathématique et variance Définitions : Soit X une variable aléatoire discrète prenant les n valeurs x1,…, xn avec les probabilités respectives p1,… pn. On appelle espérance mathématique E(X) de la variable aléatoire X, la moyenne des xi pondérée par les pi.
E(X) = x1 · p1 + x2 · p2 + … +xn · pn =
i=1nxi·pi
Exemple : Une urne contient 100 boules : 98 blanches et 2 noires. On tire au hasard une boule. On gagne 100 francs si elle est noire et 50 francs si elle est blanche. On se demande quel est le gain moyen d’un tel jeu. Autres : E(X) du nombre de face d’un pièce de monnaie, du jet de deux dés, etc.. La variance théorique et l’écart-type On définit la variance théorique Var(X) de la variable aléatoire X par la variance pondérée des xi (par rapport à l’espérance)
Var(X) =
i=1nxi-EX² ·
pi
On définit l’écart-type s(X) de la variable par
S(X) =
Var(X)
La loi binomiale on répète un certain nombre de fois la même expérience débouchant sur deux issues : succès et échec, de probabilités complémentaires P(succès) = p et P(échec) = 1 − p. Une telle expérience aléatoire est appelée expérience de Bernoulli. Si on définit la variable aléatoire X dénombrant le nombre total de succès réalisés sur n répétitions indépendantes de cette même expérience, alors les valeurs possibles de X sont k = 0, 1, . . ., n et les probabilités correspondantes sont données par P(X = k) = Nombre de cas favorables × Probabilité d’un cas favorable
P(X = k) =
nk
· pk · (1-p)(n-k)
Exemples : • On soigne 20 patients avec un traitement qui se révèle efficace dans 70% des cas. Quelle est la probabilité que 12 patients traités guérissent ? • Quelle est la probabilité qu’une famille de 7 enfants compte exactement 2 garçons ? • Quelle est la probabilité de deviner les résultats de 8 matches d’une journée de championnat au cours de laquelle se déroulent 13 parties. Notons que la loi binomiale a pour espérance mathématique et pour variance
E(X) = n · p
et
Var(X) = n · p · (1 − p)
La loi de Poisson Une variable aléatoire discrète X obéit à une loi de Poisson si sa loi de probabilité est définie par
La constante réelle positive λ est appelée paramètre de la loi et que λ = np On peut démontrer facilement qu’une telle loi a, respectivement, pour espérance mathématique et pour variance
E(X) = λ et Var(X) = λ Approximation de la loi binomiale par la loi de Poisson Bien que la loi de Poisson ait un intérêt intrinsèque, elle permet d’obtenir une bonne approximation de la loi binomiale dans le cas d’événements rares. En pratique, on dira qu’un événement de probabilité p est rare si le nombre d’expériences n est au moins de 50 (n ≥ 50) et si np est inférieur à 5. Exemple : Une urne contient 100 boules : une noire et 99 blanches. On tire successivement n = 50 boules avec remise et on considère la variable aléatoire X = « nombre de boules noires extraites ». On sait que X suit une loi binomiale de paramètres n = 50 et p =1100. La loi multinomiale Si des événements E1, E2, . . . ,Ek se produisent respectivement avec des probabilités p1, p2, . . . , pk, alors la probabilité que E1 se produise n1 fois, E2 se produise n2 fois , . . . , Ek se produise nk fois, est donnée par
Exemple : Si l’on jette douze fois un dé, la probabilité d’obtenir «un» 3 fois, «deux» 4 fois, «trois» 2 fois, «quatre» 2 fois et «cinq» 1 fois est égale à
12!3!⋅4!⋅2!⋅2!⋅1! ⋅ 163⋅ 164 162 162⋅161 Le théorème central limite, courbe de Gauss Conclusion Soit X une variable aléatoire suivant une loi binomiale B(n, p). Pour calculer la probabilité P(A ≤ X ≤ B), on procède comme suit :
•
On calcule la moyenne m = n · p et l’écart-type s = n · p · 1 - p
•
On définit les nouvelles bornes
a = A-0.5-ms b = B+0.5-ms On détermine, à l’aide de la table, l’aire sous la cloche de Gauss entre les bornes a et b ; c’est-à-dire Φ(b) − Φ(a). On en conclut alors que P(A ≤ X ≤ B) = Φ(b) − Φ(a).