Notions de probabilités Il existe plusieurs manières de définir une probabilité. Principalement, on parle de probabilités inductives ou expérimentales et de probabilités déductives ou théoriques. On peut les définir comme suit : Probabilité expérimentale ou inductive : la probabilité est déduite de toute la population concernée. Par exemple, si sur une population d'un million de naissances, on constate 530000 garçons et 470000 filles, on dit que P[garçon] = 0.53 Probabilité théorique ou déductive : cette probabilité est connue grâce à l'étude du phénomène sous-jacent sans expérimentation. Il s'agit donc d'une connaissance a priori par opposition à la définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori. Par exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que P["obtenir un 4"] =
.
Comme il n'est pas toujours possible de déterminer des probabilités a priori, on est souvent amené à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième solution. Ce passage est supposé possible en terme de limite (i.e. avec une population dont la taille tend vers la taille de la population réelle).
Théorème des probabilités composées Soient deux évènements A et B réalisés respectivement au cours de
épreuves. On a donc
et
et
fois
. Si de plus
A et B sont réalisés simultanément fois, on a . Que peut-on déduire sur la probabilité de l'évènement B sachant que l'évènement A est réalisé ? Cette probabilité est appellée probabilité
conditionnelle de B sachant A et se note a
. Dans notre cas, on
.
Par définition, on a
et
.
Conséquences Deux évènements A et B sont dits indépendants si ou encore si
(l'information sur la
réalisation de A n'apporte rien à l'évènement B) et Attention : 1) indépendant
incompatible.
2)
et
sont indépendants uniquement si
vous pouvez prouver que théoriquement. En pratique, i.e. sur des valeurs numériques, on ne peut pas induire l'indépendance à partir de cette égalité constatée numériquement. On ne peut que supposer très probable cette indépendance. Si deux évènements et sont indépendants, alors il en est de même de et , et , et . Soit
,
, ...,
une suite d'évènements ayant une intersection
commune non nulle, i.e.
, on a alors
Théorème de Bayes - Probabilités des causes
.
Soit un évènement qui peut dépendre de causes différentes et incompatibles deux à deux (on ne peut avoir deux causes réalisées simultanément). Etant donnée la réalisation de l'évènement , quelle est la probabilité que ce soit
qui en soit la cause ?
On peut écrire que car constitue un système complet (les causes sont incompatibles deux à deux et toutes les causes possibles à sont supposées connues). Donc d'après le théorème des probabilités totales, on a
.
En appliquant le théorème des probabilités conditionnelles, on a donc
Exemple : Deux machines 200 objets.
produit
et
produisent respectivement 100 et
de pièces défectueuses et
en produit
. Quelle est la probabilité pour qu'un objet défectueux ait été fabriqué par la machine L'évènement constaté,
? , est donc la présence d'une pièce
défectueuse et les causes sont les machines
et
des productions de ces machines, on a et plus, les probabilités conditionnelles de l'évènement
. Compte tenu . De selon les
machines sont et . En reportant ces valeurs dans la formule générale, on obtient
Variable aléatoire : définitions Une variable aléatoire (V.A.) est une application de l'ensemble des épreuves dans le corps des réels. Elle est caractérisée par l'ensemble des probabilités associées à tous ses états possibles. Définition 1 Tout ensemble de parties d'un ensemble , stable par réunion, intersection et complémentarité s'appelle une tribu sur . Soit une tribu de parties de . Le couple s'appelle un espace probabilisable ou mesurable et est l'ensemble des évènements. Si peut être muni d'une topologie, alors la tribu engendrée par la classe des ouverts de est appellée tribu borélienne. Définition 2 Une variable aléatoire est une application mesurable d'un espace probabilisé ( , , ) dans le corps des réels muni de sa tribu borélienne ( , ) (i.e. ensemble des intervalles de la forme ). Définition 3 Pour tout borélien B (i.e.
), on définit une loi de
probabilité de X sur ( , ) et l'on note
:
Définition 4 Une v.a. dénombrable.
est discrète si Card[ ] est fini ou
Dans ce cas,
ne peut prendre, avec une probabilité non nulle, qu'un
nombre fini de valeurs particulières
. On note
généralement les probabilités par
.
Définition 5 Une v.a.
est continue si elle peut prendre toute valeur
sur un segment de la forme que
,
,
,
et telle
.
Définition 6 Une v.a. 2)
est mixte si 1)
,
et 3)
Fonction de répartition : Définition La fonction de répartition (FR) d'une v.a. dans
est l'application
définie par
Propriétés est non décroissante. est continue à gauche. est continue à droite dans le cas des v.a. continues. et
de
Fonction de répartition d'une v.a. discrète Soit
une v.a. discrète pouvant prendre les valeurs
probabilités respectivement où
avec
est donné par
de .
.
Fonction de répartition d'une v.a. continue Soit
une v.a. continue. Sa fonction de répartition est continue à
gauche et à droite. Il existe donc une fonction écrire :
telle que l'on puisse
Par définition, est appellée densité de probabilité de , ou en abrégé, ddp de . Cette fonction a les propriétés suivantes :
Couple de variables aléatoires :
Définitions Soient et deux v.a. définies sur le même espace probabilisé. On appelle fonction de répartition conjointe de et , la fonction définie par :
On a par définition,
et
.
Cas d'un couple de v.a. continues On note
la ddp conjointe de
et
et l'on a par définition :
avec les propriétés suivantes :
On peut également définir une fonction de répartition marginale de , notée
par
(idem pour ).
Cas d'un couple de v.a. discrètes
,
On note
.
Distribution conditionnelle Soient conjointe
et
deux v.a. continues de FR conjointe
et de ddp
. Comment peut-on évaluer la probabilité conditionnelle ?
On définit la fonction de répartition conditionnelle
et la densité de probabilité conditionnelle
Si les deux v.a. sont indépendantes, alors on a
par
par
Moyenne et espérance mathématique d'une v.a. : Notion de moyenne pour une v.a. discrète Soit
une v.a. discrète prenant ses valeurs dans
les probabilités associées sont
et dont
.
Par définition, on appelle moyenne théorique ou espérance mathématique de
, et l'on note
, la valeur
.
On ne connait cette v.a. que par le moyen d'un échantillon de taille (dont on supposera qu'il est significatif par rapport au nombre de valeurs possible, se réalise
, de la v.a., i.e.
). Chaque évènement
fois dans l'échantillon (
La moyenne expérimentale est définit par
).
.
Si on admet que la proportion tend vers la propabilité théorique pour un échantillon de taille infinie ( ) alors on peut estimer la moyenne théorique par la limite de la moyenne expérimentale. Espérance mathématique Soit note
une v.a. On définit l'espérance mathématique de la valeur
et l'on
où
est la fonction de répartition de
.
Cette intégrale est dite au sens de Stieljes. Soit sur
. On peut discrétiser la v.a.
v.a. discrète tels que
une v.a. définie
en introduisant une nouvelle
en découpant l'intervalle
en
intervalles
et donc
Grâce à un échantillon de taille expérimentale de si
, on peut calculer une moyenne
(
) qui tend vers la moyenne théorique . Si de plus, on découpe en une infinité
d'intervalles de la forme moyenne théorique de la v.a.
( par
), alors on obtient la
Remarque : L'espérance mathématique n'est pas toujours définie. C'est en particulier le cas de la loi de Cauchy dont la ddp est donnée par
car l'intégrale
diverge.
Propriétés : Les propriétés de l'espérance mathématique proviennent de celle de l'opérateur intégral et en particulier la linéarité. Soit une v.a. et une constante.
Soient
et
deux v.a. et
et deux constantes.
Plus généralement, pour toute fonction support compact
Exemple : Soient
et
, positive, continue, à
deux v.a. continues indépendantes de même
loi . On souhaite trouver la loi de la variable aléatoire a donc
Les deux variables étant indépendantes, on a Soit le changement de variables suivant :
. On
.
dont le jacobien est
Ce qui nous donne
d'où l'on déduit la densité de probabilité
Supposons maintenant que ces deux variables aléatoires suivent une loi exponentielle de paramètre
La v.a.
,
. On a alors
suit donc une loi uniforme. Comme on doit avoir , cela donne
et
.
et
Moments La notion de moment permet d'introduire celle d'indicateur résumant et/ou caractérisant une variable aléatoire. On y retrouvera la moyenne comme cas particulier. Définitions Moment d'ordre n. On appelle moment d'ordre n de la v.a. note
la valeur
et l'on
.
Pour les v.a. discrètes, cela donne : Moment d'ordre n rapporté à l'abscisse a. On appelle moment d'ordre n de la v.a.
rapporté à l'abscisse
valeur
, et l'on note
, la
.
Moment centré d'ordre n. On appelle moment centré d'ordre n de la v.a.
et l'on note
d'ordre
la valeur
. Le moment centré d'une v.a. est donc le moment d'ordre de cette v.a.
rapporté à l'abscisse particulière qu'est sa moyenne ( Variance, covariance et écart-type La variance est définie par
).
Elle traduit la dispersion de la distribution de la v.a. autour de sa valeur moyenne. Etant un carré, la dimension de la variance n'est pas celle de la moyenne. C'est pourquoi on utilise plus souvent l'écart type, noté , qui est la racine de la variance. On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le résultat de l'expérience aléatoire est incertain. A la limite, une v.a. de variance nulle conduit à des expériences strictement identiques (i.e. le phénomène est complètement déterministe, il n'y a donc plus aucune raison de garder la notion de variable aléatoire). La variance a également des propriétés intéressantes vis à vis de la combinaison linéaire de v.a. : Soient
où
et
deux v.a.
est la covariance des v.a.
et
définie par :
La covariance peut être vue comme le moment centré conjoint d'ordre 1 de deux v.a. Si les deux v.a. sont indépendantes, alors leur covariance est nulle (mais la réciproque n'est pas vraie en général).
Par ailleurs, soit
une v.a. et
et deux constantes. On a
Les valeurs principales Loi
Type
0-1
D
Uniforme
D
Binomiale
D
Prob. ou ddp
Moyenn e
Variance
non défini
non défini
et
pour Géométrique
D
Pascal
D
Poisson
D
pour
pour et
Uniforme
C
Gauss
C
Cauchy
C
avec
pour
Gamma
C
Exponentiell e
C
Rayleigh
C
Laplace
C
pour
pour
C Student
C
Weibull
C
Type : D
loi discrète ; C
Semestre123456 Bon chance :
loi continue.
et