S3 Statis

  • November 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View S3 Statis as PDF for free.

More details

  • Words: 1,799
  • Pages: 16
Notions de probabilités Il existe plusieurs manières de définir une probabilité. Principalement, on parle de probabilités inductives ou expérimentales et de probabilités déductives ou théoriques. On peut les définir comme suit : Probabilité expérimentale ou inductive : la probabilité est déduite de toute la population concernée. Par exemple, si sur une population d'un million de naissances, on constate 530000 garçons et 470000 filles, on dit que P[garçon] = 0.53 Probabilité théorique ou déductive : cette probabilité est connue grâce à l'étude du phénomène sous-jacent sans expérimentation. Il s'agit donc d'une connaissance a priori par opposition à la définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori. Par exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que P["obtenir un 4"] =

.

Comme il n'est pas toujours possible de déterminer des probabilités a priori, on est souvent amené à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième solution. Ce passage est supposé possible en terme de limite (i.e. avec une population dont la taille tend vers la taille de la population réelle).

Théorème des probabilités composées Soient deux évènements A et B réalisés respectivement au cours de

épreuves. On a donc

et

et

fois

. Si de plus

A et B sont réalisés simultanément fois, on a . Que peut-on déduire sur la probabilité de l'évènement B sachant que l'évènement A est réalisé ? Cette probabilité est appellée probabilité

conditionnelle de B sachant A et se note a

. Dans notre cas, on

.

Par définition, on a

et

.

Conséquences Deux évènements A et B sont dits indépendants si ou encore si

(l'information sur la

réalisation de A n'apporte rien à l'évènement B) et Attention : 1) indépendant

incompatible.

2)

et

sont indépendants uniquement si

vous pouvez prouver que théoriquement. En pratique, i.e. sur des valeurs numériques, on ne peut pas induire l'indépendance à partir de cette égalité constatée numériquement. On ne peut que supposer très probable cette indépendance. Si deux évènements et sont indépendants, alors il en est de même de et , et , et . Soit

,

, ...,

une suite d'évènements ayant une intersection

commune non nulle, i.e.

, on a alors

Théorème de Bayes - Probabilités des causes

.

Soit un évènement qui peut dépendre de causes différentes et incompatibles deux à deux (on ne peut avoir deux causes réalisées simultanément). Etant donnée la réalisation de l'évènement , quelle est la probabilité que ce soit

qui en soit la cause ?

On peut écrire que car constitue un système complet (les causes sont incompatibles deux à deux et toutes les causes possibles à sont supposées connues). Donc d'après le théorème des probabilités totales, on a

.

En appliquant le théorème des probabilités conditionnelles, on a donc

Exemple : Deux machines 200 objets.

produit

et

produisent respectivement 100 et

de pièces défectueuses et

en produit

. Quelle est la probabilité pour qu'un objet défectueux ait été fabriqué par la machine L'évènement constaté,

? , est donc la présence d'une pièce

défectueuse et les causes sont les machines

et

des productions de ces machines, on a et plus, les probabilités conditionnelles de l'évènement

. Compte tenu . De selon les

machines sont et . En reportant ces valeurs dans la formule générale, on obtient

Variable aléatoire : définitions Une variable aléatoire (V.A.) est une application de l'ensemble des épreuves dans le corps des réels. Elle est caractérisée par l'ensemble des probabilités associées à tous ses états possibles. Définition 1 Tout ensemble de parties d'un ensemble , stable par réunion, intersection et complémentarité s'appelle une tribu sur . Soit une tribu de parties de . Le couple s'appelle un espace probabilisable ou mesurable et est l'ensemble des évènements. Si peut être muni d'une topologie, alors la tribu engendrée par la classe des ouverts de est appellée tribu borélienne. Définition 2 Une variable aléatoire est une application mesurable d'un espace probabilisé ( , , ) dans le corps des réels muni de sa tribu borélienne ( , ) (i.e. ensemble des intervalles de la forme ). Définition 3 Pour tout borélien B (i.e.

), on définit une loi de

probabilité de X sur ( , ) et l'on note

:

Définition 4 Une v.a. dénombrable.

est discrète si Card[ ] est fini ou

Dans ce cas,

ne peut prendre, avec une probabilité non nulle, qu'un

nombre fini de valeurs particulières

. On note

généralement les probabilités par

.

Définition 5 Une v.a.

est continue si elle peut prendre toute valeur

sur un segment de la forme que

,

,

,

et telle

.

Définition 6 Une v.a. 2)

est mixte si 1)

,

et 3)

Fonction de répartition : Définition La fonction de répartition (FR) d'une v.a. dans

est l'application

définie par

Propriétés est non décroissante. est continue à gauche. est continue à droite dans le cas des v.a. continues. et

de

Fonction de répartition d'une v.a. discrète Soit

une v.a. discrète pouvant prendre les valeurs

probabilités respectivement où

avec

est donné par

de .

.

Fonction de répartition d'une v.a. continue Soit

une v.a. continue. Sa fonction de répartition est continue à

gauche et à droite. Il existe donc une fonction écrire :

telle que l'on puisse

Par définition, est appellée densité de probabilité de , ou en abrégé, ddp de . Cette fonction a les propriétés suivantes :

Couple de variables aléatoires :

Définitions Soient et deux v.a. définies sur le même espace probabilisé. On appelle fonction de répartition conjointe de et , la fonction définie par :

On a par définition,

et

.

Cas d'un couple de v.a. continues On note

la ddp conjointe de

et

et l'on a par définition :

avec les propriétés suivantes :

On peut également définir une fonction de répartition marginale de , notée

par

(idem pour ).

Cas d'un couple de v.a. discrètes

,

On note

.

Distribution conditionnelle Soient conjointe

et

deux v.a. continues de FR conjointe

et de ddp

. Comment peut-on évaluer la probabilité conditionnelle ?

On définit la fonction de répartition conditionnelle

et la densité de probabilité conditionnelle

Si les deux v.a. sont indépendantes, alors on a

par

par

Moyenne et espérance mathématique d'une v.a. : Notion de moyenne pour une v.a. discrète Soit

une v.a. discrète prenant ses valeurs dans

les probabilités associées sont

et dont

.

Par définition, on appelle moyenne théorique ou espérance mathématique de

, et l'on note

, la valeur

.

On ne connait cette v.a. que par le moyen d'un échantillon de taille (dont on supposera qu'il est significatif par rapport au nombre de valeurs possible, se réalise

, de la v.a., i.e.

). Chaque évènement

fois dans l'échantillon (

La moyenne expérimentale est définit par

).

.

Si on admet que la proportion tend vers la propabilité théorique pour un échantillon de taille infinie ( ) alors on peut estimer la moyenne théorique par la limite de la moyenne expérimentale. Espérance mathématique Soit note

une v.a. On définit l'espérance mathématique de la valeur

et l'on



est la fonction de répartition de

.

Cette intégrale est dite au sens de Stieljes. Soit sur

. On peut discrétiser la v.a.

v.a. discrète tels que

une v.a. définie

en introduisant une nouvelle

en découpant l'intervalle

en

intervalles

et donc

Grâce à un échantillon de taille expérimentale de si

, on peut calculer une moyenne

(

) qui tend vers la moyenne théorique . Si de plus, on découpe en une infinité

d'intervalles de la forme moyenne théorique de la v.a.

( par

), alors on obtient la

Remarque : L'espérance mathématique n'est pas toujours définie. C'est en particulier le cas de la loi de Cauchy dont la ddp est donnée par

car l'intégrale

diverge.

Propriétés : Les propriétés de l'espérance mathématique proviennent de celle de l'opérateur intégral et en particulier la linéarité. Soit une v.a. et une constante.

Soient

et

deux v.a. et

et deux constantes.

Plus généralement, pour toute fonction support compact

Exemple : Soient

et

, positive, continue, à

deux v.a. continues indépendantes de même

loi . On souhaite trouver la loi de la variable aléatoire a donc

Les deux variables étant indépendantes, on a Soit le changement de variables suivant :

. On

.

dont le jacobien est

Ce qui nous donne

d'où l'on déduit la densité de probabilité

Supposons maintenant que ces deux variables aléatoires suivent une loi exponentielle de paramètre

La v.a.

,

. On a alors

suit donc une loi uniforme. Comme on doit avoir , cela donne

et

.

et

Moments La notion de moment permet d'introduire celle d'indicateur résumant et/ou caractérisant une variable aléatoire. On y retrouvera la moyenne comme cas particulier. Définitions Moment d'ordre n. On appelle moment d'ordre n de la v.a. note

la valeur

et l'on

.

Pour les v.a. discrètes, cela donne : Moment d'ordre n rapporté à l'abscisse a. On appelle moment d'ordre n de la v.a.

rapporté à l'abscisse

valeur

, et l'on note

, la

.

Moment centré d'ordre n. On appelle moment centré d'ordre n de la v.a.

et l'on note

d'ordre

la valeur

. Le moment centré d'une v.a. est donc le moment d'ordre de cette v.a.

rapporté à l'abscisse particulière qu'est sa moyenne ( Variance, covariance et écart-type La variance est définie par

).

Elle traduit la dispersion de la distribution de la v.a. autour de sa valeur moyenne. Etant un carré, la dimension de la variance n'est pas celle de la moyenne. C'est pourquoi on utilise plus souvent l'écart type, noté , qui est la racine de la variance. On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le résultat de l'expérience aléatoire est incertain. A la limite, une v.a. de variance nulle conduit à des expériences strictement identiques (i.e. le phénomène est complètement déterministe, il n'y a donc plus aucune raison de garder la notion de variable aléatoire). La variance a également des propriétés intéressantes vis à vis de la combinaison linéaire de v.a. : Soient



et

deux v.a.

est la covariance des v.a.

et

définie par :

La covariance peut être vue comme le moment centré conjoint d'ordre 1 de deux v.a. Si les deux v.a. sont indépendantes, alors leur covariance est nulle (mais la réciproque n'est pas vraie en général).

Par ailleurs, soit

une v.a. et

et deux constantes. On a

Les valeurs principales Loi

Type

0-1

D

Uniforme

D

Binomiale

D

Prob. ou ddp

Moyenn e

Variance

non défini

non défini

et

pour Géométrique

D

Pascal

D

Poisson

D

pour

pour et

Uniforme

C

Gauss

C

Cauchy

C

avec

pour

Gamma

C

Exponentiell e

C

Rayleigh

C

Laplace

C

pour

pour

C Student

C

Weibull

C

Type : D

loi discrète ; C

Semestre123456 Bon chance :

loi continue.

et

Related Documents

S3 Statis
November 2019 14
S3
December 2019 17
S3
May 2020 7
Fluida Statis
October 2019 36
Listrik Statis
May 2020 26
Listrik Statis
June 2020 20