Probabilitati

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Probabilitati as PDF for free.

More details

  • Words: 11,021
  • Pages: 31
TEORIA PROBABILITĂŢILOR Prof. univ. dr. RODICA TRANDAFIR I. ALGEBRE BOOLE. CORPURI DE PĂRŢI I.1. Algebre Boole Definiţie. Se numeşte algebră Boole, o mulţime nevidă B , în care sunt definite operaţiile ∪ , ∩ , C , şi faţă de care sunt verificate axiomele următoare: 1. A ∪ B = B ∪ A ; A ∩ B = B ∩ A ; (comutativitate) 2. A ∪ (B ∪ C ) = ( A ∪ B ) ∪ C ; A ∩ (B ∩ C ) = ( A ∩ C ) ∩ C ; (asociativitate) 3. 4.

( A ∩ B ) ∪ A = A ; A ∩ ( A ∪ B ) = A ; (absorbţie) A ∩ (B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C ) ; A ∪ (B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C ) ;

(distributivitate) 5.

(A ∩ A ) ∪ B = B ; (A ∪ A ) ∩ B = B ; (complementaritate) C

C

oricare ar fi A, B, C ∈ B . Avem următoarele consecinţe rezultate din definiţii: Consecinţa 1 (transformarea prin dualitate). Dacă într-o afirmaţie adevărată în care intervin operaţiile ∪ , ∩ , C , şi relaţiile ⊂ şi ⊃ , înlocuim peste tot pe ∪ cu ∩ ,

pe ∩ cu ∪ , pe ⊂ cu ⊃ şi ⊃ cu ⊂ , iar pe C îl lăsăm neschimbat, obţinem tot o afirmaţie adevărată numită afirmaţie duală. Se observă că sistemul de axiome 1-5 rămâne neschimbat dacă substituim mutual operaţiile ∪ , ∩ , operatorul C păstrându-şi locul. Consecinţa 2 (Legi de indempotenţă). Pentru orice A ∈ B avem: A∪ A = A, A∩ A = A (1.1.) Consecinţa 3 (Legi de monotonie). Oricare ar fi A, B, C ∈ B , din A ⊂ B rezultă: A∪C ⊂ B∪C , A∩C ⊂ B∩C (1.2.) Consecinţa 4. Pentru orice ( Ai )1≤i ≤ n ∈ B elementele n

∪ A i = A1 ∪..... ∪ A n i =1

n

∩A

i

= A 1 ∩ ...... ∩A n

i =1

sunt unic determinate şi nu depind de ordinea elementelor.

98

I.2. σ - algebre Boole Fie F o familie oarecare de elemente dintr-o algebră Boole. Definiţie. Numim reuniune a elementelor A ∈ F elementul B ∈ B dacă satisface condiţiile: 1. A ⊂ B pentru orice A ∈ F 2. Dacă A ⊂ D pentru orice A ∈ F , atunci B ⊂ D . Prin dualitate sunt conduşi la următoarea: Definiţie. Numim intersecţie a elementelor A ∈ F , elementul C ∈ B , dacă: 1. C ⊂ A pentru orice A ∈ F , 2. Dacă D ⊂ A pentru orice A ∈ F , atunci D ⊂ C . Notăm: B = A C= A



A∈F

∩ A∈F

Dacă F = ( Ai )i∈I atunci se utilizează notaţia: B =

∪A

C = ∩ Ai

i

i∈I

i∈I

Definiţie. Se numeşte σ -algebră Boole (algebră Boole σ -completă), o algebră Boole, B dacă pentru orice şir de elemente ( An )n∈N * ⊂ B există An ∈ B .



n∈N *

Teorema 1 (Legi de distributivitate). Dacă B este o σ -algebră Boole şi

A ∈ B , ( An )n∈N * ⊂ B avem:

  A ∩  ∪ An  = ∪ ( A ∩ An )  n∈N *  n∈N *   A ∪  ∩ An  = ∩ ( A ∪ An )  n∈N *  n∈N *

(1.3.)

(1.4.)

I.3. Corp de părţi Fie Ω o mulţime oarecare formată din elemente ω şi P (Ω ) mulţimea tuturor părţilor mulţimii Ω . Definiţie. Se numeşte corp de părţi o familie nevidă Σ ⊂ P (Ω ) , cu proprietăţile: (S1) A ∈ Σ implică A C ∈ Σ ; (S2) A, B ∈ Σ implică A ∪ B ∈ Σ . Din definiţie rezultă următoarele proprietăţi: (P1) Avem ∅ ∈ Σ , Ω ∈ Σ . (P2) Dacă ( Ai )1≤i ≤ n ⊂ Σ , atunci

n

∩ A ∈Σ . i

i =1

(P3) Dacă A, B ∈ Σ , A − B ∈ Σ .

99

I.4. σ - corp de părţi Definiţie. Se numeşte σ -corp de părţi (corp borelian) o familie nevidă Σ ⊂ P (Ω ) care posedă proprietăţile: (S1-1) (S1-2)

A ∈ Σ implică A C ∈ Σ ; ( An )n∈N * ⊂ Σ implică ∪ An ∈ Σ . n∈N *

Proprietăţile (P1) – (P3) rămân valabile şi pentru σ -corpuri. Avem adevărate şi următoarele proprietăţi: (P4) Dacă ( An )n∈N * ⊂ Σ , atunci lim An , lim An ∈ Σ , n→∞

n →∞

(P5) Dacă ( An )n∈N * ⊂ Σ , atunci lim An ∈ Σ , dacă există. n→∞

II. CÂMP DE EVENIMENTE. PROBABILITATE II.1. Câmp de evenimente În teoria probabilităţilor experimentele studiate sunt experimente aleatoare şi fiecare realizare a unui astfel de experiment se va numi probă. Rezultatul unei probe este un eveniment. Exemplu. În aruncarea cu zarul, mulţimea realizărilor posibile va fi Ω = {1,2,3,4,5,6}. Câteva evenimente A = {1,3,5} „rezultat impar”; B = {1,2,3,4}

„rezultat inferior lui 5”; C = {2,4,6} „rezultat par”. Dacă la o aruncare apare faţa cu numărul 3, sunt realizate evenimentele A şi B . Notând prin Ω mulţimea tuturor rezultatelor posibile ale unui experiment şi prin P (Ω ) mulţimea tuturor părţilor lui Ω , evenimentele aleatoare sunt elemente

ale lui P (Ω ) . În mulţimea Σ a evenimentelor asociate unui experiment se pot introduce trei operaţii corespunzătoare operaţiilor logice „sau”, „şi”, „non”. Fie A, B ∈ Σ . a) „ A sau B ” este evenimentul care se realizează dacă şi numai dacă se realizează cel puţin unul dintre evenimentele A sau B . Acest eveniment se notează prin A ∪ B şi se va numi reuniunea evenimentelor A şi B ; b) „ A şi B ” este evenimentul care se realizează dacă şi numai dacă se realizează ambele evenimente A şi B , numit intersecţia acestor evenimente şi notate prin A∩ B; c) „non A ”, este evenimentul care se realizează dacă şi numai dacă nu se realizează A . Acest eveniment îl vom numi contrar lui A şi se notează A C . Dacă fiecărui eveniment îi ataşăm mulţimea de probe prin care se realizează, atunci operaţiile dintre evenimente revin la operaţiile respective dintre mulţimile de probe corespunzătoare, ceea ce justifică notaţiile a), b), c). Rezultatele operaţiilor cu evenimente sunt tot evenimente ataşate experimentului respectiv. 100

Dacă A ∩ B = ∅ , deci A şi B nu se pot realiza simultan, spunem că A şi B sunt evenimente incompatibile. În mulţimea Σ a evenimentelor asociate unui anumit experiment, există două evenimente cu o semnificaţie deosebită şi anume: evenimentele Ω = A ∪ A C şi

∅ = A ∩ A C . Primul constă în producerea evenimentului A sau în producerea evenimentului A C ceea ce are loc evident, întotdeauna, prin urmare, acest eveniment nu depinde evenimentul A , în sensul că Ω = A ∪ A C = B ∪ B C , B fiind eveniment din mulţimea Σ . Este natural să numim evenimentul Ω, evenimentul sigur. Evenimentul ∅ constă în producerea evenimentului A şi în producerea evenimentului A C ceea ce nu poate avea loc niciodată. Acest eveniment se va numi eveniment imposibil. Fie evenimentele A, B ∈ Σ . Spunem că evenimentul A implică evenimentul B şi scriem A ⊂ B , dacă atunci când se realizează A se realizează în mod necesar B . Dacă avem simultan A ⊂ B şi B ⊂ A , atunci evenimentele A şi B sunt echivalente şi notăm A=B (aceasta revine la egalitatea mulţimilor de probe care corespund evenimentelor). Implicaţia dintre evenimente este o relaţie de ordonare parţială în mulţimea evenimentelor şi corespunde relaţiei de incluziune din algebrele Boole. Definiţie. Un eveniment A ∈ Σ este compus dacă există două evenimente B, C ∈ Σ , B ≠ A , C ≠ A astfel ca A = B ∪ C . În caz contrar evenimentul este elementar. Atomii algebrei Boole a evenimentelor se numesc evenimente elementare ale câmpului (notate ω ), evenimentul sigur e Ω iar evenimentul imposibil ∅ . Dacă mulţimea Ω conţine un număr finit de evenimente elementare, Ω = {ω1 , ω 2 ,..., ω n } atunci un eveniment este o parte a lui Ω şi deci va conţine şi el un număr finit (r
cu ale lui P (Ω ) . Analiza unui număr mare de experimente aleatoare a condus la concluzia următoare: Axiomă. Mulţimea evenimentelor asociate unui experiment constituie o algebră Boole. Definiţie. Algebra Boole a evenimentelor asociate unui experiment se numeşte câmpul de evenimente al experimentului respectiv. Deci câmpul de evenimente va fi o mulţime Ω înzestrată cu un corp de evenimente Σ , şi se va nota prin {Ω, Σ} . Definiţie. Vom numi corp borelian de evenimente ( σ - câmp) o mulţime Ω înzestrată cu un câmp borelian ( σ - câmp) de evenimente Σ şi se va nota, de asemenea, prin {Ω, Σ} .

101

Exemplu. O urnă conţine 20 de bile numerotate de la 1 la 20. Se extrage o bilă şi îi reţinem numărul. Se cere: a) Să se scrie evenimentul sigur. b) Fie evenimentele: A - „rezultatul este par”; B- „rezultatul este multiplu de 5” şi C „rezultatul este o putere a lui 2”. Să se scrie evenimentele A ∪ B , A ∩ B , A C . Să se arate implicaţiile dintre evenimente. Care evenimente sunt incompatibile? R.: a) Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20}. b) A ∪ B - „rezultatul este par sau multiplu de 5”; A ∩ B - „rezultatul este

multiplu de 10”; A C - „rezultatul este impar”; C ⊂A şi C ∩ B = Φ Vom da câteva proprietăţi ale evenimentelor elementare: (E1) Fie A ∈ Σ un eveniment elementar şi B ∈ Σ un eveniment oarecare. Dacă B ⊆ A , atunci B = ∅ sau B = A . (E2) Condiţia necesară şi suficientă ca un eveniment A ∈ Σ , A ≠ ∅ să fie elementar este să nu existe un eveniment B ∈ Σ , B ≠ ∅ cu B ⊂ A . (E3) Condiţia necesară şi suficientă ca un eveniment A ≠ ∅ să fie elementar este ca pentru orice eveniment B să avem A ∩ B = ∅ sau A ∩ B = A . (E4) Două evenimente elementare distincte sunt incompatibile. (E5) Într-o algebră finită de evenimente pentru orice eveniment compus B ∈ Σ , există un eveniment elementar A, A ⊂ B . (E6) Orice eveniment dintr-o algebră finită de evenimente se poate scrie sub firmă unică, ca o reuniune de evenimente elementare. (E7) Într-o algebră finită de evenimente, evenimentul sigur este reuniunea tuturor evenimentelor elementare. II.2. Probabilitate pe un câmp finit de evenimente Să considerăm o urnă U care conţine n bile, dintre care m albe şi n–m negre (bile diferă numai prin culoare). Se extrage la întâmplare o bilă. Avem n evenimente elementare. Fie A evenimentul „bila extrasă să fie albă”. Acest eveniment se poate realiza prin m probe, m ≤ n . Definiţie. Se numeşte probabilitatea evenimentului A raportul dintre numărul cazurilor favorabile realizării lui A şi numărul cazurilor egal posibile. Deci:

P( A) =

m . n

(2.1.)

Aceasta este definiţia clasică a probabilităţii. Ea se poate folosi numai în experimente cu evenimente elementare egal posibile. Să considerăm acum o urnă care conţine n bile dintre care a1 bile de culoarea c1 ; a 2 bile de culoarea c 2 ;...; a s bile de culoarea c s ; deci n = a1 + a 2 + ... + a n . Bilele diferă între ele numai prin culoare. Se extrage o bilă din urnă. În acest caz extracţia unei bile este eveniment elementar. Probabilitatea extragerii unei bile de culoare l va fi dată de definiţia clasică a probabilităţii. 102

P=

a1 n

deci eveniment favorabil este extracţia unei bile de culoare l. Un eveniment oarecare al câmpului este apariţia uneia din bile având culoarea

cl1 , cl2 ,..., clr notat A, iar P ( A) =

al1 + al2 + ... + alr n

De aici rezultă că: 1. probabilitatea fiecărui eveniment este o funcţie de acest eveniment, având valori pozitive;

a 1 + a 2 + ... + a s = 1; n 3. dacă A = A1 ∪ A2 cu A1 ∩ A2 = ∅ atunci P ( A) = P ( A1 ) + P ( A2 ) ; 1 4. evenimentele elementare sunt egal probabile (au probabiltatea ). n

2. probabilitatea evenimentului sigur Ω este 1; P(Ω ) =

Se observă că experimentul extracţiei dintr-o urnă poate fi interpretat cu ajutorul a două câmpuri de evenimente; câmpul considerat mai sus pentru care eveniment elementar este extracţia unei bile şi un alt câmp, (Ω, P (Ω )) pentru care eveniment elementar este extracţia unei bile de culoare l, ( l = 1,2,..., s ). Funcţia P(A) care reprezintă probabilitatea unui eveniment oarecare din Ω are proprietăţile 1, 2, 3 dar nu verifică, în general, proprietatea 4 deoarece evenimentele elementare din Ω nu au probabilităţi egale, decât pentru n1 = n2 = ... = n s .

Deci, în cazul unui câmp finit de evenimente {Ω, Σ} , o probabilitate pe acest câmp o vom defini astfel: Definiţie. Se numeşte probabilitate pe Σ , o aplicaţie P : Σ → R care satisface următoarele axiome: (1) P ( A) ≥ 0 pentru orice A ∈ Σ ;

(2) P (Ω ) = 1 ;

(3) P ( A1 ∪ A2 ) = P( A1 ) + P ( A2 ) pentru orice A1 , A2 ∈ Σ cu A1 ∩ A2 = ∅ . Proprietatea (3) se extinde prin recurenţă la orice număr finit de evenimente incompatibile două câte două. Deci, dacă Ai ∩ A j = ∅ , i ≠ j , i, j = 1,..., n , atunci:

 n  n P ∪ A i  = ∑ P(A i ) .  i=1  i=1 Definiţie. Numim câmp de probabilitate finit, un câmp finit de evenimente {Ω, Σ} înzestrat cu o probabilitate P, notat {Ω, Σ, P}. Din regula de adunare a probabilităţilor deducem că pentru a cunoaşte probabilităţile tuturor evenimentelor A ∈ Σ este suficient să cunoaştem probabilităţile evenimentelor elementare ωi ; 1 ≤ i ≤ r , care alcătuiesc mulţimea finită 103

Ω = {ω1 ,..., ω r }, deoarece dacă notăm

P({ωi }) = pi , 1 ≤ i ≤ r

{ } P ( A) = P ({ω }∪ ... ∪ {ω }) = P ({ω }) + ... + P ({ω }) = p

{ }

şi dacă

A = ωi1 ∪ ... ∪ ωik atunci i1

ik

i1

ik

i1

+ ... + pik .

Deci, un câmp finit de probabilitate este complet caracterizat de numerele r

nenegative p1 , p 2 ,..., p r cu

∑p i =1

i

= 1.

Dacă p1 = ... = p r atunci P(A ) =

k unde k reprezintă numărul de evenimente r

elementare care intră în compunerea evenimentului A (evenimente elementare favorabile evenimentului A). Se ajunge astfel la definiţia clasică a probabilităţii. Din definiţia probabilităţii rezultă următoarele proprietăţi: (P1) Pentru orice A ∈ Σ , P A C = 1 − P ( A) .

( )

(P2) Avem P (∅ ) = 0 . (P3) Pentru orice A ∈ Σ avem 0 ≤ P ( A) ≤ 1 .

(P4) Pentru orice A1 , A2 ∈ Σ cu A1 ⊂ A2 avem P ( A1 ) ≤ P ( A2 ) . (P5) Pentru orice A1 , A2 ∈ Σ avem (P6) (P7) (P8) (P9)

P( A2 − A1 ) = P( A2 ) − P( A1 ∩ A2 ) . Dacă A1 ⊂ A2 , A1 , A2 ∈ Σ , atunci P( A2 − A1 ) = P( A2 ) − P( A1 ) . Avem P ( A1 ∪ A2 ) = P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 ) , oricare ar fi A1 , A2 ∈ Σ . P( A1 ∪ A2 ) ≤ P( A1 ) + P( A2 ) , oricare ar fi A1 , A2 ∈ Σ . Dacă ( Ai )1≤i ≤ n ⊂ Σ ,

 n  n  n  n −1 P  ∪ Ai  = ∑ P ( Ai ) −∑ P ( Ai ∩ Aj ) + ∑ P ( Ai ∩ Aj ∩ Ak ) + ... + ( −1) P  ∩ Ai  . i< j i< j
(P10) Fie evenimentele ( Ai )1≤i ≤ n ⊂ Σ cu P ( A1 ∩ ... ∩ An −1 ) ≠ 0 , atunci:

 n  P  ∩ Ak  = P ( A1 ) P ( A2 − A1 ) P ( A3 − ( A1 ∩ A2 ) ) ...P ( An − ( A1 ∩ ... ∩ An −1 ) ) .  k =1 

104

II.3. σ –câmp de probabilitate Definiţie. Fie {Ω, Σ} un σ –câmp de evenimente. Numim probabilitate pe

câmpul {Ω, Σ} , o funcţie numerică pozitivă P, definită pe Σ dacă: 1.

P(Ω ) = 1 ,

  P ∪ Ai  = ∑ P( A1 ) pentru orice familie numărabilă de evenimente  i∈I  i∈I ( Ai )i∈I ⊂ Σ , incompatibile două câte două. Observăm că probabilitatea este o măsură pentru care µ(Ω ) = 1 . Deci un σ–câmp de probabilitate, va fi un σ–câmp de evenimente {Ω, Σ} , înzestrat cu o probabilitate; el se va nota cu {Ω, Σ, P} . 2.

Proprietăţile probabilităţii amintite pentru un câmp finit de probabilitate se extind şi la σ–câmpurile de probabilitate. În plus, dacă {Ω, Σ, P} este un σ–câmp de probabilitate avem următoarele proprietăţi: (P11) Pentru orice şir de evenimente ( An )n∈N * ⊂ Σ pentru care An +1 ⊆ An

  ∩*  n∈N

(descendent), avem: lim P ( An ) = P n →∞

( An )n∈N * ⊂ Σ

pentru

care

   A ∪ n  * . n ∈ N  

  şi pentru orice şir de evenimente   An +1 ⊃⊇ An (ascendent),

avem: lim P ( An ) = P n→∞

(

(P12) P lim An  ≤ lim P ( An ) ≤ lim P( An ) ≤ P lim An n→∞ n →∞

 n →∞  n →∞ ( An )n∈N * ⊂ Σ .

(P13) Dacă şirul

(

)

( An )n∈N * n →∞

pentru

orice

şir

⊂ Σ este 0–convergent ( lim An = lim An ) atunci

P lim An = lim P( An ) n →∞

)

n→∞

(proprietatea

de

continuitate

n →∞

secvenţială

a

probabilităţii).

   ( ) ( ) A ∪ n  *  ≤ ∑*P An pentru orice şir An n∈N * ⊂ Σ .  n∈N  n∈N

(P14) P

105

II.4. Evenimente independente. Probabilitate condiţionată Definiţie. Evenimentele A, B ale câmpului de probabilitate {Ω, Σ, P} sunt P– independente dacă: P( A ∩ B ) = P ( A) P( B) (2.2) Se poate arăta cu uşurinţă că dacă evenimentele A, B ∈ Σ sunt P–independente atunci perechile de evenimente A, B C ; A C , B şi A C , B C sunt P–independente.

Definiţie. Evenimentele ( Ai )1≤i ≤ n ⊂ Σ sunt P–independente m câte m dacă

pentru h ≤ m şi 1 ≤ i1 < i2 < ... < ih ≤ n avem:

(

) ( )( ) ( )

P Ai1 ∩ ... ∩ Aih = P Ai1 P Ai2 ...P Aih

(2.3.)

Dacă m = n evenimentele sunt P–independente în totalitatea lor. Definiţie. Spunem că evenimentele ( An )n∈N * ⊂ Σ sunt P–independente dacă orice număr finit de evenimente din acest şir sunt P-independente. Definiţie. Fie {Ω, Σ, P} un σ–câmp de probabilitate şi A, B ∈ Σ cu P ( B) ≠ 0 . Numim probabilitate a evenimentului A condiţionată de evenimentul B, raportul

P( A ∩ B) = P(A B ) P( B) Notăm şi P (A B ) = PB ( A) .

(2.4.)

Tripletul (Ω, Σ, PB ) este un σ–câmp de probabilitate dacă {Ω, Σ, P} este un σ–câmp de probabilitate. (Se verifică cu uşurinţă axiomele din definiţia probabilităţii). Definiţie. Numim sistem complet de evenimente o familie cel mult numărabilă ( Ai )i∈I cu Ai ∩ A j = ∅ pentru orice i ≠ j , i, j ∈ I şi de evenimente

∪A

i

= Ω.

i∈I

Formula probabilităţii totale. Fie

( Ai )i∈I

⊂ Σ un sistem

evenimente cu P( Ai ) ≠ 0 , i ∈ I . Pentru A ∈ Σ , avem:

P ( A) = ∑ P( Ai )P( A Ai ) i∈I

106

complet de

(2.5.)

Formula lui Bayes (sau teorema ipotezelor). Fie un sistem complet de evenimente ( Ai )i∈I ⊂ Σ . Probabilităţile acestor evenimente (ipoteze) sunt date înainte de efectuarea unui experiment. Experimentul efectuat realizează un alt eveniment A. Să arătăm cum realizarea evenimentului A schimbă probabilităţile ipotezelor. Trebuie să determinăm deci probabilităţile P Ai A pentru fiecare ipoteză Ai , i ∈ I . Avem:

(

P (Ai A) =

)

P( Ai )P( A Ai )

∑ P( A )P(A A ) i∈I

i

(2.6.)

i

Inegalitatea lui Boole. Fie {Ω, Σ, Ρ} un câmp de probabilitate şi (A i ) i∈I ⊂ Σ o mulţime cel mult numărabilă de evenimente. Dacă

∩A

i

∈ Σ atunci:

i∈I

  P ∩ Ai  ≥ 1 − ∑ P (AiC ) i∈I  i∈I 

(2.7.)

III. VARIABILE ALEATOARE. CARACTERISTICI NUMERICE. FUNCŢIE DE REPARTIŢIE Una din noţiunile fundamentale ale teoriei probabilităţilor este aceea de variabilă aleatoare. Evenimentele unui câmp de probabilitate nu sunt, principial, mărimi în înţelesul atribuit acestora în ştiinţele naturale sau tehnică; ele se descriu însă cu ajutorul unor mărimi având valori reale şi care, în general, sunt rezultatul unor măsurători. Principalul merit al actualei sistematizări a calcului probabilităţilor constă în definirea variabilelor aleatoare, deci a mărimilor pe care ni le prezintă experimentul direct, sau teoriile destinate să-l interpreteze. Dacă înţelegem prin variabilă aleatoare o funcţie reală definită pe mulţimea evenimentelor elementare asociate experimentului considerat vom putea ilustra prin exemple tipice pentru teoria probabilităţilor cum se trece de la un eveniment la o variabilă aleatoare şi anume: Exemplu. Să considerăm un experiment care are ca rezultat evenimentul A. În locul evenimentul A putem considera variabila aleatoare ξ care ia valoarea 1 dacă s-a realizat A şi 0 dacă s-a realizat A C . Am definit o variabilă aleatoare bernuolliană cu două valori (variabilă indicatoare a evenimentului A) prin relaţia:

1 dacă ω ∈ A C 0 dacă ω ∈ A

ξ (ω ) = 

În practică este de multe ori mai comod ca în locul evenimentelor să utilizăm variabilele aleatoare indicatoare care le sunt asociate.

107

III.1. Variabile aleatoare discrete Fie {Ω, Σ, Ρ} un σ–câmp de probabilitate şi (A i )i∈I ⊂ Σ un sistem complet

(finit sau numărabil) de evenimente. Sistemul numeric p i = P ( Ai ) , i ∈ I , se numeşte distribuţia σ–câmpului de probabilitate. Definiţie. Numim variabilă aleatoare discretă o funcţie ξ definită pe mulţimea evenimentelor elementare ω ∈ Ω cu valori reale dacă: 1. ξ ia valorile xi , i ∈ I ; 2.

{ω ξ(ω) = x }∈ Σ , i ∈ I . i

O variabilă aleatoare discretă pentru care I este finită se numeşte variabilă aleatoare simplă. Schematic variabila aleatoare ξ se notează prin:

x  ξ :  i  ,  pi  i∈I

∑p i∈I

1

= 1.

(3.1.)

Tabloul (3.1) se numeşte distribuţia sau repartiţia variabilei aleatoare ξ . Numărul produselor defecte dintr-un lot examinat, numărul de defecţiuni care apar într-o anumită perioadă de funcţionare a unui dispozitiv, indicatorul unui eveniment A sunt variabile aleatoare discrete. p i = 1 ne sugerează ideea că această sumă se repartizează într-un Faptul că

∑ i∈I

anumit mod între aceste valori xi , deci din punct de vedere probabilistic o variabilă aleatoare este complet determinată dacă se dă o astfel de repartiţie. Vom stabili o astfel de lege de repartiţie. Una din formele cele mai simple în care putem reprezenta o astfel de lege este forma schematică (3.1) sau sub forma unui tabel. x1 x2 ... xI ... xn xi pi p1 p2 ... pI ... pn iar o altă formă este cea grafică luând pe axa absciselor valorile xi iar pe axa ordonatelor probabilităţile corespunzătoare. Putem obţine unind aceste puncte poligonul de repartiţie

108

sau diagrama în batoane

III.2. Momentele unei variabile aleatoare discrete Momentele unei variabile aleatoare discrete sunt valorile tipice cele mai frecvent utilizate în aplicaţii. Definiţie. Fie ξ o variabilă aleatoare discretă care ia valorile xi cu

∑x p M (ξ ) = ∑ x p

probabilităţile pi , i ∈ I . Dacă seria

i

i∈I

i∈I

i

i

este absolut convergentă, expresia:

(3.2.)

i

se numeşte valoare medie a variabilei aleatoare discrete ξ .

Dacă ξ este o variabilă aleatoare simplă care ia valorile x1 ,..., x n cu probabilităţile p1 ,..., p n atunci valoarea medie va fi: n

M (ξ ) = ∑ xi pi

(3.2'.)

i =1

Vom da în continuare câteva proprietăţi ale valorilor medii: (P1) Dacă ξ şi η sunt două variabile aleatoare discrete definite prin (3.2.) şi dacă

M (ξ ) şi M (η) există, atunci există valoarea medie M (ξ + η) M(ξ+η) şi

avem:

M (ξ + η) = M (ξ ) + M (η)

(3.3.)

Prin recurenţă, se obţine: (P2) Fie ξ k , ( k = 1,..., n ) n variabile aleatoare discrete. Dacă M (ξ k )



n

∑ξ 

( k = 1,..., n ) există, atunci M

k =1

k

  există şi 

  n M  ∑ ξ k  = ∑ M (ξ k )  k =1  k =1 n

(3.4.)

109

(P3) Fie ξ o variabilă aleatoare discretă şi c o constantă. Dacă M (ξ ) există, atunci M (cξ ) există şi avem

M (cξ ) = cM (ξ )

(3.5.)

(P4) Fie ξ k , ( k = 1,..., n ) n variabile discrete şi c k , ( k = 1,..., n ),



constante. Dacă M (ξ k ) , ( k = 1,..., n ) există, atunci M

n

∑c  k =1

k

n

 ξ k  există şi 

 n  n M  ∑ c k ξ k  = ∑ c k M (ξ k ) (3.6.)  i =1  i =1 (P5) Valoarea medie a variabilei aleatoare ξ − M (ξ ) = η este nulă. ( η se numeşte abaterea variabilei aleatoare ξ ). (P6) Inegalitatea lui Schwarz. Fie ξ şi η două variabile aleatoare discrete pentru care există M (ξ 2 ) şi M (η 2 ) . Avem:

( ) ( )

M (ξη) ≤ M ξ 2 M η 2

(3.7.)

(P7) Dacă ξ şi η sunt două variabile aleatoare discrete independente şi dacă

M (ξ ) şi M (η) există, atunci M (ξη) există şi (3.8.) M (ξη) = M (ξ )M (η) Definiţie. Fie ξ o variabilă aleatoarea discretă şi r un număr natural. Dacă există valoarea medie a variabilei aleatoare ξ r , atunci această valoare medie se numeşte moment de ordin r al variabilei aleatoare ξ şi se notează:

α r (ξ ) = M (ξ r ) = ∑ x kr p k

(3.9.)

k

Valoarea medie a variabilei aleatoare

ξ

r

se numeşte moment absolut de

ordin r al variabilei aleatoare ξ şi se notează:

( )= ∑ x

β r (ξ ) = M ξ

r

r k

pk

k

(3.10.)

Definiţie. Dată o variabilă aleatoare discretă ξ , momentul de ordinul r al variabilei aleatoare abatere a lui ξ se numeşte moment centrat de ordinul r a lui ξ şi se notează µ r (ξ ) = α r (ξ − M (ξ )) (3.11.) Momentul centrat de ordinul doi a variabilei aleatoare discrete ξ se numeşte

dispersie sau varianţă şi se notează prin D 2 (ξ ) sau σ 2 , deci:

D 2 (ξ ) = σ 2 = µ 2 (ξ )

(3.12.)

Numărul D (ξ ) = σ = µ 2 (ξ ) se numeşte abatere medie pătratică a lui ξ . 110

Vom da în continuare câteva proprietăţi ale dispersiei şi ale abaterii medii pătratice: (D1) Are loc egalitatea: 2 (3.13.) D 2 (ξ ) = M ξ 2 − [M (ξ )]

( )

(D2) Dacă η = aξ + b cu a şi b constante, atunci D (η) = a D(ξ ) .

(D3) Fie (ξ k )1≤ k ≤ n , n variabile aleatoare discrete două câte două independente şi

c1 ,..., c n , n constante. Avem:  n  n D 2  ∑ c k ξ k  = ∑ c k2 D 2 (ξ k ) (3.14.)  k =1  k =1 (D4) Inegalitatea lui Cebîşev. Fie ξ o variabilă aleatoare. Are loc inegalitatea: D 2 (ξ ) P ω ξ(ω) − M (ξ ) ≥ ε < ε2 pentru orice ε > 0 .

({

})

(3.15.)

III.3. Variabile aleatoare de tip continuu Fie {Ω, Σ, P} un σ–câmp de probabilitate. Definiţie. Se numeşte variabilă aleatoare o funcţie ξ : Ω → R (definită pe mulţimea evenimentelor elementare cu valori reale), astfel încât toate mulţimile de forma Ax = ω ξ(ω) < x aparţin lui Σ pentru orice x ∈ R .

{

}

Vom da în continuare câteva proprietăţi ale variabilelor aleatoare: (P1) Fie ξ o variabilă aleatoare şi c o constantă; atunci ξ + c ; cξ ; ξ ; ξ 2 ;

1 cu ξ

ξ ≠ 0 sunt variabile aleatoare. (P2) Fie ξ şi η două variabile aleatoare; atunci {ω ξ(ω) > η(ω)}∈ Σ ,

{ω ξ(ω) ≥ η(ω)}∈ Σ , {ω ξ(ω) = η(ω)}∈ Σ .

ξ η

(P3) Dacă ξ şi η sunt două variabile aleatoare atunci ξ − η , ξ + η , ξη ,

dacă: η ≠ 0 , sup{ξ, η} , inf {ξ, η} sunt de asemenea variabile aleatoare. Teorema 1. Dacă ξ este o variabilă aleatoare nenegativă, există un şir

crescător (ξ n )n∈N * de variabile aleatoare simple, nenegative, care converge către ξ .

Teorema 2. Dacă (ξ n )n∈N * este un şir de variabile aleatoare atunci sup {ξ n } ,

inf {ξ n } , lim ξ n , lim ξ n sunt de asemenea variabile aleatoare.

n∈N *

n →∞

n∈N *

n →∞

111

Definiţie. Vom spune că variabilele aleatoare ξ1 ,..., ξ n sunt independente dacă pentru toate sistemele reale x1 ,..., x n avem:

P(ξ1 < x1 ,..., ξ n < x n ) = P(ξ1 < x1 ) ⋅ ... ⋅ P(ξ n < x n ) . III.4. Funcţie de repartiţie

Definiţie. Se numeşte funcţie de repartiţie a variabilei aleatoare ξ , funcţia:

F ( x) = P({ω ξ(ω) < x})

(3.16.)

definită pentru orice x ∈ R . Din această definiţie rezultă că orice variabilă aleatoare poate fi dată prin intermediul funcţiei sale de repartiţie. Dacă ξ este o variabilă aleatoare discretă cu p n = P (ξ = x n ) , n ∈ I , atunci din (3.16.) rezultă:

F ( x) =

∑p

x < xn

n

(3.17.)

şi se numeşte funcţie de repartiţie de tip discret. Rezultă că în acest caz F este o funcţie în scară, adică ia valori constante pe intervalele determinate de punctele xi ( i ∈ I ). Teorema 3. Funcţia de repartiţie a unei variabile aleatoare are următoarele proprietăţi: 1. F ( x1 ) ≤ F ( x 2 ) dacă x1 < x 2 ; x1 , x 2 ∈ R . 2. 3. 4.

F ( x − 0 ) = F ( x) pentru orice x ∈ R . lim F ( x) = 0 .

n → −∞

lim F ( x) = 1 .

x → +∞

Teorema 4. Orice funcţie F ( x) monotonă, nedescrescătoare, continuă la stânga

şi cu F (− ∞ ) = 0 , F (+ ∞ ) = 1 este funcţia de repartiţie a unei variabile aleatoare definită pe un câmp de probabilitate convenabil ales. Teorema 5. Fie ξ o variabilă aleatoare a cărei funcţie de repartiţie este F ( x) . Fie a şi b două numere reale cu a < b . Au loc egalităţile:

P(a ≤ ξ < b ) = F(b) − F(a ) 2. P(a < ξ < b ) = F(b) − F(a ) − P(ξ = a ) 3. P(a < ξ ≤ b ) = F(b) − F(a ) − P(ξ = a ) + P(ξ = b) 4. P(a ≤ ξ ≤ b ) = F(b) − F(a ) + P(ξ = b).

1.

112

Definiţie. Fie ξ o variabilă aleatoare a cărei funcţie de repartiţie este F ( x) . Dacă există o funcţie reală ƒ definită şi integrabilă pe R aşa încât:

F ( x) = ∫

x

−∞

f (u )du ,

(3.18.)

atunci F ( x) se numeşte funcţie de repartiţie absolut continuă, iar ξ se numeşte variabilă aleatoare absolut continuă. Funcţia ƒ(x) se numeşte densitate de probabilitate (repartiţie), iar expresia ƒ(x)dx se numeşte lege de probabilitate elementară. Densitatea de probabilitate are următoarele proprietăţi: 1. f ( x) ≥ 0 pentru orice x ∈ R .



2.

+∞

−∞

ƒ(u)du = 1.

3. Pentru orice a < b reali are loc relaţia: P(a ≤ ξ < b) = P (a ≤ ξ < b ) =



b

a

ƒ(x)dx

III.5. Momentele unei variabile de tip continuu Fie {Ω, Σ, P} un σ–câmp de probabilitate şi ξ o variabilă aleatoare a cărei funcţie de repartiţie este F ( x) . Fie f ( x) densitatea de repartiţie a variabilei aleatoare ξ . Definiţie. Se numeşte valoare medie a variabilei aleatoare ξ expresia: ∞



−∞

−∞

M (ξ ) = ∫ xdF ( x) = ∫ xf ( x)dx

(3.19.)

Definiţie. Se numeşte moment de ordinul r, r ∈ N , al variabilei aleatoare continue ξ , expresia: ∞



−∞

−∞

M r (ξ ) = α r (ξ ) = ∫ x r dF ( x) = ∫ x r f ( x)dx

(3.20.)

iar expresia:

M r ( ξ ) = β r (ξ ) = ∫ x dF ( x) = ∫ ∞

r

−∞



−∞

r

x f ( x)dx

(3.21.)

se numeşte moment absolut de ordin r al variabilei aleatoare ξ . În acelaşi mod în care s-au definit momentul centrat de ordinul r, dispersia, abaterea medie pătratică în cazul variabilelor aleatoare discrete, se definesc şi pentru variabile aleatoare de tip continuu. Proprietăţile valorii medii şi ale dispersiei date pentru variabile aleatoare de tip discret se menţin pentru variabile aleatoare de tip continuu. În aplicaţii se întâlnesc şi următoarele caracteristici: Asimetria şi excesul. Se numesc asimetrie, As, şi exces, E, numerele:

As =

µ 3 (ξ )

µ (ξ ) 3 2

;E=

µ 4 (ξ ) µ 22 (ξ )

(3.22.)

dacă momentele respective există. 113

Definiţie. Se numeşte moment centrat în a de ordinul r al variabilei aleatoare

ξ , momentul de ordinul r al variabilei aleatoare ξ − a , iar momentele ξ − a

r

se

numesc momente absolute centrate în a de ordinul r. Din definiţie rezultă următoarele proprietăţi: (P1) Dacă ξ e o variabilă aleatoare cu M (ξ ) = m şi D(ξ ) = σ , are loc inegalitatea:

Mε − m ≥ σ 2

(3.23.)

(P2) Dacă ξ şi η sunt două variabile aleatoare independente care au aceeaşi funcţie de repartiţie F şi λ este un număr real oarecare, au loc inegalităţile:

1 P(ξ − M ε ≥ ε ) ≤ P(ξ − η ≥ ε ) 2 1 ε  P ( ξ − M ε ≥ ε ) ≤ P ( ξ − η ≥ ε ) ≤ 2 P ξ − η ≥  2 2  pentru orice ε > 0 , cu M ε mediana variabilei aleatoare ξ .

(3.24.) (3.25.)

Din definiţia medianei rezultă că în cazul unei variabile aleatoare ξ de tip continuu, mediana este unic determinată de egalitatea:



x

−∞



ƒ(x)dx = ∫ ƒ(x)dx = x

1 . 2

Din punct de vedere geometric, mediana este abscisa punctului prin care trece paralela la axa Oy, care împarte în două părţi egale aria limitată de curba de ecuaţie y = f ( x) şi axa Ox. Inegalitatea lui Markov. Fie ξ o variabilă aleatoare pozitivă a cărei valoare medie este finită. Pentru orice λ > 1 avem:

P(ξ ≥ λM (ξ )) ≤

1 . λ

(3.26.)

IV. REPARTIŢII PROBABILISTICE CLASICE IV.1. Repartiţii de tip discret În multe aplicaţii practice ale teoriei probabilităţilor întâlnim cazuri în care un experiment sau mai multe experimente analoage se repetă de un număr de ori, fiecare din ele ducând la realizarea sau la nerealizarea unui anumit eveniment. Ceea ce interesează este numărul de realizări ale evenimentului într-o serie de experimente. Experimentele pot fi efectuate în aceleaşi condiţii sau în condiţii diferite.

114

Teorema particulară a experimentelor repetate. Se fac n experimente independente, în fiecare din ele un eveniment A se poate realiza cu probabilitatea p şi nu se realizează cu probabilitatea q = 1 − p . Să se determine probabilitatea ca în cele n experimente evenimentul A să se realizeze exact de m ori. Avem: Pm ,n = C nm p m q n − m (4.1.)

Probabilităţile Pm ,n au forma termenilor din dezvoltarea binomului ( p + q ) . n

Din această cauză câmpul de evenimente din această schemă probabilizat după regula (4.1.) se numeşte câmp binominal (este clar că evenimentele elementare ale câmpului asociat experimentului pot fi considerate ca elemente ale produsului cartezian Ω n = Ω × ... × Ω ). Această schemă probabilistică a fost cercetată în mod deosebit de J. Bernoulli, de aceea se mai numeşte şi schema lui Bernoulli. Teorema generală a experimentelor repetate. Presupunem că se fac n experimente independente, în fiecare din ele un eveniment A se poate realiza cu probabilitatea pi , i − 1,2,..., n şi nu se realizează cu probabilitatea q i = 1 − p i . Să se determine probabilitatea ca în cele n experimente evenimentul A să se producă exact de m ori. Cu notaţiile făcute la schema binominală avem (4.1.), de unde:

Pm ,n = p1... pm qm +1...qn + p1... pm −1qm pm +1qm + 2 ...qn + q1...qn − m pn − m +1... pn Avem: n

∏(p z + q ) = ∑ P i

i

m ,n

zm

(4.2.)

i =1

n

cu

∑P

m =0

m, n

= 1. Repartiţia Poisson de parametru λ

Să presupunem că în repartiţia binominală (4.2.) luăm np = λ (const.). Să determinăm în acest caz valorile probabilităţilor pentru n → ∞ . Avem:

pk =

λk −λ e k!

(4.3.)

şi ∞



λk = e −λ ⋅ e λ = 1 , k! k =0

∑ p k = e −λ ∑ k =0

deci probabilităţile definite prin (4.3.) sunt termenii unei repartiţii:

115

Definiţie. Repartiţia determinată prin probabilităţile (4.3.) se numeşte repartiţie Poisson de parametru λ, iar variabila aleatoare

1 0 ξ :  −λ λ −λ e e 1! 

… k λ k −λ … e k!

2 λ 2 −λ e 2!

…  … 

se numeşte variabilă aleatoare Poisson. Repartiţia Poisson este denumită legea evenimentelor rare, datorită proprietăţii sale de a aproxima o repartiţie binomială când numărul experimentelor n este foarte mare iar probabilitatea de apariţie a evenimentului considerat este foarte mică. Schema polinomială

O urnă conţine bile de culorile c1 ,...c s în proporţii cunoscute; deci cunoaştem probabilitatea pi de apariţie într-o extracţie, a unei bile de culoarea ci , i = 1,..., s . Se fac n extracţii a câte o bilă, cu condiţia ca la fiecare extracţie urna să aibă aceeaşi compoziţie. Fie Aα evenimentul ca în extracţiile efectuate să apară α i bile de culoarea

ci , ( i = 1,..., s ), deci α = (α1 ,..., α s ) . Probabilitatea acestui eveniment este: n! α α P( Aα ) = p1 1 p 2 2 ... p sα s . (4.4.) α 1!α 2 !...α s ! Această probabilitate se mai notează cu P (n; α 1 ,..., α s ) . Schema bilei nerevenite

Se consideră o urnă cu următoarea structură: a1 bile de culoarea c1 ; a 2 bile de culoarea c 2 ;...; a s bile de culoarea c s . Se fac n extracţii fără a repune bila extrasă înapoi în urnă (experienţa este echivalentă cu extragerea a n bile deodată). Fie Aα evenimentul aleator „apariţia a exact α k , ( k = 1,..., s ) bile de culoarea c k în grupul celor n bile extrase unde α = (α 1 ,..., α s ) , 0 ≤ α k ≤ a k ,

P( Aα ) = P(n; α 1 ,..., α s ) =

s

∑α

k =1 α1 α 2 a1 a2

k

= n . Avem:

C C ...C aαss C an1 +...+ as

(4.5.)

Experimentul descris împreună cu câmpul de evenimente asociat, probabilizat după regula dată, se numeşte schemă hipergeometrică sau schema bilei nerevenite.

116

IV.2. Repartiţii de tip continuu În cele ce urmează ne vom referi la repartiţiile unidimensionale de tip continuu. Fie {Ω, Σ, Ρ} un σ–câmp de probabilitate, L mulţimea variabilelor aleatoare definite pe Ω şi F mulţimea funcţiilor de repartiţie. Vom presupune că pentru orice F ∈ F există variabila aleatoare ξ ∈ L a cărei funcţie de repartiţie este F. Repartiţia de densitate uniformă Definiţie. Se numeşte funcţie de repartiţie uniformă pe [a, b] , funcţia de repartiţie a cărei densitate de probabilitate este:

 1  f ( x) =  b − a  0

dacã x ∈ [a, b] dacã x ∉ [a, b]

Definiţie. Variabila aleatoare ξ se numeşte uniformă pe

repartiţie uniformă pe [a, b] .

(4.6.)

[a, b]

dacă are

Legea normală

Legea de repartiţie normală este o lege limită întâlnită frecvent în aplicaţii practice. Se poate arăta că suma unui număr suficient de mare de variabile aleatoare independente urmând o lege oarecare, pentru suficient de puţine restricţii, tinde către o lege normală. Definiţie. Se numeşte funcţie de repartiţie normală notată prin Φ •; m, σ 2 funcţia de repartiţie definită prin densitatea de probabilitate:

(

(

f x, m, σ

2

)=

1 σ 2π

e



)

( x − m )2 2σ2

(4.7.)

m şi σ2 fiind constante, numite parametrii repartiţiei. Graficul densităţii f x, m, σ 2 este cel din fig.4.1.

(

)

Fig. 4.1. 117

Funcţia de repartiţie este:

(

Φ x; m, σ

2

) = ∫ f (x, m, σ )dx = x

−∞

x

1

Vom nota Φ (x ) = ∗



∫e



t2 2

x

1

2

∫e



(u − m )2 2σ2

σ 2π − ∞

dt .

−∞

(

Variabila aleatoare ξ se numeşte normală N m, σ 2

(

(4.8.)

du .

)

)

dacă are funcţia de

repartiţie Φ •; m, σ . Pentru ξ vom calcula caracteristicile numerice esenţiale: valoarea medie, dispersia şi momentele centrate: 2

M (ξ ) =

+∞

∫ xf (x; m, σ )dx = σ 2

1

−∞



+∞

∫ xe



( x − m )2 2σ 2

dx

−∞

Rezultă: M(ξ) = m, de unde: D2(ξ)=σ2 Centrul de dispersie m este centrul de simetrie al repartiţiei. Dacă m îşi schimbă valoarea, curba de densitate se deplasează de-a lungul axei Ox fără a-şi schimba forma. Deci m caracterizează poziţia repartiţiei pe axa Ox. Parametrul σ caracterizează forma curbei de densitate. Ordonata maximă a curbei este invers proporţională cu σ . Repartiţia χ 2 Fie ξ1 , ξ 2 ,..., ξ v , ν variabile aleatoare normale, normate, independente

( ξ i ∈ N (0,1) ). Suma pătratelor acestor variabile aleatoare este o variabilă aleatoare notată: χ 2 = ξ 12 + ξ 22 + … + ξν2 . Această variabilă aleatoare are densitatea de repartiţie

f ( x) =

1 v 2

v 2 Γ  2

(Reamintim că Γ(n ) =





0

x

v−2

e



x2 2

, x ∈ [0, ∞ )

(4.9.)

x n −1e − x dx este funcţia gama a lui Euler, cu n un

parametru pozitiv). Curba densităţii de repartiţie nu este simetrică (fig. 4.2.) dar ea tinde să devină simetrică dacă numărul gradelor de libertate ν creşte (peste 30).

118

Fig. 4.2. Repartiţia Student Fie ξ1 , ξ 2 ,..., ξ n variabile aleatoare normale N (0, σ ) , independente. Variabila

t=

ξ

(4.10.) 1 n ξi ∑ n i =1 unde ξ este o variabilă aleatoare N (0, σ ) , independentă de şirul (ξ i )1≤i ≤ n , este o variabilă aleatoare continuă cu densitatea de repartiţie.

 s +1 s +1 Γ −  1 x2  2 2   1 +  , x ∈ (− ∞,+∞ ) f ( x) = s   s   sπ Γ  2

(4.11.)

numită densitatea repartiţiei Student, (după pseudonimului matematicianului W. Gosset), cu s = n − 1 grade de libertate. Curba teoretică a acestei densităţi este cea din fig. 4.3.

Fig. 4.3. Ea este asemănătoare cu curba densităţii normale, dar diferită. Dacă s → ∞ repartiţia variabilei Student tinde spre funcţia Laplace Φ (n ) . 119

V. SISTEME DE VARIABILE ALEATOARE. ŞIRURI DE VARIABILE ALEATOARE. CONVERGENŢĂ Definiţie. Sistemul (ξ 1 , ξ 2 ) se numeşte variabilă aleatoare bidimensională sau vector aleator cu 2 dimensiuni.

V.1. Sisteme de două variabile aleatoare Fie ζ = (ξ, η) o variabilă aleatoare cu 2 dimensiuni.

({

})

Definiţie. Funcţia F ( x, y ) = P ω ξ(ω) < x, η(ω) < y

cu (x, y ) ∈ R 2 , se

numeşte funcţie de repartiţie a variabilei aleatoare ζ .

Interpretând sistemul (ξ, η) ca un punct aleator, funcţia de repartiţie F ( x, y ) nu este

altceva decât probabilitatea ca punctul aleator (ξ, η) să se găsească în pătratul infinit cu vârful în punctul ( x, y ) din fig. 5.1. Notând cu Fξ (x) şi Fη ( y ) funcţiile de repartiţie ale variabilelor

aleatoare ξ şi η , în aceeaşi interpretare Fξ (x) reprezintă posibilitatea ca punctul aleator să se afle în semiplanul limitat de dreapta paralelă cu Oy ce trece prin punctul de abscisă x, la dreapta dreptei, iar Fη ( y ) reprezintă probabilitatea ca punctul aleator să se găsească în semiplanul situat sub dreapta paralelă cu Ox, ce trece prin punctul de ordonată y.

Fig. 5.1.

Vom da câteva proprietăţi analoage celor date pentru funcţiile de repartiţie unidimensionale: (P1) F este nedescrescătoare în raport cu fiecare argument; (P2) F este continuă la stânga în raport cu fiecare argument; (P3) F ( x,−∞) = F (−∞, y ) = F (−∞,−∞) = 0 ; (P4) F ( x,+∞) = Fξ ( x) ; F (+∞, y ) = Fη ( y ) ;

(P5)

F (+∞. + ∞) = 1

În continuare vom nota simbolic (ξ, η) ⊂ D evenimentul „punctul aleator

(ξ, η) se găseşte în domeniul D”. Probabilitatea acestui eveniment se exprimă simplu dacă D este un dreptunghi ale cărui laturi sunt paralele cu axele de coordonate. Fie 120

dreptunghiul D de vârfuri A(a,c); B(b,c); C(b,d); D(a,d). În acest caz evenimentul (ξ, η) ⊂ D este echivalent cu {a ≤ ξ < b} ∩ {c ≤ η < d }, deci

P((ξ, η) ⊂ D ) = F (b, d ) − F (a, d ) − F (b, c) + F (a, c)

(5.1.)

Dacă există o funcţie reală f definită şi integrabilă pe R2 aşa încât:

F ( x, y ) = ∫

x



y

−∞ −∞

f (u , ν) du dν

atunci f se numeşte densitatea de probabilitate (repartiţie) a variabilei aleatoare cu 2 dimensiuni ζ . Fie ξ, η două variabile aleatoare de tip continuu şi (ξ, η) interpretat ca un

punct aleator în plan. Fie R∆ dreptunghiul de laturi ∆x şi ∆y , avem:

P ( (ξ ,η ) ⊂ R∆ ) = F ( x + ∆x, y + ∆y ) − F ( x + ∆x, y ) − F ( x, y + ∆y ) + F ( x, y ) . Avem:

P((ξ, η) ⊂ R ∆ ) ∂ 2 F( x, y) = ∆x →0 ∆x ∆y ∂x∂y ∆y → 0 lim

Notăm această derivată prin f(x, y):

∂ 2 F ( x, y ) ∂x∂y

f ( x, y ) =

(5.2.)

ea fiind tocmai densitatea de probabilitate a variabilei aleatoare ζ . Avem:

P((ξ, η) ⊂ D ) = ∫∫ f ( x, y )dxdy

(5.3.)

D

Densitatea de repartiţie a lui ξ este nenegativă, iar: +∞ +∞

∫ ∫

−∞ −∞

f ( x , y)dxdy = 1

V.2. Caracteristici numerice ale sistemelor de două variabile aleatoare. Covarianţă. Coeficient de corelaţie Fie variabila aleatoare cu două dimensiuni ζ = (ξ, η)

Definiţie. Vom numi moment iniţial de ordin k, s, al sistemului (ξ, η) .

(

α k ,s = M ξ k ηs

)

Vom numi moment centrat de ordinul k, s al sistemului (ξ, η) numărul:

[

µ k , s = M (ξ - M(ξ) ) (η - M(η)) k

s

]

Avem:

α k ,s = ∫

+∞ +∞



−∞ −∞

µ k ,s = ∫

+∞ +∞

x k y s f ( x, y )dxdy

∫ (x − M (ξ)) ( y − M (η))

−∞ −∞

k

s

f ( x, y )dxdy

(5.4.) (5.5.) 121

formule care în cazul variabilelor aleatoare discrete devin:

α k , s = ∑∑ xik y sj pij i

(5.6.)

j

µ k , s = ∑∑ (xi − M (ξ )) ( y j − M (η)) pij k

i

Avem:

s

j

(5.7.)

( ) = M (ξ η ) = M (η)

α 1,0 = M ξ1η 0 = M (ξ ) α 0,1

0

1

Un rol important în teoria sistemelor de variabile aleatoare îl are covarianţa. Definiţie. Numim corelaţie sau covarianţă a variabilelor aleatoare (ξ, η) valoarea: cov(ξ, η) = M ((ξ − M (ξ ))(η − M (η))) (5.8.) Efectuând calculul şi ţinând seama de proprietăţile valorii medii rezultă: cov(ξ, η) = M (ξη) − M (ξ )M (η) (5.8'.) Covarianţa este o caracteristică a sistemului care descrie, pe lângă dispersie, legătura dintre ele. Se arată cu uşurinţă că dacă ξ şi η sunt independente, covarianţa lor este nulă. Pentru caracterizarea legăturii dintre variabilele aleatoare ξ şi η vom utiliza coeficientul de corelaţie. Definiţie. Se numeşte coeficient de corelaţie al variabilelor aleatoare ξ , η raportul:

rξ,η =

cov(ξ, µ ) D(ξ )D(η)

(5.9.)

Proprietăţi ale coeficientului de corelaţie (P1) Fie D (ξ )D(η) ≠ 0 , atunci rξη = 0 dacă şi numai dacă variabilele ξ şi η sunt necorelate. (P2) Pentru orice două variabile aleatoare avem rξ2,η ≤ 1. Definiţie. Se numesc drepte de regresie ale variabilelor aleatoare ξ , η dreptele:

x − M (ξ ) y − M (η) = cov(ξ, η) 2 D (ξ ) D 2 (η) y − M (η) x − M (ξ ) = cov(ξ, η) 2 D (η) D 2 (ξ )

122

(5.10.) (5.11.)

VI. FUNCŢII CARACTERISTICE UNIDIMENSIONALE Fie { Ω, Σ, P} un σ –câmp de probabilitate, ξ o variabilă aleatoare a cărei funcţie de repartiţie este F. Definiţie. Se numeşte funcţie caracteristică a variabilei aleatoare ξ aplicaţia

ϕ ξ : R → C definită de relaţia

( )

+∞

ϕ ξ (t ) = M e itξ = ∫ e itx dF ( x)

( p k )k∈I

(6.1.)

−∞

Dacă ξ este de tip discret şi ia valorile (x k )k∈I , I ⊂ N * cu probabilităţile atunci (6.1.) devine:

ϕ ξ (t) = ∑ p k e

itxk

(6.2.)

k∈I

Dacă ξ este de tip continuu cu densitatea de repartiţie ƒ, atunci (6.1.) devine: +∞

ϕ ξ (t ) = ∫ e itx f ( x)dx Exemplu.

 0 ξ :  −λ e 

ξ

Dacă

1 λ −λ e 1!

(6.1'.)

−∞

este

o

variabilă

aleatoare

Poisson

  , variabilă este de tip discret, deci:   ∞ it λk p k = e λ ∑ e itk = e λ (e −1) k = 0 k!

avem

n λn −λ e n! ∞

ϕ(t ) = ∑ e k =0

itxk

(6.3.)

Vom da în continuare câteva proprietăţi ale funcţiei caracteristice: (P1) ϕ(0) = 1 . (P2) Pentru orice t ∈ R , ϕ(t ) ≤ 1 .

ϕ(− t ) = ϕ(t ) , pentru orice t ∈ R. ϕ este uniform continuă pe R. (P5) Dacă η = aξ + b , a, b ∈ R atunci ϕ η (t ) = e itb ϕ ξ (at ) . (P3) (P4)

(P6) Funcţia caracteristică a unei sume finite de variabile aleatoare independente este egală cu produsul funcţiilor caracteristice corespunzătoare termenilor.

VII. PROCESE MARKOV Independenţa variabilelor aleatorii este o noţiune având o conexiune slabă cu realizarea fenomenelor în raport cu dependenţa variabilelor. Adeseori ipoteza de independenţă se dovedeşte o idealizare a faptelor reale. Dependenţa stochastică are un conţinut mai adecvat şi mai corespunzător. Această dependenţă a fost studiată îndeosebi sub forma enunţată de matematicianul A. A. Markov.

123

Procese Markov depinzând de un parametru discret

Fie (Ω, Σ, P ) un σ − câmp probabilizate şi (ξi )i∈ aleatorii discrete. Pentru fiecare i ∈

un şir de variabile

există o mulţime cel mult numărabilă I i pe

care este concentrată repartiţia variabilei ξ i . Fie I =

∪I

i

mulţimea cel mult numărabilă a valorilor tuturor variabilelor

i∈

ξi ( i ∈

). Prin urmare, pentru fiecare i ∈ I , există t ∈

P ({s ξ t (s ) = i}) > 0 .

astfel încât

Un element i ∈ I se numeşte stare a procesului, deci I este mulţimea tuturor stărilor procesului {ξt }t∈ . Definiţie. Şirul

{ξt }t∈

are proprietatea Markov, dacă pentru orice

n ≥ 2 , 0 ≤ t1 < ... < t n şi orice i1 ,..., in ∈ I , este satisfăcută egalitatea

({

}{

})

P s ξ tn (s ) = in s ξ tn −1 (s ) = in −1 ,..., ξ t1 (s ) = i1 =

({

}{

= P s ξ tn (s ) = in s ξ tn −1 (s ) = in −1 Dacă şirul {ξt }t∈

(7.1)

are proprietatea Markov, se spune că formează un

proces Markov cu parametru discret. Din definiţia precedentă rezultă că

(

})

.

)

P {s ξ n (s ) = in }{s ξ n −1 (s ) = in −1 ,..., ξ1 (s ) = i1 } =

(

)

= P {s ξ n (s ) = in }{s ξ n −1 (s ) = in −1 }

(7.2)

pentru orice n ∈ * şi i1 ,..., in ∈ I . Reciproc, din egalitatea (7.2) rezultă proprietatea Markov pentru şirul {ξt }t∈ . Propoziţia 1. Pentru orice

i1 ,..., in ,..., in + m ∈ I avem

({

}{

m∈

,

0 ≤ t1 < ... < t n < ... < t n + m şi

})

P s ξ t v (s ) = i v , n ≤ v ≤ n + m s ξ t v (s ) = i v , 1 ≤ v ≤ n − 1 =

({

}{

= P s ξ tv (s ) = iv , n ≤ v ≤ n + m s ξ tn −1 (s ) = in −1

})

(7.3)

Să notăm cu Σ t cea mai mică σ − algebră de părţi ale spaţiului S cu

proprietatea că ξ τ este (Σ t ,B ) − măsurabilă, pentru orice τ ≥ t ; în particular, Σ 0

este cea mai mică σ − algebră cu proprietatea că ξ t este (Σ 0 ,B ) − măsurabilă pentru orice t ∈ 124

.

Corolar 1. Dacă {ξt }t∈ este un procea Markov, atunci

({

}) ( {

P A ξ t v (s ) = i v , 1 ≤ v ≤ n = P A ξ t n (s ) = i n

oricare ar fi A ∈ Σ t

n +1

})

(7.4)

.

În mod evident, funcţia Pi ,t +1 definită prin egalitatea

(

)

Pi ,t +1 (i, B ∩ I ) = P ξ t−+11 (B ∩ I ) {s ξ t (s ) = i}

Este o probabilitate de trecere pe I × (B ∩ I ) .

Dacă {ξt }t∈ este un procea Markov, atunci avem

P ({s ξ 0 (s ) = i0 ,..., ξ n (s ) = in }) =

(

n

)

= P({s ξ 0 (s ) = i0 })∏ P {s ξ t (s ) = it }{s ξ τ (s ) = iτ , 0 ≤ τ < t} t =1

(i)

Definiţie. Probabilităţile pi = P s ξ 0 (s ) = i

({

})

pentru procesul {ξt }t∈ .

(ii)

Probabilităţile

se numesc probabilităţile iniţiale

(

)

pit −1 ,it (t ) = P {s ξ t (s ) = it }{s ξ t −1 (s ) = it −1 }

se numesc

probabilităţile de trecere ale procesului {ξt }t∈ .

Cu notaţiile din definiţia precedentă avem n

P ({s ξ t (s ) = it , 0 ≤ t ≤ n}) = pi0 ∏ pit −1 ,it (t ) . Definiţie. Procesul Markov

{ξt }t∈

(7.5)

t =1

se numeşte omogen, dacă funcţia

pit −1 ,it (t ) este independentă de t , adică pit −1 ,it (t ) = pit −1 ,it . Aşadar, dacă {ξt }t∈ este un proces omogen, avem n

P ({s ξ t (s ) = it , 0 ≤ t ≤ n}) = pi0 ∏ pit −1 ,it .

(7.6)

t =1

În acest caz este justificată notaţia

(

)

pij = P {s ξ t (s ) = i}{s ξ t −1 (s ) = j}

pentru probabilităţile de trecere. Se spune că p ij este probabilitatea de trecere a procesului {ξt }t∈ din starea i în starea j după un pas (o unitate de timp).

( )

Matricea Π = pij

i , j∈I

formată cu probabilităţile de trecere se mai

numeşte matricea de trecere a procesului {ξt }t∈ ,

125

Propoziţia 2. Probabilităţile pi ( i ∈ I ) şi probabilităţile de trecere p ij ( i, j ∈ I ) satisfac relaţiile

∑ p = 1; ≥ 0 , ( i, j ∈ I ), ∑ p = 1 .

pi ≥ 0 , ( i ∈ I ), pij

i

i∈I

ij

j∈I

În baza relaţiilor (7.6) rezultă că probabilităţile pi , p ij determină complet

funcţia-probabilitate P pe (S , Σ ) , Σ = Σ 0 fiind σ − algebra generată de procesul

omogen {ξt }t∈ . În acest sens probabilităţile iniţiale şi probabilităţile de trecere caracterizează un proces Markov. Fie în continuare p ij(0 ) = δ ij , p ij(1) = pij , pij(n +1) = Propoziţia 3. Pentru fiecare v ∈

∑ p( ) p( ) h∈I

avem

(

1 hj

n ih

(7.7)

)

pij = P {s ξ v + n (s ) = j}{s ξ v (s ) = i} (n )

oricare ar fi i, j ∈ I .

( )

Observaţie. Să notăm Π (n ) = pij(n )

i , j∈I

(7.8)

. Relaţiile (7.7) arată că matricea

de trecere după n paşi, Π (n ) este chiar puterea a n-a a matricii Π . Propoziţia 4 (relaţiile Chapman-Kolmogorov). Pentru orice m, n ∈ i, j ∈ I avem

pij(n + m ) = ∑ pih(n ) p hj(m )

({

h∈I

şi

(7.9)

}) se numesc probabilităţile absolute la

Probabilitătile pi(n ) = P s ξ n (s ) = i

momentul n al procesului. Propoziţia 5. Pentru orice n ∈ şi i ∈ I avem pi(n ) = p j p (jin ) , pi(n +1) = p (jn ) p (ji1)





j∈I

j∈I

Definiţie. Dacă pentru fiecare i, j ∈ I şirul

(7.10)

( p( ) ) n ij

n∈

are limită pentru

n tinzând la infinit, independentă de i , procesul {ξt }t∈ se numeşte ergodic. Teorema 1. Fie {ξt }t∈

un proces omogen având mulţimea de stări I

finită. O condiţie necesară şi suficientă ca procesul să fie ergodic este să existe un număr s ∈ * şi o stare h ∈ I astfel încât pih( s ) > 0 , oricare ar fi i ∈ I . Corolar 1. Pentru orice m ∈

∑p j∈I

126

(∞ ) ( m ) j

p jh

şi h ∈ I avem = p h(∞ ) .

(7.11)

Corolar 2. Avem p (j∞ ) > 0 pentru orice j ∈ I dacă şi numai dacă există

s∈

*

astfel încât pij( s ) > 0 pentru orice i, j ∈ I . Corolar 3. Fie m numărul de stări ale lanţului. Avem p (j∞ ) =

dacă şi numai dacă

∑p i∈I

ij

1 , j∈I m

= 1 pentru orice j ∈ I .

Comportarea asimptotică a probabilităţilor de trecere după n paşi constituie tema principală de cercetare a proceselor Markov cu parametru discret. În această temă se încadrează studiul limitelor

1 n −1 (v ) pij . ∑ n→∞ n v =0

lim Teorema 2. Fie {ξt }t∈

un proces omogen cu mulţimea stărilor I finită

şi fie pij(n ) probabilităţile de trecere după n paşi. Pentru orice i, j ∈ I şirul

 1 n −1 (v )  este convergent.  ∑ pij   n v =0  n∈N * 1 n −1 Fie pij(∞ ) = lim ∑ pij(v ) . Sunt evidente egalităţile n →∞ n v =0

∑ p( j∈I

∞) ij

=1,

∑ p( h∈I

∞) ih

p hj(n ) = pij(∞ )

oricare ar fi i, j ∈ I . Dar cum se reflectă structura procesului în limitele pij(∞ ) ? În continuare vom da un răspuns la această întrebare. Vom nota cu f ij( n ) probabilitatea ca pentru prima oară după n paşi procesul {ξt }t∈ să se afle în starea j . Dacă la momentul

iniţial, t = 0 , el s-a aflat în starea i :

(

)

f ij(n ) = P {s ξ n (s ) = j , ξ v (s ) ≠ j , 1 ≤ v ≤ n − 1}{s ξ 0 (s ) = i} .

În cazul când {ξt }t∈ este omogen avem

(

)

f ij(n ) = P {s ξ n + m (s ) = j , ξ m + v (s ) ≠ j , 1 ≤ v ≤ n − 1}{s ξ m (s ) = i}

oricare ar fi n ∈

.

∑ f ( ) (= ∞

Evident

n =1

n

ij

)

f ij(∞ ) este probabilitatea ca procesul să treacă cel puţin

o dată în întreaga lui desfăşurare prin starea j , dacă la momentul iniţial el s-a aflat în starea i .

127

(∞ )

f ii

În mod natural, i ∈ I se numeşte stare de irevesibilitate a procesului dacă = 1 . Se constată nemijlocit că n

∑ f ( ) p( v =1

n −v ) ij

v

ij

= pij(n )

(7.12)

pentru orice i, j ∈ I . Propoziţia 6. Dacă j este stare de ireversibilitate, atunci

1 n −1 (v ) p jj = ∑ n →∞ n v =0

p (jj∞ ) = lim

1 ∞

∑ nf n =1



pij(∞ )

1 n −1 = lim ∑ pij(n ) = n →∞ n v =0

∑f() n =1 ∞

,

jj

n

ij

∑ nf n =1

(n )

(n )

( i ≠ ).

jj

În caz contrar, limitele sunt zero. ∞

Suma

∑ nf ( ) n =1

n jj

se numeşte timp mediu de revenire a procesului în starea

j . Această denumire este justificată de faptul că suma precedentă dă media variabilei ale cărei valori sunt momentele aleatorii n cu probabilităţile f jj( n ) . BIBLIOGRAFIE

1. Ciucu, G., Simboan, G., Teoria probabilităţilor şi statistica matematică, Editura Tehnică, Bucureşti, 1962. 2. Leonte, A., Trandafir R., Clasic şi actual în teoria probabilităţilor, Editura Dacia, Cluj-Napoca, 1974. 3. Mihoc, G., Ciucu, G., Craiu V., Teoria probabilităţilor şi statistică matematică, Editura Didactică şi Pedagogică, Bucureşti, 1978. 4. Onicescu, O., Probabilităţi şi procese aleatoare, Editura Ştiinţifică şi Enciclopedică, Bucureşti, 1977. 5. Sîmboan, G. ş.a., Teoria probabilităţilor, Editura Didactică şi Pedagogică, Bucureşti, 1967. 6. Trandafir, R., Culegere de probleme de matematici pentru ingineri, ed. II-a, Editura Tehnică, 1977.

128

Related Documents