Slidespe Gs Print5

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Slidespe Gs Print5 as PDF for free.

More details

  • Words: 5,294
  • Pages: 20
5. Distribuições conjuntas de probabilidade e complementos Por vezes, a observação de uma única variável não é suficiente para explicar um fenómeno aleatório, sendo necessário observar mais do que uma variável aleatória (caso multivariado) e, por conseguinte, definir as funções de probabilidade conjunta.

Duas variáveis aleatórias discretas ou contínuas. Exemplo 5.1: Sejam X e Y os números de cartas rei/dama e ás em 2 cartas retiradas (sem reposição) de um baralho com 52 cartas, respectivamente. Quais as probabilidades conjuntas (não nulas) do par aleatório (X, Y )?

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 57/207

P (X P (X P (X P (X P (X P (X

= 0, Y = 0, Y = 0, Y = 1, Y = 1, Y = 2, Y

= 0) = = 1) = = 2) = = 0) = = 1) = = 0) =

X\Y 0 1 2

8 0 8 0 8 0 8 1 8 1 8 2

 4 0 4 1 4 2 4 0 4 1 4

0 0.589 0.241 0.021 0.851

0

40 / 2 40 / 1 40 / 0 40 / 1 40 / 0 40 / 0



1 0.121 0.024 0 0.145

52 2 52 2 52 2 52 2 52 2 52 2



= 780/1326 ≃ 0.589 = 160/1326 ≃ 0.121 = 6/1326 ≃ 0.004 = 320/1326 ≃ 0.241 = 32/1326 ≃ 0.024 = 28/1326 ≃ 0.021

2 0.004 0 0 0.004

0.714 0.265 0.021 1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 58/207

Distribuições conjuntas. Definição 5.1: Se X e Y são duas v.a. discretas (contínuas), a sua função massa (densidade) de probabilidade conjunta é uma função fX,Y (x, y), satisfazendo as seguintes condições: 1. fX,Y (x, y) ≥ 0, ∀ (x, y). P P 2. f (x, y) = 1 (caso discreto), R xR y X,Y f (x, y) dxdy = 1 (caso contínuo). IR IR X,Y

Definição 5.2: Dado um par aleatório (X, Y ), a sua função de distribuição conjunta é dada por FX,Y (x, y) = ( P (X ≤ x, Y ≤ y) P P fX,Y (u, v) = R xu≤xR y v≤y f (u, v) dvdu −∞ −∞ X,Y

(caso discreto), (caso contínuo).

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 59/207

Propriedades da função de distribuição FX,Y (x, y) de um par aleatório (X, Y ): P1 : FX,Y (x, y) é uma função não decrescente em cada uma das variáveis, e.g., ∀ x, y1 ≤ y2 , FX,Y (x, y1 ) ≤ FX,Y (x, y2 ).

P2 : FX,Y (x, y) é uma função contínua à direita em cada uma das variáveis, e.g., se xn ↓ x (n → ∞), então FX,Y (xn , y) ↓ FX,Y (x, y).

P3 :

P4 :

lim FX,Y (x, y) = lim FX,Y (x, y) = lim FX,Y (x, y) = 0.

x,y→−∞

x→−∞

y→−∞

lim FX,Y (x, y) = 1.

x,y→∞

Note-se que a função densidade de probabilidade conjunta de (X, Y ) pode ser obtida a partir da respectiva função de distribuição por diferenciação, nos pontos (x, y) de diferenciabilidade desta, i.e., ∂2 fX,Y (x, y) = FX,Y (x, y). ∂x∂y NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 60/207

Exemplo 5.2: Num sistema com 2 componentes electrónicas, seja X (Y ) a duração (em horas) da sua primeira (segunda) componente. Será fX,Y (x, y) abaixo uma f.d.p. conjunta do par aleatório (X, Y )? ( e−x−y , x > 0, y > 0; fX,Y (x, y) = 0, c.c. • fX,Y (x, y) ≥ 0, ∀ (x, y) ∈ IR2 , •

Z



−∞

Z



−∞

Z



−y

Z



e−x dxdy 0 ∞ Z0 ∞ −y −x e [−e ] dy = 0 0 ∞ Z ∞ −y −y e dy = [−e ] = 1. =

fX,Y (x, y) dxdy =

0

e

0

Sim, fX,Y (x, y) é uma f.d.p. conjunta.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 61/207

Qual a probabilidade de as duas componentes durarem no máximo 2 horas? R2R2 P (X ≤ 2, Y ≤ 2) = FX,Y (2, 2) = 0 0 e−x−y dxdy R2 = 0 e−y (−e−x )|20 dy = (1−e−2 )(−e−y )|20 = (1 − e−2 )2 ≃ 0.7477 Qual a probabilidade de a primeira componente durar mais do que a segunda? y 6

RR P (X > Y ) = f (x, y) dxdy R ∞AR ∞X,Y−x−y dxdy = 0 y e R ∞ −y = 0 e (−e−x )|∞ y dy R ∞ −2y A = 0 e dy = 0.5(−e−z )|∞ 0 - x = 0.5 NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 62/207

Distribuições marginais. Definição 5.3: Dado um par aleatório (X, Y ) de v.a. discretas (contínuas) com função massa (densidade) de probabilidade conjunta fX,Y (x, y), as funções massa (densidade) de probabilidade marginais de X e de Y são, respectivamente, dadas por Z  X fX (x) = fX,Y (x, y) fX,Y (x, y) dy , IR y Z  X fY (y) = fX,Y (x, y) fX,Y (x, y) dx . x

IR

Note-se que as funções fX (x) e fY (y) satisfazem as propriedades de f.m.p (f.d.p.), estando associadas igualmente a funções de distribuição (marginais). R ∞ Por exemplo, se (X, Y ) é contínuo: i) fRX x(x) ≥ 0, ∀ x ∈ IR; ii) −∞ fX (x)dx = 1; iii) FX (x) = P (X ≤ x) = −∞ fX (u)du.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 63/207

Exemplo 5.2a: No sistema com duas componentes electrónicas, qual a função de distribuição conjunta de (X, Y ), sendo X e Y as durações das componentes? Ry Rx x,y>0 R y R x FX,Y (x, y) = −∞ −∞ fX,Y (u, v)dudv = 0 0 e−u−v dudv Ry Ry = (0 e−v (−e−u )|x0 dv = (1 − e−x ) 0 e−v dv, (1 − e−x )(1 − e−y ), x, y > 0; = 0, c.c. E as funções densidade de probabilidade marginais de X ( ∞ R e−x , x>0 −x−y −x −y ∞ e dy = e (−e )|0 = fX (x) = 0, 0 ( ∞ e−y , y>0 R −x−y −y −x ∞ e dx = e (−e )|0 = fY (y) = 0, 0

eY? x > 0; c.c. y > 0; c.c.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 64/207

Distribuições condicionais. Definição 5.4: Dado um par aleatório (X, Y ) de v.a. discretas (contínuas) com função massa (densidade) de probabilidade conjunta fX,Y (x, y), a função massa (densidade) de probabilidade condicional de X dado Y = y é expressa por fX|Y =y (x) = fX,Y (x, y)/fY (y),

se fY (y) > 0.

Analogamente, a função massa (densidade) de probabilidade condicional de Y dado X = x é fY |X=x (y) = fX,Y (x, y)/fX (x),

se fX (x) > 0.

Observe-se que as funções condicionais fX|Y =y (x) e fY |X=x (y) satisfazem as propriedades de f.m.p (f.d.p.), possuindo igualmente funções de distribuição (condicionais). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 65/207

Exemplo 5.1a: X e Y são os números de cartas rei/dama e ás em 2 cartas retiradas do baralho (sem reposição), respectivamente. X\Y 0 1 2

0 0.589 0.241 0.021 0.851

1 0.121 0.024 0 0.145

2 0.004 0 0 0.004

0.714 0.265 0.021 1

A função massa de probabilidade condicional de Y dado X = 0 é Y |X = 0 fY |X=0 (y)

0.589 0.714

0 = 0.825

0.121 0.714

1 = 0.169

0.004 0.714

2 = 0.006

Note-se que X X fX,Y (0, y) 1 X = fX,Y (0, y) = 1 fY |X=0 (y) = f (0) f (0) X X y y y NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 66/207

Independência. Teorema 5.1: Duas variáveis aleatórias X e Y são ditas independentes, se para todo A e B, os eventos X ∈ A e Y ∈ B são independentes, i.e., P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B). Teorema 5.2: Duas variáveis aleatórias X e Y discretas (contínuas) são independentes, se a função massa (densidade) de probabilidade conjunta de (X, Y ) é dada por fX,Y (x, y) = fX (x)fY (y), ∀ (x, y), onde fX (x) e fY (y) são as funções massa (densidade) de probabilidade marginal de X e Y , respectivamente.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 67/207

Teorema 5.3: Duas variáveis aleatórias X e Y são independentes, se a função de distribuição conjunta de (X, Y ) é dada por FX,Y (x, y) = FX (x)FY (y), ∀ (x, y), onde FX (x) e FY (y) são as funções de distribuição marginal de X e Y , respectivamente. Exemplo 5.2b: X e Y são as durações (em horas) de duas componentes electrónicas do sistema. ( e−(x+y) = e−x e−y , fX,Y (x, y) = 0,

x, y > 0; c.c.

= fX (x)fY (y), ∀ (x, y). ∴ X e Y são variáveis aleatórias independentes. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 68/207

Valor esperado e variância. Definição 5.5: Dado um par aleatório (X, Y ) com f.m.p. ou f.d.p. conjunta fX,Y (x, y), o valor esperado de uma função g(X, Y ) é dado por (P P g(x, y)fX,Y (x, y) (caso discreto), E(g(X, Y )) = R xR y g(x, y)fX,Y (x, y) dxdy (caso contínuo). IR IR

Exemplo 5.3: Seja (X, Y ) um par aleatório com f.d.p. conjunta fX,Y (x, y) e marginais fX (x) e fY (y). Qual o valor esperado de X +Y ? R∞ R∞ E(X + Y ) = −∞ −∞ (x + y)fX,Y (x, y)dxdy R∞ R∞ R∞ R∞ = −∞ x −∞ fX,Y (x, y)dydx + −∞ y −∞ fX,Y (x, y)dxdy R∞ R∞ = −∞ xfX (x)dx + −∞ yfY (y)dy = E(X) + E(Y ). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 69/207

E a variância de X + Y ? R∞ R∞ E((X + Y )2 ) = −∞ −∞ (x + y)2 fX,Y (x, y)dxdy  R∞ R∞ = −∞ x2 −∞ fX,Y (x, y)dy dx R∞ R∞ +2 −∞ −∞ xyfX,Y (x, y)dxdy  R∞ R∞ + −∞ y 2 −∞ fX,Y (x, y)dx dy R∞ R∞ = −∞ x2 fX (x)dx + 2E(XY ) + −∞ y 2 fY (y)dy = E(X 2 ) + 2E(XY ) + E(Y 2 ) ∴ V ar(X + Y ) = E((X + Y )2 ) − (E(X + Y ))2 = E(X 2 ) + 2E(XY ) + E(Y 2 ) −(E(X))2 − 2E(X)E(Y ) − (E(Y ))2 = V ar(X) + V ar(Y ) + 2(E(XY ) − E(X)E(Y )). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 70/207

Teorema 5.4: Se X e Y são variáveis aleatórias independentes com f.m.p. (f.d.p.) conjunta fX,Y (x, y) e marginais fX (x) e fY (y), então E(X Y ) = E(X)E(Y ). P P E(X Y ) = x y x yfX,Y (x, y) (caso discreto) P P = x y x yfX (x)fY (y) P P = x xfX (x) y yfY (y) = E(X)E(Y ). Exemplo 5.2c: X e Y são durações de 2 componentes electrónicas. R ∞ −x R∞ e dx = 0 − e−x |∞ + E(X) = 0 xe−x dx = −xe−x |∞ 0 = 1 0 0 R ∞ −y E(Y ) = 0 ye dy = 1, visto que Y ∼ Exponencial(λ = 1) R∞ R∞ R ∞R ∞ E(XY ) = 0 0 xy e−(x+y) dxdy = 0 xe−x dx 0 ye−y dy = 1 ∴ E(XY ) = E(X)E(Y ). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 71/207

Definição 5.6: Dado um par aleatório (X, Y ) discreto (contínuo) com f.m.p. (f.d.p.) condicional de X dado Y = y denotada por fX|Y =y (x), o valor esperado condicional de X dado Y = y é dado por (P xfX|Y =y (x) (caso discreto), E(X|Y = y) = R x xfX|Y =y (x) dx (caso contínuo). IR Enquanto a variância condicional de X dado Y = y é dada por X  (x − E(X|Y = y))2 fX|Y =y (x)     x   (caso discreto), V ar(X|Y = y) = Z   (x − E(X|Y = y))2 fX|Y =y (x)dx      IR (caso contínuo). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 72/207

Propriedades do valor esperado condicional: Se (X, Y ) um par aleatório com f.m.p. (f.d.p.) conjunta fX,Y (x, y) e marginais fX (x) e fY (y), 1. E(E(X|Y )) = E(X), caso E(X) < ∞ e fY (y) > 0.

2. E(E(Y |X)) = E(Y ), caso E(Y ) < ∞ e fX (x) > 0.

Denotando ψ(y) como o valor esperado condicional de X dado Y = y (caso contínuo), i.e., Z Z fX,Y (x, y) dx, ψ(y) = E(X|Y = y) = xfX|Y =y (x)dx = x f (y) Y IR IR R E(E(X|Y )) = E(ψ(Y )) = IR ψ(y)fY (y)dy  R R fX,Y (x,y) = IR IR x fY (y) dx fY (y)dy  R R = IR x IR fX,Y (x, y)dy dx R = IR xfX (x)dx = E(X) NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 73/207

Covariância. Definição 5.7: Dadas duas v.a. X e Y , a covariância de X e Y é o valor esperado do produto dos desvios de X e Y em relação aos seus valores esperados, i.e., Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))]. Propriedades da covariância: Dado um par aleatório (X, Y ) com f.m.p. (f.d.p.) conjunta fX,Y (x, y), P P 1. Cov(X, Y ) = x y (x − E(X))(y − E(Y ))fX,Y (x, y) (caso discreto). R R 2. Cov(X, Y ) = IR IR (x − E(X))(y − E(Y ))fX,Y (x, y)dxdy (caso contínuo). 3. Cov(X, X) = V ar(X).

4. Cov(X, Y ) = E(XY ) − E(X)E(Y ). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 74/207

Teorema 5.5: Se X e Y são v.a. independentes, então a covariância de X e Y é nula. Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0, visto que E(XY ) = E(X)E(Y ), quando X e Y são independentes. Exemplo 5.4: Sejam X e Y duas v.a. contínuas com f.d.p. conjunta fX,Y (x, y) = 1, se 0 ≤ x, y ≤ 1, e 0, c.c.. R R 2 2 • E(XY ) = 1 1 xy × 1 dxdy = ( x )|10 × ( y )|10 = 1 . 0 0 2 2 4 R 1 x2 1 R1R1 • E(X) = x × 1 dxdy = 0 ( 2 )|0 dy = 21 (y)|10 = 21 . 0 0 R 2 R R • E(Y ) = 1 1 y × 1 dxdy = 1 ( y )|10 dx = 1 (x)|10 = 1 . 2 2 0 2 0 0 ∴

Cov(X, Y ) =

1 4



11 22

= 0.

Resultado previsível pois X e Y são v.a. independentes. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 75/207

Exemplo 5.5: Sejam X, Y e Z variáveis aleatórias. Qual a covariância de X + Z e Y ? Cov(X + Z, Y ) = E((X + Z)Y ) − E(X + Z)E(Y ) = E(XY ) + E(ZY ) − E(X)E(Y ) − E(Z)E(Y ) = Cov(X, Y ) + Cov(Z, Y ) E a variância de X − Y , se X e Y são independentes? V ar(X − Y ) = E((X − Y )2 ) − (E(X − Y ))2 = E(X 2 ) − 2 E(XY ) + E(X)2 −(E(X))2 + 2 E(X)E(Y ) − (E(Y ))2 = V ar(X) + V ar(Y ) − 2 Cov(X, Y ) Se X e Y são independentes, V ar(X − Y ) = V ar(X) + V ar(Y ). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 76/207

Correlação. Definição 5.8: Dado um par aleatório (X, Y ), o coeficiente de correlação de X e Y é dado por Cov(X, Y ) Corr(X, Y ) = p . V ar(X) V ar(Y )

Propriedades do coeficiente de correlação: Sejam (X, Y ) um par aleatório e a 6= 0 e b constantes reais. 1. −1 ≤ Corr(X, Y ) ≤ 1. 2. Corr(a X, Y + b) =

a Corr(X, Y |a|

).

3. Se Y = a X + b, Corr(X, Y ) = ±1 (correlação linear perfeita). Note-se que Corr(X, Y ) = 0 (i.e., Cov(X, Y ) = 0) não implica independência entre X e Y . NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 77/207

Exemplo 5.1b: X e Y são os números de cartas rei/dama e ás em 2 cartas retiradas do baralho (sem reposição), respectivamente. Qual o coeficiente de correlação de X e Y ? X\Y 0 1 2

0 0.589 0.241 0.021 0.851

1 0.121 0.024 0 0.145

2 0.004 0 0 0.004

0.714 0.265 0.021 1

• E(X) = 0 × 0.714 + 1 × 0.265 + 2 × 0.021 = 0.307.

• E(X 2 ) = 02 × 0.714 + 12 × 0.265 + 22 × 0.021 = 0.349. • E(Y ) = 0 × 0.851 + 1 × 0.145 + 2 × 0.004 = 0.153.

• E(Y 2 ) = 02 × 0.851 + 12 × 0.145 + 22 × 0.004 = 0.161.

• E(XY ) = 0×0×0.589+· · ·+1×1×0.024+· · ·+2×2×0 = 0.024. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 78/207

• V ar(X) = E(X 2 ) − E(X)2 = 0.349 − 0.3072 = 0.2547. • V ar(Y ) = E(Y 2 ) − E(Y )2 = 0.161 − 0.1532 = 0.1376. • Cov(X, Y ) = E(XY ) − E(X)E(Y )

= 0.024 − 0.307 × 0.153 = −0.023.

∴ −0.023 −0.023 = −0.123. = Corr(X, Y ) = √ 0.1872 0.2547 × 0.1376 • As variáveis X e Y estão fracamente correlacionadas linearmente

e de uma forma negativa (quando uma variável cresce a outra decresce).

• Note-se que Corr(X, Y ) 6= 0 ⇒ X e Y não são independentes. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 79/207

Definição 5.9: Dadas n v.a. X1 , . . . , Xn e n constantes reais c1 , . . . , cn , uma combinação linear das variáveis aleatórias é uma v.a. Y tal que Y =

n X

ci Xi .

i=1

Algumas de suas propriedades: P P 1. E(Y ) = E( ni=1 ci Xi ) = ni=1 ci E(Xi ). P P 2. V ar(Y ) = V ar( ni=1 ci Xi ) = ni=1 c2i V ar(Xi ), assumindo que X1 , . . . , Xn são v.a. independentes. Teorema 5.6: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼ N (µi , σi2 ), i = 1, . . . , n, então para c1 , . . . , cn constantes reais Y =

n X i=1

ci Xi ∼ N

X n i=1

ci µ i ,

n X i=1



c2i σi2 .

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 80/207

Teorema 5.7: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼ Bernoulli(p), i = 1, . . . , n, então n X

Y =

i=1

Xi ∼ Binomial(n, p),

e, por conseguinte, Pn Pn • E(Y ) = E(X ) = i i=1 p = np, i=1 Pn Pn • V ar(Y ) = V ar(X ) = i i=1 p(1 − p) = np(1 − p). i=1

Teorema 5.8: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼ Poisson(λi ), i = 1, . . . , n, então Y =

n X i=1

  n X Xi ∼ Poisson λ = λi . i=1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 81/207

Exemplo 5.6: Suponha que X1 e X2 são v.a. independentes com distribuição de Poisson com parâmetros λ1 e λ2 , respectivamente. Qual a distribuição de X1 + X2 ? Seja Z = X1 + X2 uma v.a. com f.m.p. fZ (z), i.e., P fZ (z) ≡ P (Z = z) = x1 P (X1 = x1 , Z = z) P = x1 P (X1 = x1 )P (Z = z|X1 = x1 ) P = x1 P (X1 = x1 )P (X2 = z − x1 |X1 = x1 ) P = x1 P (X1 = x1 )P (X2 = z − x1 ) z z X X e−λ1 λ1 x1 e−λ2 λ2 z−x1 e−(λ1 +λ2 ) z! = λx1 λ2z−x1 = x1 ! (z−x1 )! z! x1 ! (z−x1 )! 1 =

x1 =0 e−(λ1 +λ2 ) (λ1 z!

x1 =0

+ λ2 )

z

Consequentemente, Z = X1 + X2 ∼ Poisson(λ = λ1 + λ2 ). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 82/207

Proposição 5.1: Sejam X1 , . . . , Xn e Y1 , . . . , Ym variáveis aleatórias. Cov

X n

Xi ,

i=1

m X

Yj

j=1



=

n X m X

Cov(Xi , Yj ).

i=1 j=1

Corolário 5.1: Sejam X1 , . . . , Xn variáveis aleatórias. V ar

X n i=1

Xi



=

n X

V ar(Xi ) +

i=1

n n X X

Cov(Xi , Xj ).

i=1 j6=i=1

Teorema 5.9: Se X1 , . . . , Xn são variáveis aleatórias independentes, V ar

X n i=1

Xi



=

n X

V ar(Xi ).

i=1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 83/207

Vector aleatório. X = (X1 , . . . , Xn ) diz-se um vector aleatório em IRn , se Xi , 1, . . . , n, são variáveis aleatórias. Consequentemente, se E(Xi ) = µi , V ar(Xi ) = σi2 e Cov(Xi , Xj ) = σij , j 6= i, então o valor esperado e a matriz de covariâncias de X são, respectivamente, E(X) = µ = (µ1 , . . . , µn )T 

 σ12 σ12 · · · σ1n σ   21 σ22 · · · σ2n  T V ar(X) = E((X−µ)(X−µ) ) =   . . . . . . . . . . . . . . . . . . σn1 σn2 · · · σn2 Note-se que, se X1 , . . . , Xn são v.a. independentes com E(Xi ) = µ e V ar(Xi ) = σ 2 , então V ar(X) = σ 2 I, onde I é a matriz identidade de ordem n. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 84/207

Distribuição multinomial. Definição 5.10: Considere uma experiência aleatória com n ensaios independentes de k acontecimentos possíveis tais que pi é a probabiliP dade do acontecimento i e ki=1 pi = 1. Sejam X1 , X2 , . . . , Xn as v.a. que designam o número de vezes em que cada um dos acontecimenP tos se realiza nos n ensaios com xi = 0, 1, . . . , n e ki=1 xi = n. O vector aleatório X = (X1 , . . . , Xn ) tem distribuição multinomial com parâmetros n e p = (p1 , . . . , pn ), com f.m.p. conjunta ( n! p x1 p2 x2 . . . pk xk , xi ∈ {0, 1, . . . , n}; x1 !x2 !...xk ! 1 fX (x) = 0, c.c. com pk = 1−p1 . . .−pk−1 e xk = n−x1 . . .−xk−1 . Pode-se provar que Xi ∼ Binomial(n, pi ), E(Xi ) = npi , V ar(Xi ) = npi (1−pi ) e Cov(Xi , Xj ) = −npi pj , j 6= i = 1, . . . , k. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 85/207

Aproximações entre distribuições. Teorema 5.10: Se X é uma v.a. com distribuição binomial de parâmetros n e p, X tem aproximadamente distribuição de Poisson com parâmetro λ = np, quando n → ∞ e p → 0. fX (x) =

n x

 x p (1 − p)n−x

=

n! ( λ )x (1 x!(n−x)! n

=

n(n−1)...(n−x+1) nx

⇒1× =

λx x!

e−λ λx . x!

×

e−λ , 1

− nλ )n−x , ×

λx x!

×

onde p = λ/n

(1−λ/n)n (1−λ/n)x

quando n → ∞, p → 0

a

Ou seja, X ∼ Poisson(λ = np), quando n → ∞ e p → 0. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 86/207

Teorema 5.11: Se X é uma v.a. com distribuição hipergeométrica de parâmetros N , M e n, X tem aproximadamente distribuição binomial com parâmetros n e p = M/N , quando N, M → ∞ simultaneamente.  N −M  N  fX (x) = [ M ]/ n x n−x =

M! x!(M −x)!

=

n! x!(n−x)!

×

×

(N −M )! (n−x)!(N −M −n+x)!

M! (M −x)!

×

×

n!(N −n)! N!

(N −M )! (N −M −(n−x))!

×

(N −n)! N!

(M −1)...(M −x+1) (N −M )(N −M −1)...(N −M −(n−x)+1) ×M × N (N −1)...(N −x+1) (N −x)(N −x−1)...(N −n+1)  M N −M ··· M ] × [ N −M · · · N −M ], M, N → ∞ ⇒ nx × [ M N N N N N N

=

n x



=

n x

x N −M n−x (M N) ( N )

=

n x

px (1 − p)n−x , x = 0, 1, . . . , n e p = M/N .

a





Ou seja, X ∼ Binomial(n, p = M ), quando N, M→∞ simultaneamente. N NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 87/207

Convergência em distribuição Definição 5.11: Sejam X, X1 , X2 . . . v.a. com respectivas funções de distribuição FX , FX1 , FX2 , . . .. Diz-se que Xn converge em distribuição D

para X (Xn → X), se FXn (x) → FX (x), quando n → ∞, ∀ x ponto de continuidade de FX . Ou seja, lim FXn (x) = FX (x).

n→∞

Exemplo 5.7: Sejam (Xn ) e X v.a. degeneradas em 1/n e 0, respectivamente, i.e., P (Xn = 1/n) = 1 e

P (X = 0) = 1.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 88/207

• A função de distribuição de Xn é

FXn (x) =

(

1, 0,

x ≥ 1/n; x < 1/n.

• A função de distribuição de X é

FX (x) =

(

1, 0,

x ≥ 0; x < 0.

D

Portanto, Xn → X para todos os pontos de continuidade, i.e., • x > 0 ⇒ FXn (x) → 1 = FX (x), quando n → ∞. • x < 0 ⇒ FXn (x) → 0 = FX (x), quando n → ∞.

Entretanto, para o ponto de descontinuidade x = 0, FXn (x) → 0 6= 1 = FX (0). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 89/207

Teorema do Limite Central Teorema 5.12 (T.L.C.): Seja X1 , X2 . . . uma sucessão de v.a. independentesP com valor esperado µ e variância σ 2 , onde 0 < σ 2 < ∞. Para Sn = ni=1 Xi , tem-se Sn − E(Sn ) Sn − nµ p √ = σ n V ar(Sn )

D



N (0, 1).

Ou seja, para n razoavelmente grande,   Sn − nµ √ ≤ x ≈ Φ(x), P σ n onde Φ(·) é a função de distribuição da normal reduzida, i.e., N (0, 1).

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 90/207

0.20 0.00

0.10

f(x) 0.00

0.10

f(x)

0.20

0.30

Distribuição de Poisson (lambda=10 x 0.5)

0.30

Distribuição de Poisson (lambda=5 x 0.5)

10

20

30

40

50

0

10

20

30

40

x

Distribuição de Poisson (lambda=20 x 0.5)

Distribuição de Poisson (lambda=50 x 0.5)

50

0.20 0.00

0.10

f(x) 0.00

0.10

f(x)

0.20

0.30

x

0.30

0

0

10

20

30

40

50

0

10

20

x

30

40

50

x

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 91/207

Exemplo 5.8: Suponha que Xi é o tempo de atendimento (em minutos) do cliente i num caixa de banco. Considere ainda que Xi , i = 1, . . . , n, são v.a. independentes com distribuição Uniforme (0, 5). Havendo 60 clientes no momento da abertura do banco às 9 horas, qual a probabilidade de a caixa do banco antender todos os clientes até às 12 horas? P Se Xi ∼ Uniforme(0, 5), i = 1, . . . , 60, e S60 = 60 i=1 Xi , então • E(Xi ) =

(5+0) 2

• V ar(Xi ) =

= 2.5 ⇒ E(S60 ) = 60 × 2.5 = 150.

(5−0)2 12

=

25 12

⇒ V ar(S60 ) = 60 ×

25 12

= 125.

Como n = 60 (grande) e Xi são v.a. independentes e identicamente distribuídas, pode-se usar o T.L.C. (S60 ≈ N (150, 125)), i.e.,   √ P (S60 ≤ 180) ≈ P S√60 −E(S60 ) ≤ 180−150 125 V ar(S60 )

= P (Z ≤ 2.68) = 0.9963.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 92/207

Aplicação à distribuição Binomial. Corolário 5.2: Seja X1 , X2 . . . uma sucessão de v.a. associadas a ensaios de Bernoulli independentes com probabilidade de sucesso p, i.e., Xi ∼ Bernoulli(p), i = 1, . . . , n, independentes com valor esperado µ = E(Xi ) = p e variância σ 2 P = V ar(Xi ) = p(1 − p), onde p = P (Xi = 1) ∈ (0, 1). Para Sn = ni=1 Xi , S − np p n np(1 − p)

D



N (0, 1).

Observe-se que Sn ∼ Binomial(n, p) com valor esperado e variância dados, respectivamente, por • E(Sn ) = np. • V ar(Sn ) = np(1 − p). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 93/207

0.3 0.1 0.0

1

2

3

4

5

0

2

4

6

8

x

Distribuição Binomial (n=20,p=0.5)

Distribuição Binomial (n=50,p=0.5)

10

0.3 0.2 0.1 0.0

0.0

0.1

0.2

f(x)

0.3

0.4

x

0.4

0

f(x)

0.2

f(x)

0.2 0.0

0.1

f(x)

0.3

0.4

Distribuição Binomial (n=10,p=0.5)

0.4

Distribuição Binomial (n=5,p=0.5)

0

5

10 x

15

20

0

10

20

30

40

50

x

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 94/207

P Exemplo 5.9: Se X = ni=1 Xi ∼ Binomial(n = 12, p = 0.5), qual a probabilidade de X ser pelo menos 7? P12

12 x

 x 0.5 (1 − 0.5)12−x = 0.3872. x=7   • P (X ≥ 7) ≈ P Z ≥ √7−12 0.5 , onde Z ∼ N (0, 1) 12 0.5 0.5 • P (X ≥ 7) =

= P (Z ≥ 0.58) = 1 − FZ (0.58) = 1 − 0.719 = 0.281.

• (com correcção de continuidade)



P (X ≥ 7) ≈ P Z ≥

7−12 0.5−1/2 √ 12 0.5 0.5



= P (Z ≥ 0.29) = 1 − FZ (0.29) = 1 − 0.6141 = 0.3859. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 95/207

Related Documents

Slidespe Gs Print5
December 2019 3
Slidespe Gs Print9
December 2019 2
Slidespe Gs Print6
December 2019 3
Slidespe Gs Print8
December 2019 2
Slidespe Gs Print1&2
December 2019 3
Slidespe Gs Print3
December 2019 4