Slidespe Gs Print6

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Slidespe Gs Print6 as PDF for free.

More details

  • Words: 3,783
  • Pages: 14
6. Amostragem e estimação pontual Definição 6.1: População é um conjunto cujos elementos possuem qualquer característica em comum. Definição 6.2: Amostra é um subconjunto da população. Exemplo 6.1: Um partido encomenda uma sondagem sobre a intenção de voto nele nas próximas eleições. Por exemplo, a sondagem poderá ser baseada numa amostra (aleatória) da população de interesse de dimensão 10000 em 100000 votantes. Note-se que há uma v.a. para cada eleitor, i.e., ( 1, se o eleitor tenciona votar no partido; X= 0, c.c., podendo p = P (X = 1) = 1 − P (X = 0) (desconhecido) ser estimado pelo número de votantes sondados que tencionam votar a favor do partido. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 96/207

Estatística descritiva e Inferência Estatística. • Estatística descritiva: Parte da Estatística que aplica várias das

muitas técnicas usadas para sumariar um conjunto de dados.

• Inferência Estatística: Parte da Estatística que visa fazer induções

sobre características de uma população a partir de uma amostra da mesma.

O estudo de uma população centra-se usualmente em uma ou mais variáveis aleatórias. Em geral, a distribuição de probabilidade destas quantidades não é completamente conhecida e, portanto, com base em uma informação por amostragem, pode-se inferir estatisticamente sobre os seus aspectos desconhecidos, e.g., • Estimação pontual ou intervalar de parâmetros. • Testes de hipóteses sobre o valor de parâmetros ou sobre o próprio

tipo distribucional.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 97/207

Amostragem aleatória. Importantes questões relativamente ao processo de amostragem: • Como recolher a amostra? • Qual a informação pertinente a retirar da amostra? • Como se comporta a informação acima quando o mesmo procedi-

mento de recolha da amostra é usado numa população conhecida?

Alguns tipos de amostragem: • Amostragem aleatória simples: Todos os elementos da população

têm a mesma probabilidade de serem seleccionados.

• Amostragem por conglomerados: A população está dividida em

pequenos grupos (e.g., bairros, quarteirões, etc.), chamados conglomerados, que são amostrados aleatoriamente.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 98/207

• Amostragem estratificada: A população encontra-se dividida em

subpopulações ou estratos (e.g., classes sociais, graus de instrução, etc.), agrupados por alguma característica em comum, de cada um dos quais se amostra aleatoriamente alguns dos seus elementos.

Estes tipos de amostragem têm em comum a recolha aleatória dos elementos da amostra. Todavia, há outros métodos de amostragem não aleatórios, e.g., quando os elementos da amostra são voluntários (ensaios clínicos) ou são os únicos disponíveis. Definição 6.3: Dada uma população a que está associada uma variável aleatória X com uma certa distribuição de probabilidade, uma amostra aleatória (a.a.) de tamanho n dessa população é um conjunto de n v.a. X1 . . . , Xn independentes e identicamente distribuídas (i.i.d.).

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 99/207

Definição 6.4: Dada uma amostra aleatória X1 . . . , Xn de uma população X com f.m.p. (f.d.p.) fX (x), a distribuição de probabilidade amostral (f.m.p. ou f.d.p. conjunta) é dada por f (x1 , . . . , xn ) =

n Y

fXi (xi ) =

i=1

n Y

fX (xi ).

i=1

Exemplo 6.1a: Uma a.a. da população de votantes no partido com n elementos reporta-se a n v.a. X1 . . . , Xn i.i.d., tal que ( 1, se o eleitor i tenciona votar no partido; Xi = 0, c.c., sendo p = P (Xi = 1) = 1 − P (Xi = 0), i = 1, . . . , n. Consequentemente, a respectiva distribuição de probabilidade amostral é dada por n Y P P f (x1 , . . . , xn ) = pxi (1 − p)1−xi = p i xi (1 − p)n− i xi . i=1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 100/207

Estatísticas. Definição 6.5: Dada uma amostra X1 , . . . , Xn de uma população X, uma estatística T é uma função da amostra, i.e., T = T (X1 , . . . , Xn ). As estatísticas mais comuns são: ¯ = 1 Pn Xi . • Média amostral: X i=1 n

• Variância amostral (corrigida): S 2 =

1 n−1

Pn

i=1 (Xi

• Mínimo amostral: X(1) = min(X1 , . . . , Xn ).

¯ 2. − X)

• Máximo amostral: X(n) = max(X1 , . . . , Xn ). • Amplitude amostral: R = X(n) − X(1) . NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 101/207

Definição 6.6: Um parâmetro é uma medida usada para descrever uma característica da população. Notação usual de parâmetros e estatísticas: Medida média variância número de elementos proporção

População µ σ2 N p

Amostra ¯ X S2 n ¯ X

Se X1 , . . . , Xn é uma amostra aleatória de uma população X, então • média populacional: µ = E(X),

¯ = (X1 + · · · + Xn )/n. • média amostral: X NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 102/207

Estimação pontual: estimador e estimativa. Definição 6.7: Seja X1 , . . . , Xn uma amostra aleatória de uma população X indexada pelo parâmetro θ. Um estimador de θ é uma estatística T = T (X1 , . . . , Xn ) usada para estimar θ. Definição 6.8: O valor observado de um estimador em cada amostra concreta t = T (x1 , . . . , xn ) é conhecido por estimativa. Exemplo 6.1b: Numa amostra aleatória de n = 100000 eleitores, observaram-se 38900 eleitores com intenção de voto no partido em causa. Neste cenário, X1 , . . . , Xn são v.a. i.i.d. com distribuição de Bernoulli (p), onde p é a proporção (populacional) de votantes no par¯ i.e., a tido. O parâmetro p pode ser estimado pela média amostral X, proporção amostral de votantes no partido, cujo estimativa é x¯ = 38900/100000 = 0.389 ou 38.9%. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 103/207

Propriedades dos estimadores. Exemplo 6.2: A fim de estudar a exactidão e precisão de 4 jogadores (A,B,C,D) de tiro ao alvo, foram-lhes dadas 6 possibilidades de acertar ao alvo. O resultado dessa experiência encontra-se a seguir. '$

A

* * * t * * * &% '$

C

t* ** * **

&%

B * * '$ * * t

&% *

*

'$

D

t

** ****&%

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 104/207

Um resumo da qualidade (exactidão e precisão) dos jogadores: • Jogador A: muita exactidão e pouca precisão; • Jogador B: pouca exactidão e pouca precisão; • Jogador C: muita exactidão e muita precisão; • Jogador D: pouca exactidão e muita precisão.

Diz-se que os jogadores com mais precisão têm lançamentos menos dispersos (maior concordância entre os resultados). A exactidão (accuracy) está associada aos erros sistemáticos, e.g., deficiências de instrumentos de medição, enquanto a precisão (precision) reporta-se aos erros aleatórios que são responsáveis por pequenas variações nas medições realizadas, cujas causas não são completamente conhecidas.

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 105/207

Definição 6.9: Seja X1 , . . . , Xn uma a.a. de X com distribuição indexada pelo parâmetro θ. O estimador T = T (X1 , . . . , Xn ) é dito ser um estimador centrado (não enviesado) de θ se E(T ) = θ. Exemplo 6.3: Seja X1 , . . . , Xn uma a.a. de X com E(X) = µ e P ¯ 2 um estimador centrado de σ 2 ? V ar(X) = σ 2 . Será ni=1 (Xi − X)

Se X1 , . . . , Xn são v.a. i.i.d. com E(Xi ) = µ e V ar(Xi ) = σ 2 , i = ¯ = µ e V ar(X) ¯ = σ 2 /n. Logo, 1, . . . , n, então E(X) P ¯ 2 ) = E(P Xi2 − 2X ¯ P Xi + n X ¯ 2) E( ni=1 (Xi − X) i i P 2 ¯2 = i E(Xi ) − nE(X ) P 2 = i (V ar(Xi ) + E(Xi ) ) ¯ + E(X) ¯ 2) −n(V ar(X) = nσ 2 + nµ2 − nσ 2 /n − nµ2 = (n − 1)σ 2 . Pn ¯ 2 é um estimador centrado de σ 2 . ∴ Não, mas S 2 = 1 (Xi −X) n−1

i=1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 106/207

Definição 6.10: Seja T = T (X1 , . . . , Xn ) um estimador do parâmetro θ. Chama-se viés (enviesamento) de T como estimador de θ à quantidade E(T ) − θ. Note-se que o viés é nulo se e somente se T é um estimador centrado de θ. Definição 6.11: Seja T = T (X1 , . . . , Xn ) um estimador do parâmetro θ. Uma medida de precisão do estimador T é o erro quadrático médio (EQM), dado por EQM (T ) ≡ E((T − θ)2 ) = V ar(T ) + (E(T ) − θ)2 . Definição 6.12: Sejam T = T (X1 , . . . , Xn ) e U = U (X1 , . . . , Xn ) dois estimadores do parâmetro θ. Diz-se que T é mais eficiente do que U , se EQM (T ) ≤ EQM (U ), ∀ θ com desigualdade estrita para algum θ. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 107/207

Se T e U são estimadores centrados do parâmetro θ, então T é mais eficiente do que U se V ar(T ) ≤ V ar(U ), ∀ θ com desigualdade estrita para algum θ. Exemplo 6.4: Seja X1 , . . . , Xn uma a.a. de X ∼ Bernoulli(p). Con¯ como dois estimadores de p. Qual dos dois é o sidere ainda X1 e X estimador mais eficiente? P Sendo Xi ’s v.a. i.i.d. Bernoulli (p), ni=1 Xi ∼ Binomial (n, p), • E(X1 ) = p e

¯ = n−1 E(Pn Xi ) = n−1 n p = p. E(X) i=1 ¯ ∴ X1 e X são estimadores centrados de p.

• V ar(X1 ) = p(1 − p) e

¯ = n−2 V ar(Pn Xi ) = n−1 p (1−p) V ar(X) i=1 ⇒

¯ V ar(X) V ar(X1 )

=

1 n

< 1, ∀ n > 1.

¯ é mais eficiente do que X1 na estimação de p. ∴ X NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 108/207

Exemplo 6.3a: Seja X1 , . . . , Xn uma a.a. de uma população X com E(X) = µ e V ar(X) = σ 2 . Será a variância amostral (corrigida) S 2 = P P ¯ 2 ¯ 2 mais eficiente do que σ ˆ 2 = n−1 ni=1 (Xi−X) (n−1)−1 ni=1 (Xi−X) na estimação de σ 2 ? Como • E(

¯ 2 ) = (n−1)σ 2 ,

Pn

i=1 (Xi − X)

⇒ E(S 2 ) = σ 2 e E(ˆ σ 2 ) = n−1 σ2. n P ¯ 2 ) = 2(n−1)σ 4 , • V ar( n (Xi − X) i=1

• EQM (S 2 ) = V ar(S 2 ) + (E(S 2 ) − σ 2 )2 = 2(n−1)−1 σ 4 ,

• EQM (ˆ σ 2 ) = V ar(ˆ σ 2 ) + (E(ˆ σ 2 ) − σ 2 )2 = (2n−1)n−2 σ 4 ,



EQM (S 2 ) EQM (ˆ σ2)

=

2n2 (n−1)(2n−1)

> 1, ∀ n > 1.

∴ σ ˆ 2 é mais eficiente do que S 2 (n > 1) na estimação de σ 2 . NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 109/207

Definição 6.13: Seja X1 , . . . , Xn uma a.a. de uma população X indexada pelo parâmetro θ. Uma sucessão {Tn } de estimadores de θ é consistente se lim P (|Tn − θ| > ǫ) = 0, ∀ ǫ > 0, garantido por n→∞

i) lim E(Tn ) = θ,

ii) lim V ar(Tn ) = 0.

n→∞

n→∞

Exemplo 6.4a: Seja X1 , . . . , Xn uma a.a. de X ∼ Bernoulli(p). Será ¯ um estimador consistente de p? X P Sendo Xi ’s v.a. i.i.d. Bernoulli (p), ni=1 Xi ∼ Binomial (n, p), ¯ é um estimador centrado de p. ¯ = E(Pn Xi )/n = p. X • E(X) i=1 Condição i) logicamente satisfeita. ¯ = V ar(Pn Xi )/n2 = p (1 − p)/n. Por conseguinte, • V ar(X) i=1 ¯ = limn→∞ p(1−p) = 0. Condição ii) satisfeita. limn→∞ V ar(X) n

¯ é um estimador consistente de p. Portanto, X

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 110/207

Método da máxima verosimilhança. Definição 6.14: Dada uma a.a. X1 , . . . , Xn de uma população X com f.m.p. ou f.d.p. fX (x) indexada pelo parâmetro (desconhecido) θ, a função de verosimilhança de θ relativa à amostra (x1 , . . . , xn ), denotada por L(θ|x1 , . . . , xn ), é a função de θ que é numericamente idêntica à distribuição de probabilidade amostral avaliada em x1 , . . . , xn , i.e., L(θ|x1 , . . . , xn ) ≡ f (x1 , . . . , xn |θ) =

n Y i=1

fX (xi |θ).

O método de máxima verosimilhança consiste em maximizar a função de verosimilhança para obter o valor mais verosímil de θ, denominado estimativa de máxima verosimilhança de θ. Ao determinar o valor que maximiza θ, usa-se frequentemente o facto de que L(θ|x1 , . . . , xn ) e log L(θ|x1 , . . . , xn ) têm o seu máximo no mesmo valor de θ. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 111/207

Exemplo 6.5: Seja X1 , . . . , Xn uma a.a. de uma população X ∼ Poisson(λ). Qual o estimador de máxima verosimilhança de λ? A função de verosimilhança de λ, dado x1 , . . . , xn , é L(λ|x1 , . . . , xn ) =

n Y e−λ λxi i=1

Seja Lλ ≡ log L(λ|x1 , . . . , xn ) = −n λ + log λ •

dLλ dλ

Pn

⇒ λ= = −n + λ i=1 xi = 0 Pn 2 • d L2λ = −λ−2 i=1 xi < 0, ∀λ. dλ −1

.

xi !

n X i=1

Pn

n Y xi − log xi !.

i=1

i=1

xi

n

= x¯

∴ x¯ é a estimativa de máxima verosimilhança de λ e o estimador de ˆ=X ¯ = 1 Pn Xi . máxima verosimilhança (e.m.v.) de λ é λ i=1 n

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 112/207

Teorema 6.1: Se θˆ é o estimador de máxima verosimilhança de um ˆ é o estimador de máxima verosimilhança de parâmetro θ, então g(θ) g(θ) (propriedade de invariância). Exemplo 6.6: Seja X1 , . . . , Xn uma a.a. de X ∼ Uniforme(0, θ]. Qual o estimador de máxima verosimilhança de log θ? A função de verosimilhança de θ, dado x1 , . . . , xn , é L(θ|x1 , . . . , xn ) = =

n Y

1 θ

I(0,θ] (xi )

i=1 1 I (θ) θn [x(n) ,∞)

L(θ) 6 1 x(n)

- θ & x(n)

⇒ X(n) = max(X1 , . . . , Xn ) é o e.m.v. de θ e, pela propriedade de invariância dos estimadores de máxima verosimilhança, log X(n) é o e.m.v. de log θ. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 113/207

Momentos da média amostral e da variância amostral. Exemplo 6.7: Suponha uma população (conhecida) X = {2, 4, 6} da qual se retira (com reposição) uma amostra aleatória de tamanho 2. Qual o valor esperado da média amostral? E da variância amostral? Se os elementos da população X são equiprováveis, P 1 • E(X) = x xfX (x) = 3 (2 + 4 + 6) = 4. P 2 1 • E(X 2 ) = x x fX (x) = 3 (4 + 16 + 36) = 56/3

⇒ V ar(X) = E(X 2 ) − (E(X))2 = 56/3 − 16 = 8/3.

Seja Xi é o resultado da extracção i, i = 1, . . . , n (n = 2). Recorde-se que a média amostral e a variância amostral são, respectivamente, ¯ 2. ¯ = n−1 Pn Xi e S 2 = (n−1)−1 Pn (Xi − X) X i=1 i=1

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 114/207

A distribuição de probabilidade conjunta de (X1 , X2 ) é dada por X1 \X2 2 4 6

2 1/9 1/9 1/9

4 1/9 1/9 1/9

6 1/9 1/9 1/9

¯ = (X1 + X2 )/2 é A distribuição amostral da estatística X ¯ 2 3 4 5 6 X ¯ = x¯) 1/9 2/9 3/9 2/9 1/9 P (X ¯ = E(X)

X u

¯ = u) = 2 1 + · · · + 6 1 = 36 = 4 u P (X 9 9 9

¯ = E(X). ⇒ E(X)

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 115/207

¯ 2) = • E(X

¯ = u) = 4 1 + · · · + 36 1 = 156 u2 P (X 9 9 9 ¯ 2 ) = E(X ¯ 2 ) − (E(X) ¯ 2 = 156 − 16 = 12 = 4 • V ar(X 9 9 3 P

u

¯ = V ar(X)/n. ⇒ V ar(X) A distribuição amostral da estatística S 2 = S2 0 P (S 2 = s2 ) 3/9 E(S 2 ) =

X v

P2

2 4/9

i=1 (Xi

¯ 2é − X)

8 2/9

3 4 2 24 8 v P (S 2 = v) = 0 + 2 + 8 = = 9 9 9 9 3

⇒ E(S 2 ) = V ar(X). NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 116/207

Distribuições amostrais da média e variância numa população normal. Para melhor avaliar a estimação de um parâmetro θ a partir de uma estatística T = T (X1 , . . . , Xn ), deve-se conhecer a distribuição de T . A distribuição da estatística T , conhecida como distribuição amostral de T , tem em conta todos os valores possíveis da amostra X1 , . . . , Xn . Teorema 6.2: Se X1 , . . . , Xn é uma a.a. de uma população X com E(X) = µ e V ar(X) = σ 2 , então o valor esperado e variância da ¯ são, respectivamente, média amostral X ¯ = n−1 P E(Xi ) = n−1 n µ = µ; • E(X) i P ¯ = n−2 • V ar(X) V ar(Xi ) = n−2 n σ 2 = σ 2 /n. i

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 117/207

Teorema 6.3: Seja X1 , . . . , Xn uma a.a. de uma população X com E(X) = µ e V ar(X) = σ 2 , 0 < σ 2 < ∞. Pelo Teorema do Limite ¯ é aproximada pela distribuição Central, a distribuição amostral de X Normal com média µ e variância σ 2 /n, quando n → ∞. Corolário 6.1: Se X1 , . . . , Xn é uma a.a. de uma população X ∼ N (µ, σ 2 ), 0 < σ 2 < ∞, então ¯ −µ X √ ∼ N (0, 1). Z= σ/ n Exemplo 6.8: Seja X1 , . . . , Xn uma a.a. de X ∼ Bernoulli(p). Qual a ¯ = n−1 Pn Xi ? distribuição aproximada da proporção amostral X i=1 Sabendo que E(X) = p e V ar(X) = p(1 − p), pelo Teorema 6.3   ¯ −p X p(1 − p) a a ¯∼ p . ∼ N (0, 1) ⇒ X N p, n p(1 − p)/n

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 118/207

Definição 6.15: Se X1 , . . . , Xk são v.a. i.i.d. com distribuição N (µ, σ 2 ), Q = X12 + · · · + Xk2 é dito ter uma distribuição Qui-quadrado com k graus de liberdade, denotada por χ2(k) , cuja f.d.p. é dada por   k2 −1 q q 1 −2 e , q > 0, fQ (q) = 2 2 Γ( k2 ) onde Γ(n) =

R∞ 0

xn−1 e−x dx.

O valor esperado e a variância de uma v.a. Q ∼ χ2(k) são, respectivamente: • E(Q) = k; • V ar(Q) = 2 k. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 119/207

0.20

Função Densidade de Probabilidade − Qui−quadrado

0.10 0.00

0.05

f(x)

0.15

k=1 k=5 k=10

0

5

10

15

20

25

30

x

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 120/207

Definição 6.16: Se Z e Q são v.a. independentes com Z ∼ N (0, 1) e Q ∼ χ2(k) , então Z T =p Q/k

é dito ter uma distribuição t-Student com k graus de liberdade, denotada por t(k) , cuja f.d.p. é dada por  k−1  2 2 ) x 1 Γ( k−1 2 √ 1+ fT (t) = , −∞ < t < ∞. k k π Γ( k2 )

O valor esperado e a variância de uma v.a. T ∼ t(k) são, respectivamente: • E(T ) = 0, k > 1. • V ar(T ) = k/(k − 2), k > 2. NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 121/207

0.4

Função Densidade de Probabilidade − t−Student

0.2 0.0

0.1

f(x)

0.3

k=1 k=5 k=100

−4

−2

0

2

4

6

x

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 122/207

Teorema 6.4: Se X1 , . . . , Xn é uma a.a. de uma população X ∼ N (µ, σ 2 ), então 2 n  2 X (X − µ) X − µ i i i=1 ∼ χ2(n) = 2 σ σ i=1

Pn e

Pn

i=1 (Xi − σ2

¯ 2 X)

(n − 1)S 2 = ∼ χ2(n−1) . 2 σ

Teorema 6.5: Se X1 , . . . , Xn é uma a.a. N (µ, σ 2 ), então ¯ − µ)/(σ/√n) (X p = 2 2 (((n − 1)S )/σ )/(n − 1)

de uma população X ∼ ¯ −µ X √ ∼ t(n−1) . S/ n

NOTAS DE PROBABILIDADES E ESTAT´ ISTICA - GS – 123/207

Related Documents

Slidespe Gs Print6
December 2019 3
Slidespe Gs Print9
December 2019 2
Slidespe Gs Print8
December 2019 2
Slidespe Gs Print1&2
December 2019 3
Slidespe Gs Print3
December 2019 4
Slidespe Gs Print4
December 2019 4