Apostila de Métodos Estatísticos
FSA CENTRO UNIVERSITÁRIO FUNDAÇÃO SANTO ANDRÉ
Elenilton Vieira Godoy
SUMÁRIO 1. INFERÊNCIA ESTATÍSTICA COM BASE EM UMA AMOSTRA
04
1.1 Testes de Hipóteses
04
1.2 Conceitos Fundamentais
06
2. TESTES PARAMÉTRICOS
10
2.1 Testes de uma Média Populacional
11
2.2 testes de uma Proporção Populacional
11
2.1.1Teste de uma afirmação sobre uma Média: Grandes Amostras
11
2.1.2 Teste de uma afirmação sobre uma Média: Pequenas Amostras
12
2.2 Teste de uma afirmação sobre uma proporção
13
3. INFERÊNCIAS COM BASE EM DUAS AMOSTRAS
15
3.1 Inferências sobre duas médias
15
3.1.1 Amostras Dependentes (dados emparelhados)
15
3.1.2 Amostras Grandes e Independentes (dados não emparelhados)
17
3.2 INFERÊNCIAS SOBRE DUAS PROPORÇÕES
20
4. TESTES NÃO-PARAMÉTRICOS
22
4.1 definições
22
4.2 Teste de Aderência
23
4.3 Tabelas de Contingência – Teste de Independência
24
5. ANÁLISE DE VARIÂNCIA
26
5.1 Definição
26
5.2 A Distribuição F
26
5.3 ANOVA de Um Critério
26
6. CORRELAÇÃO
31
6.1 Definição
31
6.2 Coeficiente de Correlação Linear
31
6.2.1 Interpretação do Coeficiente de Correlação Linear
32
6.3 Teste de Hipóteses para Correlação Linear
33
7. REGRESSÃO LINEAR
35
7.1 Determinação da Equação da Regressão Linear Simples
36
7.1.2. Método dos Mínimos Quadrados
37
7.1.3 Equações Normais
38
7.2 Erro Padrão da Estimativa
39
7.3 Medidas de Variação na Regressão
40
7.4 Coeficiente de Determinação
41
7.5 Análise de resíduos
41
7.6 Inferências sobre os parâmetros da população na regressão
42
8. ANÁLISE DE VARIÂNCIA NA REGRESSÃO LINEAR
43
8.1 Teste da regressão linear
43
9. NOÇÕES BÁSICAS DE EXPERIMENTAÇÃO
45
9.1Origem agrícola
45
9.2 Repetição
46
9.3 Casualização
46
9.4 O planejamento do experimento
48
10. OS DELINEAMENTOS EXPERIMENTAIS
49
10.1 Experimentos inteiramente ao acaso
49
10.2 Experimentos em bloco ao acaso
49
11. A ANÁLISE DE VARIÂNCIA
50
11.1 Algumas Considerações
51
BIBLIOGRAFIA
53
4 1. INFERÊNCIA ESTATÍSTICA O objetivo da Estatística Indutiva (Inferência Estatística) é tirar conclusões probabilísticas sobre aspectos das populações, com base na observação de amostras extraídas dessas populações, visando à tomada de decisões. Para abordar tais problemas, foi necessário recorrer aos conceitos básicos do Cálculo de Probabilidades e aprender como tratar os conjuntos de dados por meio da Estatística Descritiva. Doravante, os conjuntos de dados disponíveis serão considerados como amostras representativas retiradas das populações de interesse. Essas amostras servirão de base para as inferências que serão feitas acerca das respectivas populações. Os problemas de Estatística Indutiva podem ser divididos em dois grandes grupos: os problemas de estimações e os testes de hipóteses. O nosso interesse é discutir os testes de hipóteses, uma vez que a parte ligada aos problemas de estimação já foi discutida em um outro momento. 1.1 TESTE DE HIPÓTESES O objetivo de um teste de hipóteses é tomar decisões baseadas nas evidências fornecidas pelos dados amostrais. Suponhamos que seja levantada uma hipótese sobre o valor de um parâmetro e que essa hipótese será considerada válida até prova em contrário. O teste de hipótese é um procedimento que nos levará a rejeitar ou não essa hipótese a partir das evidências obtidas nos resultados amostrais. SITUAÇÃO-PROBLEMA: Suponha
que,
numa
linha
de
produção,
um
equipamento
de
empacotamento que abastece caixas de cereal com 368 gramas está ajustado, de modo que, a quantidade de cereal em uma caixa seja normalmente distribuída com uma média aritmética de 368 gramas. A partir de experiências anteriores, o desvio padrão da população para este processo é conhecido como sendo igual a 15 gramas.
5 Questão 1: Se uma amostra de 25 caixas for escolhida aleatoriamente das milhares que são abastecidas por dia e o peso médio for calculado para essa amostra, que tipo de resultado seria de se esperar?Por exemplo, você acha que a média aritmética da amostra seria de 368 gramas? De 200 gramas? De 365 gramas? Questão 2: O gerente de produção está preocupado em avaliar se o processo está funcionando de modo a assegurar que, na média, a quantidade apropriada de cereal (isto é, 368 gramas) está sendo colocada em cada caixa. Ele decide selecionar uma amostra aleatória de 25 caixas, do processo de abastecimento, e examinar seus pesos a fim de determinar quão próximo cada uma delas está da especificação da empresa, fixada numa média de 368 gramas por caixa. O gerente de produção
espera descobrir que o processo está operando de
maneira apropriada. No entanto ele pode descobrir que as caixas da amostra pesam pouco ou talvez muito.; ele pode então decidir suspender o processo de produção, até que o motivo da falha em atender ao peso especificado de 368 gramas seja atendido. Analisando as diferenças entre os pesos obtidos a partir da amostra e a expectativa de 368 gramas obtida a partir das especificações da empresa, pode ser tomada uma decisão, com base nas informações dessa amostra, e pode-se chegar a uma das duas conclusões a seguir: 1. O conteúdo médio, no processo como um todo, é de 368 gramas. Nenhuma ação corretiva é necessária. 2. O conteúdo médio não é igual a 368 gramas; ele é menor ou maior do que 368 gramas. Ações corretivas são necessárias.
6
1.2 CONCEITOS FUNDAMENTAIS A Hipótese Nula e a Hipótese Alternativa O teste de hipóteses se inicia com alguma teoria, demanda ou afirmativa sobre determinado parâmetro de uma população. Para fins de análise estatística, um gerente de produção escolhe, como hipótese inicial, que o processo está sob controle; isto é, a média de conteúdo de cereais é igual a 368 gramas e nenhuma ação corretiva é necessária. A hipótese de que o parâmetro da população seja igual à especificação da empresa é identificada como hipótese nula (H0). Sempre que especificamos uma hipótese nula, também precisamos especificar uma hipótese alternativa, ou uma hipótese que deva ser verdadeira caso a hipótese seja considerada falsa. A hipótese nula (H1) é o oposto da hipótese nula (H0). A hipótese alternativa representa a conclusão à qual se chegaria se houvesse evidência suficiente, a partir de informações da amostra, para decidir que a hipótese nula provavelmente não seria verdadeira, e poderíamos, portanto rejeitá-la. A metodologia de teste de hipóteses é projetada de modo que nossa rejeição à hipótese nula se baseie em evidências a partir da amostra, e que nossa hipótese alternativa seja bem mais provável de ser verdadeira. No entanto, deixar de rejeitar a hipótese nula não é prova de que ela seja verdadeira. Nunca poderemos provar que a hipótese nula está correta, uma vez que estamos baseando nossa decisão somente em informações sobre a amostra, e não sobre a população inteira. Portanto, se deixarmos de rejeitar a hipótese nula, só poderemos concluir que não existem evidências suficientes para garantir a sua rejeição. O Valor Crítico da Estatística do Teste É possível desenvolver a lógica que existe por trás da metodologia observando o modo como podemos determinar, com base somente em informações da amostra, a possibilidade da hipótese nula.
7 Temos em mente que uma estatística de uma amostra é uma estimativa do correspondente parâmetro da população, a partir do qual a amostra foi extraída e irá provavelmente divergir do valor do parâmetro atual em função do acaso ou de erros de amostragem. Desse modo, mesmo que a hipótese nula fosse, de fato, verdadeira, a estatística da amostra não seria necessariamente igual ao correspondente parâmetro da população. Ainda assim, sob tais circunstâncias, esperaríamos que elas fossem bastante parecidas entre si, no que diz respeito a valores. Em tal situação, não haveria qualquer evidência para rejeitar a hipótese nula. A metodologia do teste de hipóteses oferece definições operacionais com o objetivo de avaliar tais diferenças e nos possibilita quantificar nosso processo de tomada de decisão, de modo que a probabilidade de se obter um dado resultado de amostra possa ser encontrada, caso a hipótese nula seja verdadeira. Isto é alcançado, primeiramente, pela determinação da distribuição da amostra para a estatística da amostra (isto é, a média aritmética da amostra) e, em seguida, pelo cálculo da estatística do teste específica, com base em determinado resultado da amostra. Uma vez que a distribuição da amostra para a estatística do teste freqüentemente segue uma distribuição estatística bastante conhecida, como a distribuição normal ou a distribuição t, podemos utilizar essas distribuições para determinar a possibilidade de uma hipótese nula ser verdadeira. Regiões de Rejeição e de Não-Rejeição A distribuição de amostragem da estatística do teste divide-se em duas regiões, uma região de rejeição e uma região de não-rejeição. Se a estatística do teste cair na região de não-rejeição, a hipótese nula não pode ser rejeitada. Pode-se considerar que a região de rejeição consiste em valores da estatística do teste que são improváveis de ocorrer se a hipótese nula for verdadeira. Por outro lado, esses valores não são tão improváveis de ocorrer se a hipótese nula for falsa. Portanto, se observarmos um valor da estatística do teste que caia nessa região crítica, rejeitamos a hipótese nula, uma vez que aquele valor seria improvável caso a hipótese nula fosse verdadeira.
8 Para tomar uma decisão com referência à hipótese nula, devemos primeiramente determinar o valor crítico da estatística do teste. O valor crítico separa a região de não-rejeição da região de rejeição.
No entanto, a
determinação desse valor crítico depende do tamanho da região de rejeição. Riscos na Tomada de Decisão por Meio da Metodologia do Teste de Hipóteses Quando se utiliza uma estatística de amostra para tomar decisões sobre um parâmetro da população, existe um risco de se chegar a uma conclusão incorreta. Na verdade, dois tipos diferentes de erro podem ocorrer quando aplicamos a metodologia do teste de hipóteses: Um erro do tipo I ocorre se a hipótese nula for rejeitada quando de fato é verdadeira e não deve ser rejeitada. Um erro do tipo II ocorre se a hipótese nula não for rejeitada quando de fato é falsa, e deveria ser rejeitada. Nível de Significância A probabilidade de se cometer um erro do tipo I, representado α, é identificada
como
o
nível
de
significância
do
teste
estatístico.
Tradicionalmente, o estatístico controla as taxas do erro tipo I decidindo o nível de risco α que ele está disposto a tolerar, em termos de rejeitar a hipótese nula quando ela é efetivamente verdadeira. Uma vez que o nível de significância é especificado antes de o teste de hipóteses ser realizado, o risco de cometer um erro do tipo I, está diretamente sob controle do indivíduo que está realizando o teste. Coeficiente de Confiança O complemento (1-α) da probabilidade de um erro do tipo I é chamado de coeficiente de confiança, que, ao ser multiplicado por 100%, produz o nível de confiança (intervalo de confiança). O coeficiente de confiança, identificado como 1-α, é a probabilidade de que a hipótese nula não seja rejeitada quando de fato for verdadeira e não deve ser rejeitada.
9 Em termos da metodologia do teste de hipóteses, esse coeficiente representa a probabilidade de se concluir que o determinado valor do parâmetro que está sendo testado para a hipótese nula seja plausível. Risco β a probabilidade de se cometer um erro do tipo II Identificado por β, é freqüentemente referida como o nível de risco do consumidor. Diferentemente do erro do tipo I, que os testes estatísticos nos permitem controlar por meio da nossa seleção de α, a probabilidade de se cometer um erro do tipo II depende da diferença entre o valor da hipótese e os verdadeiros valores dos parâmetros da população. Uma vez que grandes diferenças são mais fáceis de serem encontradas, se a diferença entre a estatística da amostra e o correspondente parâmetro da população for grande, a probabilidade de se cometer um erro do tipo II provavelmente será pequena. Por outro lado, se a diferença entre a estatística e o correspondente valor do parâmetro, for pequena, a probabilidade de se cometer um erro do tipo II será provavelmente grande. Eficácia do Teste O complemento (1-β) da probabilidade de um erro do tipo II é chamado de eficácia de um teste estatístico. A eficácia de um teste estatístico, identificado como 1-β, é a probabilidade de se rejeitar a hipótese nula quando ela é de fato falsa e deveria ser rejeitada. Teste de hipóteses e tomada de decisão Situação Efetiva Decisão Estatística
H0 Verdadeiro
H0 Falso
Não rejeitar H0
Confiança (1-α)
Erro do tipo II (β)
Rejeitar H0
Erro do tipo I (α)
Eficácia (1-β)
10 2. TESTES PARAMÉTRICOS Os
testes
paramétricos
envolvem
avaliações
de
parâmetros
populacionais e alegações relativas a amostras independentes de terem sido extraídas de uma ou mais populações. Subdividem-se em unilaterais e bilaterais. Os unilaterais (ou unicaudais) 1 testam as varáveis em relação a um piso ou a um teto e avaliam os valores máximos e mínimos esperados para os parâmetros em estudo e a chance de as estatísticas amostrais serem inferiores ou superiores a dado limite. A unilateralidade pode ser à esquerda ou à direita. A unilateralidade à esquerda, definida por relação do tipo < (menor que), mede a chance de a variável ser inferior a dado limite. Suas hipóteses nula e alternativa são: H0 : parâmetro ≥ r H1 : parâmetro < r
O teste à esquerda é especialmente útil à fiscalização e controle de qualidade de itens com parâmetros mínimos. A unilateralidade à direita, definida por relação do tipo > (maior que), quantifica a chance de a variável ser superior ao limite fixado. Suas hipóteses nula e alternativa são: H0 : parâmetro ≤ r H1 : parâmetro > r
O teste à direita é particularmente útil aos fabricantes interessados em minimizar a chance de entregar aos consumidores mais do que prometem nas embalagens e em maximizar o valor de suas promessas. Os testes bilaterais (ou bicaudais), definidos por relação do tipo ≠, quantificam a chance de as variáveis estarem inseridas em intervalos particulares. Suas hipóteses são: H0 : parâmetro = r H1 : parâmetro ≠ r 1
Observação: As caudas em uma distribuição são as regiões extremas delimitadas por valores críticos.
11
O teste bilateral é muito usado em teste de qualidade de peças que devem encaixar-se, como porcas e parafusos, nas quais as folgas muito estreitas ou muito largas inviabilizam sua junção ou fixação. Ele pode ser entendido como um duplo teste unilateral, decorrendo daí que, fixados α e n, a correspondente probabilidade unilateral é dada por 12 α = α 2 . Como isso torna o teste menos preciso que o unilateral, tende-se a aplicá-lo somente a situações específicas e as caos em que não se tem informação clara sobre o sentido da diferença. Por não apontar se o parâmetro pe maior ou menor que r, é um teste mais fraco que o unilateral.
Unilateral à esquerda
Bilateral
Unilateral à direita
2.1 TESTES DE UMA MÉDIA POPULACIONAL Vamos agora generalizar as idéias expostas no item anterior, aplicandoas aos casos que podem ocorrer ao se testarem hipóteses sobre a média de uma população. Todos os testes de médias que serão estudados aqui pressupõem a normalidade da distribuição amostral da variável de teste. Como sabemos da distribuição amostral das médias, essa suposição será rigorosamente válida se a distribuição da população for normal e a amostragem aleatória, e será válida, em geral, como boa aproximação, se a amostra for suficientemente grande. 2.1.1Teste de uma afirmação sobre uma Média: Grandes Amostras Inicialmente identificaremos as duas hipóteses que se aplicam aos métodos aqui apresentados. Hipóteses para o teste de uma afirmação sobre a média de uma (única) população
12 1. A amostra é grande (n > 30); pode-se aplicar o teorema central do limite e utilizar a distribuição normal. 2. Ao aplicar o teorema central do limite, podemos utilizar o desvio-padrão amostral s em substituição ao desvio-padrão populacional σ quando este for desconhecido e o tamanho da amostra for grande (n > 30). O teste de uma afirmação sobre µ quando n > 30 utiliza a seguinte estatística de teste: z=
x−µ σ n
2.1.2 Teste de uma afirmação sobre uma Média: Pequenas Amostras As grandes amostras permitem o uso da distribuição normal. Para esses casos, de grandes amostras, podemos aplicar o teorema central do limite para concluir
que
as
médias
amostrais
se
distribuem
normalmente,
independentemente da distribuição da população original. Todavia, não podemos utilizar o teorema central do limite quando as amostras são pequenas. Desse modo, as seguintes observações podem ser consideras na tomada de decisão quanto à escolha da distribuição normal e t de Student. 1. De acordo com o teorema central do limite, se obtemos amostras grandes (n > 30) (de qualquer população com qualquer distribuição), a distribuição das médias amostrais pode ser aproximada por uma distribuição normal. 2. Quando extraímos amostras (de qualquer tamanho) de uma população com distribuição normal, a distribuição das médias amostrais será aproximadamente normal com média µ e desvio-padrão σ
n
. Em um
teste de hipóteses, o valor de µ corresponde à hipótese nula, e o valor do desvio-padrão populacional σ deve ser conhecido. Se σ for desconhecido e as amostras são grandes, podemos usar o desvio-
13 padrão amostral s como substituto de σ, porque grandes amostras aleatórias tendem a representar a população. 3. As condições para utilizar a distribuição t de Student são as seguintes: a. A amostra é pequena ( (n ≤ 30 ) ;e b. σ é desconhecido; e c. A população original tem distribuição essencialmente normal. 4. Se as amostras são pequenas, σ é desconhecido e a distribuição da população é sensivelmente não-normal, não podemos utilizar os testes parametrizados; devemos recorrer aos testes não parametrizados. O teste de uma afirmação sobre µ quando n ≤ 30 e σ é desconhecido utiliza a seguinte estatística de teste: t=
x−µ , com n − 1 graus de liberdade s n
2.2 TESTE DE UMA AFIRMAÇÃO SOBRE UMA PROPORÇÃO Após trabalharmos com os testes de hipóteses para a média populacional, tanto para o caso em que a variância era conhecida quanto para o caso em que a variância era desconhecida, iremos apresentar os testes para a proporção populacional p. Suponha que temos interesse em verificar hipóteses a respeito do valor de uma proporção populacional p, ou seja, temos interesse em verificar hipóteses do tipo:
H 0 : p = p 0 H 1 : p ≠ p 0
H0 : p ≥ p 0 H1 : p < p 0
H0 : p ≤ p 0 H1 : p > p 0
onde p 0 é um valor de interesse. O estimador p’ tem distribuição aproximada de uma normal com média p e variância
p(1 − p ) quando o tamanho da amostra n é suficientemente grande. n
Logo, se vale a hipótese
H 0 : p = p 0 , podemos calcular a estatística:
14
z=
p'−p 0 p 0 (1 − p 0 ) n
e, do mesmo modo como foi feito nos casos anteriores,
calculamos a probabilidade P associada a esse valor z e concluímos. NOTAÇÃO: n = número de provas p0 = proporção populacional (usada na hipótese nula) q=1–p
f p' = i n
Hipóteses usadas ao testar uma afirmação sobre uma proporção populacional 1. São verificadas as condições para um experimento binomial. Isto é, temos um número fixo de provas independentes com probabilidade constante, e cada prova comporta dois resultados, que designamos “sucesso” e “falha”. 2. As condições np ≥ 5 e nq ≥ 5 são ambas verificadas, de modo que, a distribuição binomial das proporções amostrais pode ser aproximada por uma distribuição normal com µ = np e σ = npq .
Se essas hipóteses não forem todas satisfeitas, eventualmente poderemos utilizar outros métodos.
15 3. INFERÊNCIAS COM BASE EM DUAS AMOSTRAS 3.1 INFERÊNCIAS SOBRE DUAS MÉDIAS 3.1.1 Amostras Dependentes (dados emparelhados) Duas amostras são independentes se a amostra extraída de uma das populações não tem qualquer relação com a amostra extraída da outra população. Se uma das amostras tem alguma relação com a outra, as amostras dizem-se dependentes. Tais amostras costumam ser chamadas amostras emparelhadas. Consideremos os dados amostrais emparelhados apresentados a seguir. A amostra dos pesos antes do treinamento e a amostra dos pesos após o treinamento são amostras dependentes, porque cada par é formado de acordo com a pessoa envolvida. Os dados do tipo “antes/depois” são, em geral, emparelhados e dependentes. Indivíduo
A
B
C
D
E
F
Peso antes do treinamento (kg)
99
62
74
59
70
73
Peso depois do treinamento (kg)
94
62
66
58
70
76
as
duas
Para
os
dados
a
seguir,
entretanto,
amostras
são
independentes, porque a amostra de mulheres não tem qualquer relação com a amostra de homens. Os dados não são emparelhados, como no caso anterior. Peso de mulheres (lb)
115
107
110
128
130
Peso dos homens (lb)
128
150
160
140
163
155
175
Suposições 1. Duas amostras dependentes devem ser escolhidas aleatoriamente de duas populações; 2. Ambas as populações devem ter distribuição normal.
16 Ao trabalharmos com duas amostras dependentes, baseamos nossos cálculos na diferença (d) entre os pares de dados, conforme ilustrado na tabela a seguir. x
10 8 5
20
y
7
2 9
20
d = (x − y )
3
6 -4 0
Notação para duas amostras dependentes µ d = média das diferenças d para a população de dados emparelhados d = valor médio das diferenças d para os dados amostrais emparelhados s d =desvio-padrão das diferenças d para os dados amostrais emparelhados n = número de pares de dados
Testes de Hipóteses Utilizaremos a notação precedente para descrever a estatística de teste a ser usada nos testes de hipóteses para afirmações sobre médias de duas populações, no caso de as amostra serem dependentes. Quando selecionamos aleatoriamente duas amostras dependentes de populações distribuídas normalmente, em que a média populacional das diferenças emparelhadas é µ d , a estatística seguinte tem distribuição t de Student. Estatística de teste para duas amostras dependentes t=
d − µd , com n –1 graus de liberdade sd n
Se o número de pares de dados for grande (n > 30), o número de graus de liberdade será no mínimo 30, de forma que os valores críticos serão escores z em lugar de valores t. Exemplo 1: Utilizando um cronômetro de reação, os indivíduos são submetidos a teste de reação com suas mãos esquerdas e suas mãos direitas. (Utilizaramse somente indivíduos destros). Os resultados (em milésimos de segundo)
17 constam da tabela a seguir. No nível de 5% de significância, teste a afirmação de que há uma diferença entre a média dos tempos de reação da mão direita e da mão esquerda. Se um engenheiro está projetando uma cabine de jato de combate e deve colocar o ativado r de ejeção do assento de modo a ser acessível tanto à mão direita como à mão esquerda, faz alguma diferença qual mão ele escolhe? Pessoa
A
B
Direita
191 97
C
D
E
F
G
H
I
J
K
L
M
N
116 165 116 129 171 155 112 102 188 158 121 133
Esquerda 224 171 191 207 196 165 177 165 140 188 155 219 177 174
Exemplo 2: Realizou-se um estudo para investigar alguns efeitos do treinamento físico. Os dados amostrais estão relacionados a seguir. No nível de 5% de significância, teste a afirmação de que o peso médio antes do treinamento é igual ao peso médio após o treinamento. Todos os pesos são dados em quilogramas. Que se pode concluir quanto ao efeito do treinamento sobre o peso? Antes do treinamento
99 57 62 69 74 77 59 92 70 85
Depois do treinamento 94 57 62 69 66 76 58 88 70 84
3.1.2 Amostras Grandes e Independentes (dados não emparelhados) Duas amostras são independentes se a amostra extraída de uma das populações não tem qualquer relação com a amostra extraída da outra população. Suposições: Fazemos as seguintes considerações para os testes de hipóteses 1. As duas amostras são independentes 2. Os tamanhos das duas amostras são grandes: n1 > 30 e n2 > 30 .
18 Testes de Hipóteses Uma conclusão do teorema central do limite é que as médias amostrais tendem a distribuir-se normalmente. As diferenças entre médias amostrais
(x1 − x2 ) também tendem a distribuir-se normalmente. Com estas propriedades e as suposições feitas anteriormente, obtemos a seguinte estatística a ser utilizada em testes de hipóteses formuladas sobre as médias de duas populações.
(estatística amostral) − (parâmetro populacional afirmado) (desvio - padrão da estatística amostral) Estatística de Teste para Duas Médias: Amostras Independentes e Grandes Estatística de Teste: Variâncias Populacionais Conhecidas z=
(x1 − x2 ) − (µ1 − µ 2 ) σ12 σ 2 2 + n1 n2
Se não conhecemos os valores de σ 1 e σ 2 , podemos substituí-los por s1 e s2 , desde que ambas as amostras sejam grandes. Se σ 1 e σ 2 são
conhecidos utilizamos seus valores para o cálculo da estatística de teste, mas os casos reais em geral exigem o uso de s1 e s2 . É raro conhecermos os valores de desvios-padrão populacionais se não conhecemos as médias populacionais. Estatística de Teste para Duas Médias: Amostras Independentes e Pequenas Os métodos de inferência estatística para situações que envolvem as médias de duas populações independentes, mas onde pelo menos uma das amostras é pequena (n ≤ 30 ) levam em consideração as seguintes suposições. Suposições: No teste de hipóteses sobre as médias de duas populações, os métodos em questão aplicam-se aos casos em que:
19 1. As duas amostras são independentes. 2. As duas amostras são extraídas aleatoriamente de populações distribuídas normalmente. 3. Ao menos uma das duas amostras é pequena (n ≤ 30 ) . Quando estas condições são satisfeitas, lançamos mão de um dos três processos diferentes correspondentes aos seguintes casos: Caso 1: Os valores de ambas as variâncias populacionais são conhecidos. (Na realidade, este caso raramente ocorre.) Caso 2: As duas populações parecem ter variâncias iguais. (Isto é, com base em um teste da hipótese σ12 = σ22, não rejeitamos a igualdade das duas variâncias populacionais.) Caso 3: As duas populações parecem ter variâncias diferentes. (Isto é, com base em um teste da hipótese σ12 = σ22, rejeitamos a igualdade das duas variâncias populacionais.) Caso 1: Ambas as Variâncias Populacionais são conhecidas Estatística de Teste: Variâncias Populacionais Conhecidas
z=
(x1 − x2 ) − (µ1 − µ 2 ) σ12 σ 2 2 + n1 n2
Caso 2: As duas populações parecem ter variâncias iguais (Porque não rejeitamos σ12 = σ22 ) Estatística de Teste (Amostras Pequenas Independentes e Variâncias Iguais)
t=
(x1 − x2 ) − (µ1 − µ 2 ) s p2 n1
+
s p2
onde
n2
e o grau de liberdade é φ = n1 + n 2 − 2.
2
sp =
(n 1 − 1)s12 + (n 2 − 1)s 2 2 (n 1 − 1) + (n 2 − 1)
20
Caso 3: As duas populações parecem ter variâncias desiguais (Porque rejeitamos σ12 = σ22 ) Estatística de Teste (Amostras Pequenas Independentes e Variâncias Desiguais) t=
(x1 − x 2 ) − (µ1 − µ2 ) , onde o grau de liberdade é o menor dos dois n s12 n1
2
s + 2 n2
1 −1
e n2 − 1
3.2 INFERÊNCIAS SOBRE DUAS PROPORÇÕES Ao testar uma hipótese sobre duas proporções populacionais fazemos as seguintes suposições e adotamos a seguinte notação. Suposições: 1. Temos dois conjuntos independentes de dados amostrais selecionados aleatoriamente. 2. Em ambas as amostras verificam-se as condições np ≥ 5 e nq ≥ 5.
Notação: Para a população 1, seja: p1 = proporção populacional n1 = tamanho da amostra x1 = número de sucessos na amostra x pˆ1 = p'1 = 1 (proporção amostral) n1
qˆ1 = q'1 = 1 − pˆ1
Atribuem-se significados análogos a p 2 , n 2 , x 2 , p' 2 e q' 2 correspondentes à população 2.
21 Testes de Hipóteses O objetivo é comparar as proporções p1 e p 2 de duas populações a partir de dados obtidos com amostras dessas populações de tamanhos n1 e n 2 . As hipóteses de interesse são: H0 : p1 = p 2 H1 : p1 ≠ p 2
H0 : p1 ≥ p 2 H1 : p1 < p 2
H0 : p1 ≤ p 2 H1 : p1 > p 2
Obtendo-se as duas estimativas p'1 e p' 2 das proporções populacionais p1 e p 2 sabemos que, para amostras suficientemente grandes, a distribuição de
é
(p'1 - p' 2 )
aproximadamente
normal
com
µ = p1 − p 2 e
p (1 − p1 ) p 2 (1 − p 2 ) . σ2 = 1 + n1 n2
Então, se vale H0 : p1 − p 2 = θ , onde θ é o valor de interesse (quase sempre igual à zero), a estatística do teste será: z =
p'1 −p' 2 −θ p'1 (1 − p'1 ) p' 2 (1 − p' 2 ) + n1 n2
e
as conclusões são análogas aos casos anteriores. Observação: Como na maioria dos casos a hipótese de interesse é verificar se p1 e p 2
são
iguais,
ou
seja,
θ=0
e
H 0 : p1 − p 2 = θ ,
temos
que
p'1 e p' 2 estimam um mesmo valor e, portanto, podemos calcular uma média
ponderada dessas duas estimativas: n p' +n p' p' = 1 1 2 2 n1 + n 2
e a estatística z fica z =
p'1 −p' 2 1 1 p' (1 − p') + n1 n 2
.
Exemplo: Uma amostra de 370 azulejos tirados da produção de um dado dia acusou 19 azulejos com defeito. Numa amostra de 165 azulejos da produção do dia seguinte havia 15 azulejos com defeito. Há razões estatísticas válidas para se afirmar que nesse segundo dia a produção tenha piorado? (Use α = 5% ).
22 4. TESTES NÃO-PARAMÉTRICOS A maioria dos métodos de inferência estatística pode ser designada como métodos paramétricos, porque se baseiam em amostragem de uma população com parâmetros específicos, tais como a média µ , o desviopadrão σ ou a proporção p . Esses métodos paramétricos usualmente devem enquadrar-se em condições um tanto quanto restritas, como a exigência de que os dados amostrais provenham de uma população distribuída normalmente. 4.1 DEFINIÇÕES Os testes paramétricos exigem suposições sobre a natureza ou forma da população envolvida; os métodos não-paramétricos não dependem de tais exigências. Por isso, os testes de hipóteses não-paramétricos costumam chamar-se testes livres de distribuição. Embora o termo não-paramétrico sugira que o teste não se baseia em um parâmetro, há alguns testes não-paramétricos que dependem efetivamente de um parâmetro, como a mediana, mas não exigem uma distribuição específica. Embora livre de distribuição seja uma descrição mais precisa, a expressão não-paramétrico é mais usada. Vantagens dos Métodos Não-paramétricos 1. Os métodos não-paramétricos podem ser aplicados a uma ampla diversidade de situações, porque não dependem das exigências mais rígidas próprias de seus correspondentes paramétricos. Em particular, os métodos não-paramétricos não exigem populações distribuídas normalmente. 2. Ao contrário dos métodos paramétricos, os métodos não-paramétricos podem freqüentemente ser aplicados a dados não-numéricos, como sexo dos entrevistados. 3. Os métodos não-paramétricos em geral envolvem cálculos mais simples do que seus correspondentes paramétricos, sendo assim, mais fáceis de entender. Desvantagens dos Métodos Não-paramétricos
23 1. Os métodos não-paramétricos tendem a perder informação, porque os dados numéricos exatos são freqüentemente reduzidos a uma forma qualitativa. 2. Os testes não-paramétricos não são tão eficientes quanto os testes paramétricos; assim, com um teste não-paramétrico, em geral necessitamos de evidência mais forte (como uma amostra maior ou maiores diferenças) para então rejeitarmos uma hipótese nula. Quando são satisfeitas as exigências de distribuições populacionais, os testes não-paramétricos são em geral menos eficientes do que seus correspondentes paramétricos, mas a redução na eficiência pode ser compensada por um aumento do tamanho da amostra. 4.2 TESTE DE ADERÊNCIA Uma importante classe de teste não-paramétrico é constituída pelos chamados testes de aderência, em que a hipótese testada refere-se à forma da distribuição da população. Nesses testes, admitimos, por hipótese, que a distribuição da variável de interesse na população seja descrita por determinado modelo de distribuição de probabilidade e testamos esse modelo, ou seja, verificamos a boa ou má aderência dos dados da amostra ao modelo. Se obtivermos uma boa aderência e a amostra for razoavelmente grande, poderemos, em princípio, admitir que o modelo forneça uma boa idealização da distribuição populacional. Inversamente, a rejeição da hipótese nula em um dado nível de significância indica que o modelo testado é inadequado para representar a distribuição da população. Nos testes de aderência utilizamos a seguinte notação: Notação: O: representa a freqüência observada de um resultado E: representa a freqüência esperada de um resultado K: representa o número de categorias, ou resultados, diferentes. n: representa o número total de provas
24 Em uma situação típica que exige um teste de aderência, temos freqüências observadas (denotadas por O) e devemos utilizar a distribuição teórica requerida para determinar as freqüências esperadas (denotadas por E). Em muitos casos podemos achar uma freqüência esperada multiplicando a probabilidade p de uma categoria pelo número n de provas diferentes: E = np Suposições: Valem as seguintes suposições ao testarmos a proporção populacional alegada para cada uma de k categorias (em um experimento multinomial). 1. Os dados constituem uma amostra aleatória. 2. Os dados amostrais consistem em contagens de freqüências para as k categorias diferentes. 3. Para cada uma das k categorias, a freqüência esperada é, no mínimo, 5. (Não há qualquer exigência de que cada freqüência observada seja no mínimo igual a 5.) O teste de aderência em experimentos binomiais utiliza a seguinte estatística de teste: χ2 = ∑
(O − E)2 E
Os testes de hipótese de aderência são sempre unilaterais à direita. 4.3 TABELAS DE CONTINGÊNCIA – TESTE DE INDEPENDÊNCIA Quando existem duas ou mais variáveis qualitativas de interesse, a representação tabular das freqüências observadas pode ser feita por meio de uma tabela de contingência. No caso de duas variáveis apenas, essa representação torna-se muito cômoda, mediante uma simples tabela de duas entradas. Com a tabela de contingência, conseguimos uma maneira conveniente de fazer a descrição dos dados da amostra quando temos duas ou mais variáveis qualitativas a considerar. Um teste de independência testa a hipótese nula de que a variável linha e a variável coluna em uma tabela de contingência não estão relacionadas, isto é, são independentes.
25 É de suma importância reconhecer que, neste contexto, a palavra contingência se refere a dependência, mas trata-se apenas de uma dependência estatística, e não pode ser usada para estabelecer uma ligação direta de causa e efeito entre as duas variáveis em questão. Suposições: Ao testarmos a hipótese nula de independência entre as variáveis linha e coluna em uma tabela de contingência, aplicam-se as seguintes suposições. (Note que estas suposições não exigem que a população original tenha distribuição normal nem qualquer outro tipo de distribuição.) 1. Os dados amostrais são selecionados aleatoriamente. 2. A hipótese nula é a afirmação de que as variáveis linha e coluna são independentes; a hipótese alternativa afirma que as variáveis linha e coluna são dependentes. 3. Para cada célula na tabela de contingência, a freqüência esperada E é no mínimo 5. (Não há tal exigência para as freqüências observadas.) O teste de independência entre as variáveis linha e coluna utiliza a seguinte estatística de teste: χ2 = ∑
(O − E )2 E
A freqüência esperada E de cada célula da tabela de freqüências pode ser calculada com auxílio da equação abaixo:
E=
(total de linhas )(total de colunas ) (total geral)
Os testes de independência com tabelas de contingência envolvem apenas regiões críticas unilaterais à direita. A estatística de teste permite-nos medir o grau de discordância entre as freqüências efetivamente observadas e as freqüências que deveríamos esperar teoricamente no caso de as variáveis serem independentes.
26 5. ANÁLISE DE VARIÂNCIA 5.1 Definição A análise de variância (ANOVA) é um método para testar a igualdade de três ou mais médias populacionais, baseado na análise de variâncias amostrais. 5.2 A Distribuição F Os métodos de ANOVA utilizam a distribuição F. A distribuição F apresenta as seguintes propriedades importantes: 1. A distribuição F não é simétrica; é assimétrica à direita. 2. Os valores de F podem ser 0 ou positivos, mas nunca negativos. 3. Há uma distribuição F diferente para cada par grau de liberdade (do numerador e do denominador). Os valores críticos de F podem ser encontrados numa tabela. A análise de variância (ANOVA) se baseia na comparação de duas estimativas diferentes da variância comum às diferentes populações, ou seja, as estimativas da variância entre amostras e a variância dentro das amostras. Utiliza-se a expressão um critério porque os dados amostrais são separados em grupos segundo uma característica, ou fator. 5.3 ANOVA de Um Critério À vista da complexidade dos cálculos em jogo, recomendamos a seguinte abordagem a esta seção: 1. Desenvolver uma perfeita compreensão de como interpretar o painel de um computador que relacione resultados da análise de variância. 2. Procurar entender a lógica do processo, focalizando cálculos que se apliquem a um exemplo em que as amostras tenham todas o mesmo número de valores.
27 3. Compreender a natureza SQ (soma de quadrados) e do QM (quadrado médio), e seu papel na determinação da estatística de teste F, mas recorrer a programas estatísticos para achar esses valores. Suposições Valem as seguintes suposições quando testamos a hipótese de que três ou mais amostras provêm de populações com a mesma média: 1. As populações têm distribuições normais. 2. As populações têm a mesma variância σ 2 (ou o mesmo desviopadrão σ ). 3. As amostras são aleatórias e mutuamente independentes. 4. As diferentes amostras provêm de populações classificadas em apenas uma categoria. O método que utilizamos é chamado análise da variância de um critério (ou critério único) porque lançamos mão de uma única característica, ou critério, para categorizar as populações. Esta característica costuma chamar-se tratamento, ou fator. Definição Um tratamento (ou fator) é uma característica que nos permite distinguir diferentes populações uma das outras. Usa-se o termo tratamento porque as primeiras aplicações da análise de variância se referiam a experimentos agrícolas em que diferentes lotes de terra eram tratados com diferentes fertilizantes, tipos de semente, inseticidas etc. Fundamentos Lógicos O método da análise de variância se baseia neste conceito fundamental: Com a suposição de que as populações tenham todas a mesma variância σ 2 , estimamos seu valor comum utilizando duas abordagens diferentes. A estatística de teste F é a razão dessas duas estimativas, de modo que um valor de F significativamente grande (localizado muito à direita do gráfico da
28 distribuição F) constitui evidência contra a igualdade das médias populacionais. As duas abordagens para estimar o valor comum de σ 2 são: 1. A variância entre amostras (também chamada variação devida ao tratamento) é uma estimativa da variância populacional comum σ 2 que se baseia na variabilidade entre as médias amostrais. 2. A variância dentro das amostras (também chamada variação devida ao erro) é uma estimativa da variância populacional comum σ 2 baseada nas variâncias amostrais. Estatística de Testes para ANOVA de Um Critério F=
variância entre amostras variância dentro das amostras
O numerador mede a variação entre as médias amostrais. A estimativa da variância no denominador depende somente das variâncias amostrais e não é afetada pelas diferenças entre as médias amostrais. Conseqüentemente, as médias amostrais que apresentam valores próximos uns dos outros resultam em uma estatística de teste F próxima de 1, e concluímos que não há diferença significativa entre as médias amostrais. Mas se o valor de F é excessivamente grande, rejeitamos a afirmação de igualdade de médias. (As expressões vagas “próximo de 1” e “excessivamente grande” tornam-se objetivas com a adoção de um valor crítico específico, que estabelece claramente a diferença entre uma estatística de teste F que está na região crítica e uma que não está). Como os valores excessivamente grandes de F refletem médias desiguais, o teste é unilateral à direita. Para testar a significância de diferenças entre duas médias amostrais, supunha-se que as duas populações – das quais se extraíram as amostras – tivessem a mesma variância.
Em muitas situações, é preciso testar a
significância de diferenças entre três ou mais médias amostrais, ou, equivalentemente, testar a hipótese de nulidade, de que as médias amostrais são todas iguais, ou seja,
29
H 0 : µ1 = µ 2 = µ 3 = ... = µ k H 1 : existe pelo menos uma média diferente das demais O teste para esse caso é conhecido com análise de variância (ANOVA). Colhendo uma amostra de tamanho n i de cada população i , obtemos as médias amostrais x i para i = 1,2,3,..., k Temos ainda a média geral de todas as k amostras indicada por x e o k
número total de observações n = ∑ n i . i =1
Mesmo que H 0 seja verdadeira, as estimativas x i não serão todas iguais. Vai existir sempre uma variabilidade entre as médias amostrais. O objetivo da Análise de Variância é verificar quão grande é a essa variabilidade em relação à variabilidade que se observa dentro de cada amostra. Com isso, o teste de igualdade de várias médias na verdade compara a dispersão (variância) entre as médias amostrais e a dispersão (variância) que existe dentro de cada amostra. Na montagem da análise de variância vamos, então, trabalhar com idéia de que a variação total dos dados vem de duas fontes: variação entre as amostras e variação dentro das amostras. Variação total (soma de quadrados total): É dada pela soma
k
2
n
k
n
SQT = ∑∑ (x ij − x ) = ∑∑ x 2 ij i =1 j=1
i =1 j=1
k n ∑∑ x ij i =1 j=1 − n
2
Variação entre as amostras (soma de quadrados entre amostras): É dada pela soma 2
k
SQE = ∑ n i (x i − x ) i =1
2
ni k ni ∑ x ij ∑∑ x ij k j=1 − i =1 j=1 = ∑ ni n i =1
2
30 Variação dentro das amostras (soma de quadrados residual): É dada pela soma
k
ni
SQR = ∑∑ x 2 ij i =1 j=1
ni ∑ x ij k j=1 −∑ n i =1 i
2
Verifica-se que SQT = SQE + SQR . Podemos, então, montar a chamada tabela de análise de variância (ANOVA) Fonte
de Graus
de Soma
de Quadrados
Estatística de Teste F
Variação
liberdade
quadrados
médios
(FV)
GL
SQ
QM
Entre amostras
k −1
SQE
Residual
n−k
SQR
Total
n −1
SQT
Fcal =
QME = QMR =
SQE k −1 SQR n−k
Fcal =
QME QMR
QME é uma distribuição F-Snedecor com (k-1) graus de liberdade QMR
no numerador e (n-k) graus de liberdade no denominador. Se vale
H 0 : µ1 = µ 2 = µ 3 = ... = µ k
31 6. CORRELAÇÃO O nosso objetivo é determinar se há algum relacionamento entre duas variáveis. Em estatística, tal relacionamento é chamado correlação. 6.1 Definição Existe uma correlação entre duas variáveis quando uma delas está, de alguma forma, relacionada com a outra. A importância da determinação de uma correlação entre duas variáveis decorre do fato de que a presença de tal correlação pode conduzir-nos a um método para estimar uma grandeza em função da outra. Quando trabalhamos com dados amostrais e estabelecemos métodos para formular inferências sobre populações, fazemos as seguintes suposições: Suposições 1. A amostra de dados emparelhados (x, y ) é aleatória. 2. Os pares de dados (x, y ) têm uma distribuição normal bivariada (ou seja, para cada valor fixo de x, os valores correspondentes de y têm distribuição normal, e que, para cada valor fixo de y, os valores de x também têm uma distribuição em forma de sino). Quanto à segunda suposição, em geral é difícil verificá-la; mas pode-se fazer uma verificação parcial determinando-se se os valores tanto de x como de y têm distribuições basicamente e, forma de sino. 6.2 Coeficiente de Correlação Linear O Coeficiente de correlação linear r mede o grau de relacionamento linear entre os valores emparelhados x e y em uma amostra. Calcula-se seu valor com auxílio da fórmula: rxy =
[n∑ X
n∑ X i Yi − (∑ X i )(∑ Yi ) i
2
][
− (∑ X i )2 n∑ Yi 2 − (∑ Yi )2
]
32 Como r é calculado com base em dados amostrais, é uma estatística amostral usada para medir o grau de correlação linear entre x e y. Se tivéssemos todos os pares de valores (x, y ) para a população, a fórmula acima seria um parâmetro populacional, representado pela letra grega ρ (rô).
6.2.1 Interpretação do Coeficiente de Correlação Linear O coeficiente de correlação é um número puro: não vem acompanhado de unidade de medida. O coeficiente de correlação (r) varia de –1 a +1, isto significa que não existe r menor que –1 e nem maior que +1. Se o valor de r está próximo de 0, concluímos que não há correlação linear significativa entre
x e y, mas se r está próximo de -1 ou +1, concluímos pela existência de correlação linear significativa entre x e y. Exemplos 1) As vendas de um determinado produto A, em milhares de unidades, foram anotadas para diferentes valores de gastos com propaganda, em unidades monetárias. Foram obtidos os seguintes resultados.
x (gastos) 1 2 3 4 5 6 7 8 y (vendas) 2.2 3.0 2.8 3.4 3.7 3.5 3.6 3.8 2) Uma amostra de dez pessoas forneceu para as alturas X (em cm) e os pesos y (em kg) os seguintes valores: Pessoa 1 2 3 4 5 6 7 8 9 10 Altura (x) 177 175 178 182 185 163 169 170 160 178 Peso (y) 91 72 67 93 180 71 68 65 65 83
a) Calcule o coeficiente de correlação linear de Pearson; b) Qual o grau de correlação das duas variáveis? c) Construa o diagrama de dispersão.
33 6.3 Teste de Hipóteses para Correlação Linear O coeficiente de correlação linear mede o grau de relacionamento linear entre os valores emparelhados x e y em uma amostra. A medição é feita em cima de uma amostra de cada uma das variáveis. Contudo, nos interessa saber, se as populações das variáveis envolvidas possuem uma correlação linear significativa. Para tanto, usamos um teste de hipóteses que verifica se há correlação linear significativa entre as duas populações. As hipóteses nula e alternativa são expressas da seguinte maneira: Ho : ρ = 0 (Não há correlação linear siginificativa) H1 : ρ ≠ 0 (Há correlação linear significativa)
Estatística de Teste t para Correlação Linear t=
r 1 − (r )2 n−2
, onde φ = (n − 2) graus de liberdade.
3) Em relação ao exemplo 2, teste, ao nível de significância de 5%, se realmente existe uma correlação linear positiva entre alturas e os pesos das pessoas na população. 4) A tabela a seguir relaciona os pesos (em centenas de libras) e as taxas de consumo de combustível (em mi/gal) em rodovia para uma amostra de carros de passeio novos. Com base nos resultados, espera um maior consumo de combustível se adquirir um carro mais pesado? (Utilize α = 5% ) Peso (x)
29 35 28 44 25 34 30 33 28 24
Combustível (y) 31 27 29 25 31 29 28 28 28 33
34 5) A tabela a seguir dá os pesos (em libras) do plástico descartado por uma amostra de residências, juntamente com o tamanho destas. Há alguma correlação
linear
significativa?
Este
problema
é
importante
para
o
Departamento do Censo, que financia projetos, porque a presença de uma correlação implica que podemos predizer o tamanho da população analisando o lixo descartado. (Utilize α = 1% ) Plástico (x)
0,27 1,41 2,19 2,83 2,19 1,81 0,85 3,05
Combustível (y) 2
3
3
6
4
2
1
5
35 7. REGRESSÃO LINEAR O nosso objetivo neste trabalho é desenvolver o modelo de regressão linear simples como um meio de utilizar uma variável para prever uma outra variável e para estudar a correlação, como uma medida da força da associação entre duas variáveis. A análise de regressão é utilizada principalmente com o objetivo de previsão. O propósito na análise de regressão é o desenvolvimento de um modelo estatístico que possa ser utilizado para prever os valores de uma variável dependente ou variável de resposta, com base nos valores de pelo menos uma variável independente ou explicativa. Exemplo: Os dados amostrais a seguir representam o consumo de cerveja em um dia (em 100 litros) e a temperatura máxima (em ºC). Estas variáveis foram observadas em nove localidades com as mesmas características demográficas e sócio-econômicas. Temperatura (x) Consumo (y)
16 31 38 39 37 36 36 22 10 290 374 393 425 406 370 365 320 269
Traçando o diagrama de dispersão obtemos, Consumo de Cerveja 450
400
350
Consumo
300
250
200
150
100
50
0 0
5
10
15
20
25 Temperatura
30
35
40
45
36
No diagrama de dispersão desenhado acima, pode ser observada uma idéia superficial do tipo de relação existente entre as variáveis. A natureza da relação pode assumir diversas formas, abrangendo desde as funções matemáticas mais simples até as mais complicadas. A relação mais simples consiste em uma relação linear ou retilínea. O modelo linear pode ser representado como sendo
Yi = β 0 + β i X i + ε i onde β 0 = interseção de Y para a população β i = inclinação para a população ε i = erro aleatório em Y para a observação
Neste modelo, a inclinação da linha β i representa a variação esperada em Y por cada variação unitária em X. Ela representa o tamanho da variação em Y (positiva ou negativamente) para uma determinada variação unitária em X. A interseção de Y β 0 representa o valor médio de Y quando X é igual a zero. O último componente do modelo, ε i , representa o erro aleatório em Y, para cada observação i que ocorra.
Y
∆Y = variação em Y
β0
O
∆X = variação em X
X
7.1 Determinação da Equação da Regressão Linear Simples Se nos reportamos ao diagrama de dispersão acima notamos que o consumo de cerveja parece crescer linearmente, em função da temperatura. A
37 questão a ser abordada na análise de regressão envolve a determinação do modelo que melhor se ajuste a esses dados. 7.1.2. Método dos Mínimos Quadrados O modelo estatístico Yi = β 0 + β i X i + ε i representa a relação entre duas variáveis em uma população. No exemplo do consumo de cerveja em relação a temperatura, os dados obtidos fazem parte de uma amostra aleatória da população. Se determinados pressupostos forem válidos, a interseção de Y da amostra ( b 0 ) e a inclinação da amostra ( b1 ) podem ser utilizadas como estimativas dos respectivos parâmetros da população ( β 0 e β i ). Portanto, a equação da regressão da amostra representando o modelo de regressão linear seria: O valor previsto de Y é igual à interseção de Y mais a inclinação, vezes
ˆ = b + b .X , onde Y ˆ = valor previsto de Y para a observação i o valor de X. Y i 0 1 i i X i = valor de X para a observação i. Essa equação requer a determinação de dois coeficientes de regressão - b 0 ( a interseção de Y) e b1 (a inclinação), no sentido de prever valores de Y. Uma vez que se obtenham b 0 e b1 , a linha reta é conhecida e pode ser traçada no diagrama de dispersão. Depois disso, podemos fazer uma comparação visual no sentido de verificar até que ponto nosso determinado modelo estatístico (uma linha reta) se ajusta aos dados originais. Isto é, podemos verificar se os dados originais se encontram perto da linha ajustada ou se eles desviam muito da linha ajustada. A análise de regressão simples significa encontrar a linha reta que melhor se ajuste aos dados. O melhor ajuste significa a tentativa de encontrar a linha reta para a qual as diferenças entre os valores reais (Yi ) e os valores que
ˆ ) sejam os menores seriam previstos da linha de regressão ajustada (Y i possíveis. Uma vez que essas diferenças serão tanto positivas quanto
38 negativas para diferentes observações, minimizamos matematicamente como n
∑ (Y
i
ˆ −Y i
)
2
.
i =1
ˆ = b + b .X , estamos minimizando Como Y i 0 1 i
n
∑ [Y − (b i
+ b1 .X i )] que 2
0
i =1
tem duas incógnitas, b 0 e b1 . Uma técnica matemática que determina os valores de b 0 e b1 que minimiza essa diferença é conhecida como método dos mínimos quadrados. Ao utilizar o método dos mínimos quadrados, obtemos duas equações, chamadas de equações normais: 7.1.3 Equações Normais Os valores de b 0 e b1 que minimizam essa expressão serão aqueles que anulam as derivadas parciais dessa expressão. ∂ 2 ∂b ∑ (Yi − b 0 − b1 X i ) = 0 Ou seja, devemos ter 0 ∂ ∑ (Y − b − b X )2 = 0 i 0 1 i ∂b1 Ao resolver as derivadas parciais acima, obtemos as duas equações a seguir, chamadas de equações normais: n
n
∑ Yi = nb 0 + b1 ∑ X i i =1
i =1
n
n
n
i =1
i =1
i =1
∑ X i Yi = b 0 ∑ X i + b1 ∑ X i
2
A solução do sistema acima fornece: n
n
∑ X i Yi − nXY b1 =
e b 0 = Y − b1 X , onde X =
i =1 n
∑X
2 i
− nX 2
n
∑ Xi i =1
n
∑Y
i
e Y=
i =1
n
i =1
Exemplos: 1) Em relação ao conjunto de dados amostrais que representam o consumo de cerveja em um dia (em 100 litros) e a temperatura máxima (em ºC). Determine a equação linear utilizando o Método dos Mínimos Quadrados.
39
2) As vendas de determinado produto, em milhares de unidades, foram anotadas para diferentes valores de gastos com propaganda, em unidades monetárias. Foram obtidos os seguintes resultados: Gastos (X)
1
2
3
4
5
6
7
8
Vendas (Y) 2,2 3,0 2,8 3,4 3,7 3,5 3,6 3,8
Encontre a equação de regressão linear que melhor ajusta os dados da tabela acima. 3) A tabela a seguir mostra a média anual, por década, das exportações brasileiras de café. Determine a equação linear e estime a média da década de 2000. Média das exportações brasileiras de café, em milhares de sacas Década
1900 1910 1920 1930 1940 1950 1960 1970 1980 1990
Exportação 13,0
12,1
14,0
14,6
13,8
15,1
17,1
15,1
17,0
17,4
Fonte: Banco de dados da FEBEC, publicado pela Folha de S. Paulo, em, 05/3/1998.
7.2 Erro Padrão da Estimativa O método dos mínimos quadrados resulta em uma linha reta que se ajusta aos dados com a quantidade mínima de variação. A equação de regressão não é um método perfeito de previsão, a menos que todos os pontos de dados estejam na linha de regressão. A linha de regressão serve somente como uma previsão aproximada de uma valor de Y para um dado valor de X. Portanto, precisamos desenvolver uma estatística que mensure a variabilidade dos reais valores de Y, por meio dos valores previstos de Y. A medida de variabilidade em torno da linha de regressão (seu desviopadrão) é chamada de erro padrão da estimativa. 2
n
∑ (Yi − Yˆi ) O erro padrão da estimativa, dado pelo símbolo S YX =
i =1
n−2
.
40
Sabendo-se que
n
2
∑(
ˆ Yi − Y i
)
n
i =1
n
n
n
i =1
i =1
i =1
n
n
i =1
i =1
= ∑ Yi − b 0 ∑ Yi − b1 ∑ X i Yi , obtemos
i =1
2
∑ Yi 2 − b 0 ∑ Yi − b1 ∑ X i Yi S YX =
n−2
.
A interpretação do erro padrão da estimativa, então, é análoga àquela do desvio-padrão. Assim como o desvio-padrão mede a variabilidade em torno da média aritmética. O erro padrão da estimativa mede a variabilidade em torno da linha ajustada da regressão. O erro padrão da estimativa pode ser utilizado para se fazerem inferências sobre um valor previsto de Y e para determinar se existe relação estatisticamente entre as duas variáveis. 7.3 Medidas de Variação na Regressão Para examinar como a variável independente prevê bem a variável dependente em nosso modelo estatístico, precisamos desenvolver diversas medidas de variação. A primeira medida, a soma total dos quadrados (STQ), é uma medida de variação dos valores de y em torno da sua média aritmética y . Em uma análise de regressão, a soma dos quadrados pode ser subdividida
em variações explicadas ou soma dos quadrados devida à regressão (SQReg), que é atribuída à relação entre x e y, e variações inexplicadas ou soma dos quadrados dos resíduos (SQR), que é atribuída a outros fatores diferentes da relação entre x e y. SQReg: representa a diferença entre o valor médio de Y e o valor de que seria previsto a partir da relação de regressão. SQR: representa aquela parte das variações em Y que não são explicadas pela regressão. Ela é baseada na diferença entre o valor observado ( y r ) e o valor previsto ( yˆ r ).
41 STQ: é uma medida de variação dos valores de Y, em torno da sua média aritmética. Em uma análise de regressão, a soma dos quadrados pode ser subdividida em variações explicadas e variações inexplicadas. STQ = SQReg + SQR. Fórmulas:
n
n
n
r =1
r =1
r =1
SQR = ∑ Yr 2 − b0 ∑ Yr − b1 ∑ Xr Yr n
(
STQ = ∑ Yr − Y r =1
n
)2 = ∑ Yr 2 − nY 2 r =1
SQReg = STQ - SQR n
n
r =1
r =1
SQReg = b0 ∑ Yr + b1 ∑ Xr Yr − nY 2
7.4 Coeficiente de Determinação O coeficiente de determinação (r2) mede a proporção da variação, que é explicada pela variável independente no modelo de regressão. O coeficiente de determinação (r2) é igual à soma dos quadrados devida à regressão, dividida pela soma total dos quadrados. r2 =
SQ Re g STQ
7.5 Análise de resíduos É um método gráfico utilizado para avaliar a adequação do modelo de regressão que foi ajustado aos dados. Os valores de erros estimados (ei), ou resíduos, são definidos como a diferença entre os valores de ( y r ) observados e os valores previstos ( yˆ r ) da variável dependente para os valores dados de x r . Portanto, o resíduo é igual ao valor observado de y menos o valor previsto de y, ou seja e i = y r − yˆ r . Podemos avaliar a adequação do modelo de regressão ajustado plotando os resíduos no eixo vertical e os valores correspondentes aos valores de xr da variável independente no eixo horizontal. Se o modelo for adequado para os dados, não haverá padrão aparente nesse gráfico de resíduos em
42 relação a xr. Se o modelo ajustado não for apropriado, existirá uma relação entre os valores de xr e os resíduos ei. 7.6 Inferências sobre os parâmetros da população na regressão Podemos determinar se existe relação significativa entre as variáveis X e Y testando se β1 (a verdadeira inclinação) é igual a 0. Se essa hipótese for rejeitada, poder-se-ia concluir que há evidências de uma relação linear. As hipóteses nula e alternativa poderiam ser declaradas da seguinte maneira:
H 0 : β1 = 0 (não existe relação) H 1 : β1 ≠ 0 (existe uma relação)
e a estatística de teste para isso é
dada por A estatística t é igual à diferença entre a inclinação da amostra e a inclinação da população, dividida pelo erro padrão da inclinação. t =
S b1 =
S YX n
∑X
2 i
− nX
b1 − β1 onde S b1
e a estatística de teste t segue uma distribuição t com n-2 2
i =1
graus de liberdade. Um segundo método equivalente para se testar a existência de uma relação linear entre as variáveis pode ser realizado construindo-se uma estimativa de intervalo de confiança de β1 e determinando se o valor hipotético
β1 = 0 está incluído no intervalo. A estimativa do intervalo de confiança de β1 seria obtida pela aplicação da seguinte fórmula.: b1 ± t n − 2 ⋅ S b1 Uma vez que esses valores estão acima de zero, podemos concluir que existe relação linear significativa. Por outro lado, se o valor zero estiver contido no intervalo, nenhuma relação teria sido determinada.
43 8. ANÁLISE DE VARIÂNCIA NA REGRESSÃO LINEAR O método da Análise de Variância pode também pode ser utilizado para a análise de problemas de regressão. 8.1 Teste da regressão linear Uma terceira maneira de realizar os testes equivalentes H 0 : ρ = 0 e H 0 : β1 = 0 , vistos anteriormente para o caso da correlação e regressão
lineares, é por meio da aplicação da Análise de Variância. Este teste será aqui apresentado não propriamente pelo seu interesse imediato, mas pela importância de suas extensões. O teste de significância do modelo pode ser feito pela técnica de análise de variância, comparando-se a variabilidade de Y explicada pela regressão com a sua variabilidade residual ( S YX = s 2R :variância residual)
não prevista
pela regressão. Utilizando-se a decomposição da soma de quadrados total, o teste de hipótese
F=
b1S xy s 2R
H 0 : β1 = 0 H1 : β1 ≠ 0
pode ser feito por meio da estatística
rejeitando-se H 0 , a um nível de significância, e concluindo-se que o
modelo é significativo se: F > Fc;1;n − 2 , onde Fc;1;n −2 é o valor crítico da distribuição F de Snedecor, com 1 grau de liberdade no numerador e (n-2) no denominador. Esses resultados podem ser resumidos no seguinte quadro de análise de variância: Fonte
de Graus de Somas de
Quadrados
Estatística F
Variação
liberdade quadrados
médios
Regressão
1
SQE = b1S xy
b1S xy
Resíduo
n-2
SQR = S yy − b1S xy
Total
n-1
SQT = S yy
s 2R
=
S yy − b1S xy n−2
F=
b1S xy s 2R
44 n
n
∑ X i ∑ Yi
S xy = S XY = ∑ X i Yi − i =1
S xx = S XX = ∑ X i 2
S yy = S YY
i =1
n
n ∑ Xi i =1 − n
n ∑ Yi i =1 = ∑ Yi 2 − n
S YX = S R =
S YY − b1S XY n−2
2
2
45 9. NOÇÕES BÁSICAS DE EXPERIMENTAÇÃO Muito do conhecimento que a humanidade acumulou ao longo dos séculos foi adquirido por meio da experimentação. A idéia de experimentar, no entanto, não é apenas antiga, também pertence ao nosso dia-a-dia. Todos nós já aprendemos algumas coisas, ao longo da vida, experimentando.
A
experimentação, no entanto, só se difundiu como técnica sistemática de pesquisa neste século, quando foi formalizada por meio da estatística. As técnicas experimentais são universais e se aplicam a diferentes áreas – agronomia, medicina, engenharia e psicologia – e os métodos de análise são sempre os mesmos. De qualquer forma, convém conhecer as origens da experimentação, porque isso ajuda a entender certos termos técnicos. 9.1Origem agrícola Boa parte da formalização que existe hoje em experimentação se deve a Sir Ronald Fisher (1890-1962), um estatístico que trabalhou na Estação Experimental de Agricultura de Rothamstead, na Inglaterra. É a origem agrícola da experimentação que explica o uso de vários termos técnicos. Assim, o termo parcela foi criado para designar a unidade de área usada no experimento. O termo parcela tem, hoje, significado mais geral porque, dependendo do experimento, a parcela pode ser um animal, uma peça fabricada, uma pessoa etc. Muitos autores, no entanto, passaram a usar o termo unidade experimental, em lugar de parcela, porque é mais abrangente. O termo tratamento também foi introduzido em experimentação pela área agrícola. Servia para indicar o que estava em comparação: fertilizantes, inseticidas, variedades. Hoje o termo tratamento tem significado mais geral. Muitos experimentos são feitos para comparar máquinas, métodos, produtos ou materiais. Mas o interesse, em experimentação, nem sempre é o de comparar tratamentos. Muitas vezes, o pesquisador quer apenas saber se determinado tratamento tem efeito. Nesse caso, deve comparar um grupo de unidades que recebeu o tratamento – grupo tratado – com um grupo de unidades que não recebeu o tratamento – grupo de controle.
46 Finalmente, o que está sendo medido ou observado no experimento é a variável em análise. Por exemplo, em um experimento conduzido para estudar o efeito de cremes dentais com flúor na incidência de cáries, o que está em observação é a incidência de cáries. Logo, essa é a variável em análise. Já em um experimento conduzido com a finalidade de verificar se a temperatura tem efeito sobre a velocidade de determinada reação química, a variável em análise é a velocidade da reação química. 9.2 Repetição A idéia, em experimentação, é comparar grupos, não apenas unidades. As unidades experimentais do mesmo grupo recebem, em estatística, o nome de repetições ou réplicas. Mas a necessidade do uso de repetições precisa ser bem entendida. Do ponto de vista do estatístico, é sempre desejável que os experimentos tenham grande número de repetições. Na prática, porém, o número de repetições é limitado pelos recursos disponíveis. Mas o pesquisador deve levar em conta (quando estabelece o tamanho do seu experimento) o que é usual na área. De qualquer forma, convém deixar claro que é possível calcular o número de repetições que devem ser usadas em determinado experimento. A aplicação de fórmulas exige, no entanto, que o pesquisador conheça a variabilidade do material experimental. Quanto mais homogêneo é o material – em termos das características que possam influir nas observações ou medições que serão feitas – menor é o número de repetições necessário para mostrar, com clareza, o efeito de uma tratamento. 9.3 Casualização Para formar grupos tão iguais quanto possível é fundamental que os tratamentos sejam sorteados às unidades experimentais. É o que os estatísticos chamam de casualização. A casualização pode ser feita da seguinte forma: toma-se uma unidade e joga-se uma moeda: se ocorrer “cara”, a unidade é designada para o grupo tratado e se ocorrer “coroa” a unidade é designada para o grupo controle.
47 Mas existem outras técnicas de casualização. Por exemplo, pode-se atribuir um número para cada unidade experimental, colocar todos os números numa urna, misturar bem e sortear as unidades para formar determinado grupo. As unidades restantes seriam então designadas para o outro grupo. A casualização também pode ser feita por meio de tabelas de números ao acaso, obtidos em livros de estatística ou em computador. O uso de tabelas de números ao acaso pode parecer sugestão mais séria do que o jogo de moedas, mas a lógica é a mesma. De qualquer forma, o que importa é entender que os tratamentos devem ser designados às unidades experimentais por puro e simples sorteio – a escolha da técnica de casualização fica a critério do pesquisador. A casualização foi formalmente proposta por Fischer na década de 1920. Vinte anos mais tarde essa técnica já estava definitivamente incorporada à experimentação agrícola. Na área industrial, a casualização passou a ser rotina após a II Guerra Mundial. Na pesquisa médica, no entanto, a idéia de casualização só começou a ser aceita muito mais tarde. A relativa demora da medicina para incorporar essa técnica simples de trabalho só se explica pela natureza do material experimental. Na área agrícola não surgem questões de natureza ética quando se sorteia o tratamento. Por exemplo, para verificar se um adubo tem efeito sobre a produção de uma planta o pesquisador pode sortear as unidades que vão receber o adubo – grupo tratado – e as que não vão receber o adubo – grupo controle –sem enfrentar nenhum problema de natureza ética. Já em medicina a idéia de “sortear” os pacientes que irão receber o tratamento pode levantar questões de ética. No entanto, o princípio da casualização é uma das maiores contribuições dos estatísticos à ciência experimental. Só a casualização garante que unidades com características diferentes tenham igual probabilidade de serem designadas para os dois grupos. Hoje, até em jogos de futebol se reconhece que a escolha do campo por sorteio elimina o favoritismo. Então é razoável acreditar que dois grupos, formados por sorteio, têm grande probabilidade de serem similares. E se os grupos são similares no início do experimento, é razoável creditar ao tratamento uma diferença expressiva que se observe entre
48 os grupos, isto é, uma diferença que não possa ser facilmente atribuída ao acaso. Finalmente – vale insistir – não existem alternativas válidas para a casualização. O pesquisador que “escolhe” as unidades por critério próprio – por melhores que sejam as intenções – introduz tendenciosidade nos resultados. Se o pesquisador tiver objeções à técnica de casualização, deve consultar um estatístico competente, pois muitas vezes é possível fazer o sorteio mantendo as restrições que o pesquisador considera necessárias. 9.4 O planejamento do experimento Para planejar um experimento é essencial definir a unidade experimental e o que será medido ou observado nessa unidade. É preciso definir os tratamentos que serão colocados em comparação com clareza e exatidão. Finalmente, é preciso estabelecer a maneira de fazer a casualização. Segundo Vieira (1997), o experimento está planejado quando estão definidos:
a) a unidade experimental; b) a variável em análise e a forma como será medida; c) os tratamentos em comparação; d) a forma como os tratamentos serão designados às unidades experimentais. Apenas como exemplo, imagine que se deseja comparar o efeito de duas rações na engorda de suínos. Nesse caso, o experimento poderia ser planejado como segue: a) a unidade experimental: um animal; b) a variável em análise: ganho de peso, medido pela diferença entre o peso final e o peso inicial de cada animal; c) os tratamentos em comparação: ração A e ração B; d) a forma como os tratamentos serão designados às unidades: por sorteio.
49 10. OS DELINEAMENTOS EXPERIMENTAIS Para planejar um experimento, é preciso definir a unidade experimental e a variável em análise. Também é preciso definir os tratamentos em comparação e a maneira de designar os tratamentos às unidades. Às vezes é preciso impor algumas restrições à casualização. 10.1 Experimentos inteiramente ao acaso Os experimentos inteiramente ao acaso só podem ser conduzidos quando as unidades são similares. Mas a idéia de similaridade precisa ser bem entendida. Em experimentação, as unidades não precisam ser “iguais”, basta que respondam aos tratamentos da mesma forma. É comum, nos experimentos inteiramente ao acaso, que todos os tratamentos tenham igual número de repetições. 10.2 Experimentos em bloco ao acaso Os experimentos em blocos ao acaso surgiram na área agrícola. O campo era dividido em blocos e os blocos eram divididos em parcelas. Então o termo bloco designava, originalmente, uma faixa de terra de mesma fertilidade. O termo bloco tem, hoje, significado bem mais geral. Ainda pode ser uma faixa de terra, mas também pode ser uma ala da estufa, um período de tempo, uma ninhada, uma partida de produtos industriais, uma faixa de idade – tudo depende do que está em experimentação. O essencial é que os blocos reúnam unidades similares – que se distingam apenas pelo tratamento que recebem – e que haja variabilidade entre blocos. Não teria sentido organizar blocos se não houvesse variabilidade entre eles. Mas quem decide se a variabilidade entre as unidades justifica ou não a formação de blocos é o pesquisador, não o estatístico. Finalmente, embora o bloco deva reunir unidades similares, isso não significa que essa reunião deva ser física. Basta reunir os dados numéricos.
50 11. A ANÁLISE DE VARIÂNCIA A idéia é comparar a variação devido aos tratamentos com a variação devido ao acaso ou resíduo. Para isso, é preciso proceder a uma série de cálculo. Mas a aplicação das fórmulas exige conhecimento da notação. Na tabela a seguir está apresentado um experimento com k tratamentos: cada tratamento tem r repetições. A soma dos resultados das r repetições de um mesmo tratamento constitui o total desse tratamento. As médias dos tratamentos foram indicadas por y1 , y 2 , y 3 ,...y k . O total geral é dado pela soma dos totais de tratamentos. Um experimento inteiramente ao acaso Total
Tratamento ... k
1
2
3
y11
y21
y31
yk1
y12
y22
y32
yk2
y13
y23
y33
yk3
.
.
.
.
.
.
.
.
.
.
.
.
y1r
y2r
y3r
ykr
T1
T2
T3
... Tk
∑T = ∑ y
Número de repetições r
r
r
... r
n = kr
Média
y2
y3
Total
y1
yk
Para fazer a análise de variância de um experimento inteiramente ao acaso é preciso calcular as seguintes quantidades: a) graus de liberdade: de tratamentos: (k − 1) do total:
(n − 1) , com n = kr
do resíduo:
(n − 1) − (k − 1) = n − k
51 b) o valor de C, dado pelo total geral elevado ao quadrado e dividido pelo número de observações. O valor de C é conhecido como correção: C =
∑y n
c) a soma de quadrados total: SQT = ∑ y 2 − C d) a soma de quadrados de tratamentos: SQTr =
∑T r
2
−C
e) a soma de quadrados de resíduo: SQR = SQT = SQTr f) o quadrado médio de tratamentos: QMTr = g) o quadrado médio dos resíduos: QMR = h) o valor de F: F =
SQTr k −1
SQR n−k
QMTr QMR
Note que os quadrados médios são obtidos dividindo as somas de quadrados pelos respectivos graus de liberdade. Todas as quantidades calculadas são apresentadas numa tabela de análise de variância. Análise de variância de um experimento inteiramente ao acaso Causas da variação
GL
SQ
QM
Tratamentos
k-1
SQTr QMTr
Resíduos
n-k
SQR
Total
n-1
SQT
F F
QMR
11.1 Algumas Considerações É importante que o pesquisador entenda o que o teste de hipóteses pode fazer por ele. O teste não comprova nenhuma das hipóteses. No entanto, se o resultado do teste for maior que o da tabela ao nível de significância estabelecido (o resultado é significante), existe evidência contra a hipóteses da nulidade. O pesquisador deve, então, rejeitar essa hipótese. O nível de significância dá a probabilidade de o pesquisador estar cometendo erro ao tomar essa decisão. É, porém, essencial que o experimento tenha sido bem delineado.
52 Finalizando, a análise de variância mostrada aqui é indicada para experimentos feitos de acordo com as normas técnicas. É essencial que as unidades experimentais utilizadas no experimento sejam de início, similares, e é essencial que os tratamentos tenham sido designados às unidades por processo aleatório.
53 BIBLIOGRAFIA ARA, Amilton Braio; MUSETTI, Ana Villares; SCHNEIDERMAN, Boris. Introdução à Estatística. São Paulo: Instituto Mauá de Tecnologia, Editora Edgard Blücher Ltda, 2003. BOTTER, Denise Aparecida; PAULA, Gilberto Alvarenga; LEITE, José Galvão; CORDANI, Lisbeth Kaiserlian. Noções de Estatística – com apoio computacional – São Paulo: Instituto de Matemática e Estatística – USP, 1996. COSTA, Sérgio Francisco. Introdução Ilustrada à Estatística. 3ª edição. São Paulo: Editora Harbra, 1998. COSTA NETO, Pedro Luiz de Oliveira. Estatística. 2ª edição. São Paulo: Editora Edgard Blücher Ltda, 2002. COSTA NETO, Pedro Luiz de Oliveira; CYMBALISTA, Melvin. Probabilidade – resumos teóricos – exercícios resolvidos – exercícios propostos. São Paulo: Edgard Blücher Ltda, 1974. FARIAS, Alfredo Alves; SOARES, José Francisco; CÉSAR, Cibele Comini. Introdução à Estatística. 2ª edição. Rio de Janeiro: Editora LTC, 2003. GOMES, Pimentel Frederico. Curso de Estatística Experimental. 14ª ed. Piracicaba: F. Pimentel-Gomes, 2000. LEVINE, David M.; BERENSON, Mark L.; STEPHAN, David. Estatística: Teoria e Aplicações – usando MICROSOFT EXCEL em Português. Tradução de Teresa Cristina Padilha de Souza. Rio de Janeiro: Editora LTC, 2000. MILONE, Giuseppe. Estatística Geral e Aplicada. São Paulo: Pioneira Thomson Learning, 2004.
54
MONTGOMERY, Douglas C. Introdução ao Controle Estatístico da Qualidade. 4ª edição. Rio de Janeiro: LTC, 2004. TRIOLA, Mario F. Introdução à Estatística. 7ª edição. Tradução de Alfredo Alves de Farias. Rio de Janeiro: Editora LTC, 1999. VANNI, Sérgio Marcos. Estatística Aplicada – Básico. São Paulo: Legnar Informática & Editora, 1999. VIEIRA, Sonia. Estatística Experimental. 2ª ed. São Paulo: Editora Atlas, 1999.