Estadistica Bayesiana - Luis Carlos Silva.pdf

  • Uploaded by: Maicel Monzon
  • 0
  • 0
  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Estadistica Bayesiana - Luis Carlos Silva.pdf as PDF for free.

More details

  • Words: 5,441
  • Pages: 95
Introducción a las técnicas bayesianas para la investigación en salud Luis Carlos Silva Ayçaguer Vicerrectoría de Investigaciones ISCM de La Habana

Valoración crítica de las pruebas de significación

Una polémica escamoteada

Feinstein (1985) Si la demanda crítica hubiera sido que la investigación produjese ambos tipos de significación (la que concierne al área estocástica y la que se vincula con los atributos cualitativos) entonces la alienación intelectual de hoy no hubiera ocurrido. Desafortunadamente, sin embargo, la palabra "significación" fue reservada solo en su connotación estocástica, y la palabra "estadística" le fue adjuntada para crear la "significación estadística" como paradigma de calidad e importancia en la investigación médica... Usando *, **, y *** como símbolos para representar que P<0.05, P<0.01 y P<0.001 respectivamente, el investigador puede presentar tablas celestiales en las cuales los datos han sido reemplazados por estrellas.

Yates (1951) El énfasis en las pruebas de hipótesis y la consideración de los resultados de cada experimento separadamente han tenido la desafortunada consecuencia de que los trabajadores científicos han considerado con frecuencia la ejecución de una prueba de significación o un experimento como el objetivo último; actúan sobre la base de que los resultados o son o no son significativos y de que éste es el fin de todo.

Neyman y Pearson(1933) Ninguna prueba basada en la teoría de probabilidad puede por sí misma generar índices válidos sobre la verdad o la falsedad de una hipótesis. Las pruebas de hipótesis deben ser miradas desde otra perspectiva. Siguiendo la regla de aceptar o rechazar una hipótesis no estamos diciendo nada definitivo sobre si la hipótesis es o no verdadera... Lo que se puede demostrar es que si somos consecuentes con esa regla, a la larga, la rechazaremos cuando sea cierta no más, digamos, que una de cada 100 veces; adicionalmente, la rechazaremos con alta frecuencia cuando sea falsa.

Savage (1957) Con mucha frecuencia se sabe de antemano que las hipótesis de nulidad son falsas antes incluso de recoger los datos; en ese caso el rechazo o la aceptación, simplemente es un reflejo del tamaño de la muestra y no hace, por tanto, contribución alguna a la ciencia.

Bakan (1966) Es un hecho objetivo que casi nunca hay buenas razones para esperar que la hipótesis nula sea verdadera. Por qué razón la media de los resultados de cierta prueba habría de ser exactamente igual al este que al oeste del río Mississipi? Por qué deberíamos esperar que un coeficiente de correlación poblacional sea igual a 0.00? Por qué esperar que la razón mujeres/hombres sea exactamente 50:50 en una comunidad dada? o por qué dos drogas habrán de producir exactamente el mismo efecto? Una mirada a cualquier conjunto de estadísticas que incluyan totales poblacionales confirmará de inmediato que la nulidad se presenta muy raramente en la naturaleza

Rozeboom (1960) A pesar de la preeminencia que ha alcanzado este método en las revistas experimentales y los textos de estadística aplicada, su empleo se basa en una incomprensión clave de la naturaleza de la inferencia racional; por ello las pruebas de significación casi nunca constituyen un medio apropiado para la investigación científica, si es que lo son en algún caso. Una hipótesis no es algo como un pedazo de tarta que uno puede aceptar o rechazar a través de una decisión

voluntaria.

Si

hay

algo

que

señala

la

irrelevancia

práctica de las pruebas de hipótesis convencionales, es su incapacidad para proveer de genuinos recursos al investigador para su conducta hipótesis

inferencial. solo

porque

Quién un

alguna

vez

experimento

ha

produjo

renunciado un

a

resultado

una no

significativo? El lector muy bien puede permanecer impasible ante los cargos que se imputan a las pruebas precisamente porque, quizás sin comprenderlo, nunca ha tomado el método muy en serio.

Sacket (1979)

Las muestras demasiado pequeñas pueden servir para no probar nada; las muestras demasiado grandes pueden servir para no probar nada.

Lanes y Poule (1984) Aunque existe un precedente histórico de larga data en el empleo de pruebas de significación como recurso básico para interpretar datos epidemiológicos, en realidad no existe ninguna razón sólida para ello. El pronóstico matutino del tiempo puede sernos útil para decidir si llevaremos o no el paraguas. El metereólogo puede ofrecer una complicada exposición y una declaración probabilística para vaticinar la inclemencia del tiempo. La decisión final sobre acarrear o no el paraguas, sin embargo, queda en manos del receptor de mensaje; ella puede depender del lapso durante el cual él se hallará al aire libre, de su proclividad a llevar un paraguas en el metro o de que su sobretodo esté disponible. El meteorólogo no nos aconseja acerca de cómo actuar sino que solo nos comunica aquel subconjunto de información sobre el tema que él domina.

Lykken (1968) Una prueba de hipótesis nunca es condición suficiente para concluir que una teoría se ha corroborado, que un hecho empírico útil se ha establecido con confianza razonable, o que el informe sobre un experimento debe ser publicado. El valor de cualquier investigación puede ser determinado, no a partir de resultados estadísticos, sino solo mediante una evaluación incisiva, aunque necesariamente subjetiva, de la coherencia y la racionalidad de una teoría, del grado de control empleado, de la calidad de las técnicas de medición y de la importancia práctica o científica del fenómeno estudiado

Bibliografía recomendada Statistics: A Bayesian Perspective D. Berry, 1996, Duxbury Press.

Referencias más avanzadas Bayesian Biostatistics D. Berry & D. Stangl, 1996, Marcel Dekker Pub. Bayesian Data Analysis A. Gelman, J. Carlin, H. Stern, D. Rubin, 1995, Chapman & Hall.

Las tareas de la estadística Diseño:

¿qué datos elegir ?

Descripción de Inferencia:

datos: ¿cómo resumir?

¿Qué significan los datos?

ENFOQUES

• Frecuentista • Bayesiano

Dos interpretaciones de la probabilidad Frecuencia con que ocurre un evento a lo largo de una larga serie de experiencias  La probabilidad basada en el grado de convicción es una afirmación subjetiva 

Probabilidad condicional y regla de Bayes P(A|B) =

P(A ∩B)

P(B) B

A A∩B

Equivalentemente

P(A ∩B) = P(B)P(A|B)

Ley de la probabilidad total Regla de multiplicación

P(A∩B) = P(A|B)P(B) P(A∩B) = P(B|A)P(A)

Ley de la probabilidad total P(B) = P(A∩B) + P(~A∩B) = P(B|A)P(A) + P(B|~A)P(~A)

A

~A∩B

A∩B

B

20 pacientes con cáncer de mama localmente avanzado; unas eran receptoras de estrógenos y las otras receptoras de progesterona Progesterona + Estr+ 8/20 4/20 Estr- 1/20 7/20

A es el evento de tener un tumor receptor de estrógeno B es el evento de tener un tumor receptor de progesterona Probabilidad de A?  Probabilidad de B?  Probabilidad de A y B?  Son A y B independientes? 

Ley de probabilidad total 

P(B|A)



P(B|no A)



Recordando que P(A)=12/20 , calcular P(B) directamente y a través de la ley de probabilidad total

Regla de Bayes Regla de la probabilidad inversa: P(A B) P(B | A)P(A) P(A | B) = = P(B) P(B)   P(B | A)P(A) = P(B | A)P(A) + P(B |~ A)P(~ A)

Notar que La expansión de P(B) en el denominador es la ley de la probabilidad total

Versiones alternativas de la regla de Bayes 1 P(A | B) = P(B |~ A) P(~ A) 1+ P(B | A) P(A) P(~ A | B) P(B |~ A) P(~ A) = P(A | B) P(B | A) P(A) Donde B es “datos” y A es una “hipótesis”: odds a posteriori = razón de veros.x odds a priori

Probabilidad condicional y árboles. ¿Cuántas niñas? 

Familia con dos hijos  D: Ambas niñas  C: Al menos una lo es

First Primer hijo child

Second Segundo hijo child G2

Número Number degirls niñas of

2

Prob. 1/4

G1

3/4 B2 G2

1 1

1/4 1/4

B2

0

1/4

B1

P(CD) P(D | C) = P(C)   P(G1G2) 1 / 4 1 = = = 3/4 3   P(C)

Condicionado a G2: ¿Cuántas niñas? 

Familia con 2 hijos  D: Ambas niñas  G2: La segunda es niña

Primer First hijo child

Segundo Second hijo child G2

Número Number degirls niñas of 2

Prob. 1/4 1/2

G1 B2 G2

1 1

1/4 1/4

B2

0

1/4

B1

P(G2 D) P(D | G2) = P(G2)   P(G1 G2) 1 / 4 1 = = = 1/ 2 2   P(G2)

Un problema de urnas Hay 2 urnas:

90 R’s 10 G’s

95 R’s 5 G’s

Datos: De 5 selecciones sin reemplazo, 1 es Roja, 4 son verdes  Suponer P(urna 1) = P(urna 2) = 1/2 



P(urna 1 | Datos) = ?

P(urna 1 | datos) = 40/41=97.5% 

P(1 | Datos) ∝ P(Datos |1) P(1)



P(Datos | 1) = 2.51E–4

P(Datos | 2) = 6.31E–6  Odds a posteriori: 

P(1 | Data) P(Data | 1) P(1) = P(2 | Data) P(Data | 2) P(2) 0.000251 1 / 2 = = 40 0.00000631 1 / 2

¿Cuántos verdes? Asuma: 

Bandejas tienen 5 discos.



0, 1, 2, 3, 4, o 5 son verdes.



Probabilidades a priori son iguales 5R 0G

4R 1G

3R 2G

2R 3G

1R 4G

0R 5G

1/ 6

1/ 6

1/ 6

1/ 6

1/ 6

1/ 6

Probabilidades actualizadas de elegir un disco verde Se observa G, un disco verde  Verosimilitudes: 

P(G|0) P(G|1) P(G|2) P(G|3) P(G|4) P(G|5) 0 1/5 2/5 3/5 4/5 1 

Probabilidades a posteriori: P(0|G) P(1|G) P(2|G) P(3|G) P(4|G) P(5|G) 0 1/15 2/15 3/15 4/15 5/15 5R 0G

4R 1G

3R 2G

2R 3G

1R 4G

0R 5G

Probabilidad de que el próximo disco sea verde (sin reemplazo) G:

0

1

2

3

4

P(G|G1)

0

1/15

2/15

3/15

P(G2|G) Producto

0 0

0/4 0/60

1/4 2/60

2/4 3/4 4/4 6/60 12/60 20/60

4/15

5 5/15

P(G2|G1) = suma de productos = 2/3

Ud. y otros dos sujetos, Carmen y Luis, han sido detenidos en un país lejano. Las autoridades han decidido ejecutar a dos de ustedes mañana, pero Ud. no sabe a quiénes. Ud. decide que tiene 2/3 de probabilidad de morir, pero la duda lo corroe. Ud. le pide al guardia información. El acepta ayudarlo. Le dice que irá a mirar los nombres en un pizarrón que está en la jefatura; cuando regrese le dirá un nombre, pero éste no será el suyo (aunque fuera uno de los dos escritos en la pizarra). Cuando regresa, el guardián le comunica que Carmen será ejecutada. Ud se alegra pues cree que ahora la probabilidad de morir para Ud. ha descendido a 1/2. ESTO ES INCORRECTO. ¿Por qué?

Calcule la probabilidad correcta de que Ud. sea uno de los que va a morir luego de saber la información del guardia. Suponga que Luis ha oído toda la conversación. ¿Cuál era la probabilidad de él antes de que el guardia volviera? ¿Cuál es su nueva probabilidad luego de conocer la información que éste le ha dado a Ud? (Suponga que el guardia se comporta siempre de manera equilibrada: si tiene una decisión que adoptar, lo hace con una moneda)

Gemelos ¿idénticos o fraternales? Se sabe que aproximadamente el 30% de los gemelos son idénticos (I) y el 70% fraternales (F). Si son idénticos, tienen que tener igual sexo (la mitad son parejas de niñas y la otra mitad parejas de varones); si son fraternales, la mitad son mixtos, un cuarto son 2 niñas y otro cuarto son 2 niños. Ud. Va a ser padre de gemelos. Sabe que son niñas. ¿A cuánto asciende la probabilidad de que sean I?

Se sabe además que los 2 tienen el mismo grupo sanguíneo. Tal cosa ocurre con probabilidad 6/10 entre gemelos I, pero solo con probabilidad 1/10 con gememos F. ¿Cuánto es ahora la probabilidad? (es decir, teniendo en cuenta las dos informaciones).

INFERENCIAS SOBRE PROPORCIONES La Población es de 2 tipos: cara-cruz, muere-sobrevive, verde-no verde, niñoniña, éxito-fracaso  Lo que interesa es p = proporción de “éxitos” en la población  p es desconocida .  Problema estadístico: inferencias sobre la proporción p. 

Pasos para las inferencias con proporciones § § § § § §

Especificar un conjunto de modelos Asignar probabilidades a priori a cada uno Recoger datos Calcular verosimilitudes de cada modelo: P(datos|modelo) Usar Bayes para calcular probabilidades a posteriori: P(modelo|datos) Sacar inferencias (predicción en particular)

¿Quien gana el próximo juego? A y B son dos velocistas. Tenemos una información general sobre ellos Yo creo que A es un poco mejor que B. Ellos van a sostener un duelo en los próximos días y yo quisiera estimar la probabilidad de que gane A. Podría esforzarme y dar una cifra a partir de mi visión subjetiva del asunto. Pero procederemos de otro modo por razones que veremos luego. Imaginemos varios modelos de urnas que contienen bolas A y bolas B. En cada uno, la proporción de A’s sería la probabilidad de victoria de A. No sabemos cuál de esos modelos es el verdadero.

¿Quien gana el próximo juego? Imaginemos 11 urnas con 0A, 1A, ..., 10A

10B 0A

9B 1A

8B 2A

7B 3A

6B 4A

5B 5A

4B 6A

3B 7A

2B 8A

1B 9A

0B 10A

0.6

0.7

0.8

0.9

1.0

Probabilidad de A en los modelos 0

0.1

0.2

0.3

0.4

0.5

Probabilidad a priori atribuidas a los modelos 0

0.02

0.03 0.05 0.10

0.15 0.20 0.25 0.15 0.05 0

Con probabilidades a priori Modelos M0 M1

M2

M3

M4

M5

M6

M7

M8

M9 M10

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

0

0.02

0.03 0.05 0.10 0.15 0.20 0.25 0.15 0.05

Prob B mejor que A = 0.20

1.0

Prob A mejor que B = 0.65

Prob B igual que A = 0.15

P(A)=Σ P(A gana |Mi) P(Mi) = 0.598 ≈ 0.6

0

Actualizando la probabilidad con nuevos datos empíricos A y B juegan un match a 4 partidos. Los tres primeros terminaron con victoria para A en el primero y para B en los otros 2.

D={ABB} ¿Cuál es la probabilidad de gane A teniendo en cuenta estos datos? ¿Cuánto menos que 0.6? P(D | M6) P(M6) P(M6 |D) = P(D) P(M6) es probabilidad a priori=0.2 P(D | M6) es versomilitud P(D)=Σ P(D | Mi) P(Mi)

Probabilidad a posteriori para M6 P(D | M6) P(M6) P(M6 |D) = P(D) P(M6) =0.2 P(D | M6)= P(ABB|M6)=P(A|M6) P(B|M6) (B|M6) =(0.6)(0.4)(0.4)=0.096

P(D)=Σ P(D | Mi) P(Mi)=0.08616 (0.096) (0.2) P(M6 |D) =

= 0.01920 08616

Con probabilidades a posteriori Modelos M0 M1

M2

M3

M4

M5

M6

M7

M8

M9 M10

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

0

0.02 0.04 0.09 0.17 0.22 0.22 0.28 0.06 0.01

Prob B mejor que A = 0.15

1.0

Prob A mejor que B = 0.47

Prob B igual que A = 0.22

P(A)=Σ P(A gana |Mi) P(Mi) = 0.52

0

Pasos para el análisis Establecer priors  Calcular verosimilitudes  Obtener probabilidades a posteriori Multiplicar priors por versomilitudes Sumar estos productos Dividir cada producto por la suma 

• • •

Tratamiento para la leucemia M=mejor P=peor n=21s=18 f=3 11 urnas con 0M, 1M, ..., 10M

10P 0M

9P 1M

8P 2M

7P 3M

6P 4M

0

0.1

0.2

0.3

0.4

5P 5M

0.5

4P 6M

0.6

3P 7M

0.7

2P 8M

0.8

1P 9M

0.9

Pero ahora hay tres evaluadores: DR. X (abierto o poco invormado), Dr. Y (informado y optimista), Dr. Z totalmente esceptico (tratamiento=placebo)

0B 10M

1.0

Probabilidad a priori atribuidos a los modelos por X, Y y por Z 10P 0M

9P 1M

8P 2M

7P 3M

6P 4M

5P 5M

4P 6M

3P 7M

2P 8M

1P 9M

X 1/11 1/11 1/11

1/11

1/11

1/11

1/11

1/11

1/11

1/11 1/11

Y 1/55 2/55 3/55

4/55

5/55

6/55

7/55

8/55

9/55

10/55 11/55

Z .001 .001 .001

.001

.001

0.99

.001

.001

.001

.001

PX(M)=0.5

PY(M)=0.7

PZ(M)=0.5

0B 10M

.001

Datos empíricos tras estudiar n=21 pares de pacientes: MPMMM PMMMM MMMPM MMMMM M: s=18 f=3

Versomilitud de los datos : p18 (1-p)3 Para el modelo p=0.8, por ejemplo, se tendría: (0.8)18 (0.2)3=0.000144=1.44 ·10-4

Probabilidades a posteriori son:

10P 0M

9P 1M

8P 2M

7P 3M

6P 4M

X 0

0

0

0

0

0.001 0.019 0.127 0.418 0.435

0

Y0

0

0

0

0

0.001 0.008 0.076 0.324 0.425

0

Z0

0

0

0

0

0.578 0.008 0.054 0.176 0.084

0

PX(M|D)=0.826

5P 5M

4P 6M

PY(M|D)=0.834

3P 7M

2P 8M

1P 9M

0B 10M

PZ(M|D)=0.639

Infinitos modelos Aquí la suma de barras en todo un intervalo es un área bajo la curva

Beta(a,b) para a, b = 1, 2, 3, 4:

Construcción de densidad Beta Beta (4.5, 3) p entre 0 y 1

se calcula p3.5(1-p)2 para valores de (por ejemplo 0, 0.05, 0.10, ....,0.95,1)

a Probabilidad predictiva = Media de la distribución =

a+b

Actualización de densidades beta Se tiene densidad a priori Beta (a,b) : pa-1(1-p)b-1 Se observan f fallos y s éxitos: la verosimilitud si la probabilidad es p es igual a: ps (1-p)f

(Prior) X (verosimiltiud) = posterior Entonces la densidad a posteriori es: Beta (a+s,b+f) : pa+s-1(1-p)b+f-1

Probabilidades predictivas para densidades beta Asuma Beta(a,b) como densidad a priori para la propensión p  La probabilidad de éxito en la próxima observación es la media de p: a/(a+b)  La probabilidad de 2 éxitos en las próximas 2 observaciones, por ejemplo, es a a +1 

a + ba + b+1

Probabilidades predictivas para para una uniforme, Beta(1,1): Para n observaciones, la probabilidad predictiva de k éxitos es 1/(n+1). Para n = 10:

Cada probability probabilidadises 1/11 Each 1/11

0

1

2

3

4

5

6

7

8

9 k

10

probabilidades predictivas para una observación Beta(5,2) Beta(4,2)

4/6 Exito 0

.1 .2 .3 .4 .5 .6 .7 .8 .9 1 p

Beta(4,3)

Fallo 0

.1 .2 .3 .4 .5 .6 .7 .8 .9 1 p

2/6 0

.1

.2 .3

.4

.5 p

.6

.7 .8

.9

1

Tasa de graduados expuestos a plomo Para prior uniforme, a posteriori es Beta(23,8):

Para prior beta(9,1), a posteriori es Beta(31,8): p30 (1-p)7

p22 (1-p)7

0

.1

.2 .3

.4

.5

.6

.7 .8 .9 p

Media = 0.74

1

0

.1

.2 .3

.4

.5

.6

.7 .8

.9 p

Media = 0.79

1

Predicción para los próximos 10 

Asuma prior uniforme (posterior es Beta(23,8)). ¿Cuál es la probabilidad (predictiva) de que al menos 9 de cada 10 se gradúen de la EM? 23 24 25 26 32 ... = 0.076 31 32 33 34 40 8 23 24 25 31 P(9) = 10 ... = 0.190 31 32 33 34 40

P(10) =



P(9 o 10) = 0.190 + 0.076 ≈ 27%

Ejemplo con una observación—de Beta(4,2): Beta(5,2) Beta(4,2) Exito.

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 p

Beta(4,3) 0

.1 .2 .3 .4 .5 .6 .7 .8 .9 1 p

Fallo

0

.1

.2 .3

.4

.5 p

.6

.7 .8

.9

1

Problema de la leucemia Dr. X Beta (19,4) 0.5

19/23=0.826 (antes 0.826)

Dr. Y Beta (20,4) 0.7

20/24=0.833 (antes 0.834)))

Dr. Z Beta (34,19) 0.5

34/53=0.641 (antes 0.639)

Un recurso para fijar la densidad Beta adecuada Establecer probabilidad de éxito: r r = a/ (a+b) y probabilidad de un segundo éxito dado que se produjo el primero: r+ r+ = (a+1)/ (a+b+1) a=r(1-r+)/(r+-r) b=(1-r )(1-r+)/(r+-r)

Ejemplo Probabilidad de éxito: r=0.70 Probabilidad de un segundo éxito dado que se produjo el primero: r+=0.75 a=(0.70)(1-0.75)/(0.75-0.70)=3.5 b=(1-0.70)(1-0.75)/(0.75-0.70)=1.5

Areas aproximadas e intervalos de probabilidad r = a/ (a+b) r+ = (a+1)/ (a+b+1) t= {r (r+-r)}1/2 Z correspondiente a cierto valor ϕ entre 0 y 1 es igual a z=(ϕ - r) / t r = 0.70 r+ = 0.72 t= 0.118 Para ϕ=0.9 entonces z=(0.9 - 0.7) / 0.118=1.69

0.9

Areas bajo curvas beta aproximadas a través de la distribución normal

1.69

Inferencia frecuentista Intervalos de confianza 

Intervalo de probabilidad Bayesianismo se calcula mediante el área bajo la densidad a posteriori.



El intervalo de confianza frecuentista es el intervalo de probabilidad a posteriori del enfoque Bayesiano asumiendo un prior no informativo.

Intervalo de confianza para 22 éxitos y 7 fallos 22

p

7

(1-p)

95%

0

.1

.2

.3

.4

.5

.6

.7

.8

.9

1

p

Intervalo de confianza al 95%: 0.58 a 0.88

En cierta situación se han producido s éxtios y f fracasos Prior Posterior Beta (a,b) Beta(a+s,b+f) llamando A=a+s y B=b+f: r = A / (A+B) r+=(A+1)/(A+B+1) t={r(1-r+)}1/2

Intervalo de probabilidad al 1-α %: r - z 1-α /2 t ; r + z 1-α /2 t

A 301 individuos se les ha informado que son serpositivos VIH y 91 han pensado en el suicidio (30.2%) Prior Posterior Beta (1,1) Beta(92,302) r = A / (A+B) =92/303=.90363 r+=(A+1)/(A+B+1)=93/304=0.30592 t=r(1-r+)=0.0264

Intervalo de probabilidad al 95 % (z 1-α /2=1.96): 0.2519 ; 0.3554

Intervalos de probabilidad para los doctores X, Y y Z r

r+

t

E

Intervalo

X 0.826

0.833

0.07737

0.1516

67.4 - 97.7

Y 0.833

0.840

0.07454

0.1461

68.7 - 97.9

Z 0.642

0.648

0.06559

0.1279

51.4 - 76.9

P = 18/21 = 0.857

C.I.A:

(63.6 - 96.9)

Comparación de proporciones ¿Previene la ciclemia contra la malaria? Se inyectan con malaria 15 ciclémicos y 15 no ciclémicos sólo 2 de los primeros la contraen; 14 de los segundos enferman

Verosimilitudes P(Datos p) = p s (1-p) f P(Datos pC) = pC 2 (1-pC)13 CICLÉMICOS

P(Datos pN) = pN14 (1-pN) NO CICLÉMICOS

Verosimilitudes para ciclémicos y no ciclémicos para 11 modelos (p=O, 0.1, 0.2, ... , 0.9, 1) p

o

P(Dclp) Ciclémicos OE+OO

P(Dn IP) No ciclémicos OE+OO

0,1

2,54E-03

OE+OO

0,2

2,20E-03

OE+OO

0,3

8, 72E-04

OE+OO

0,4

2,09E-04

OE+OO

0,5

3,05E-05

3,05E-05

0,6

2,42E-06

3, 14E-04

0,7

OE+OO

2,04E-03

0,8

OE+OO

8,80E-03

0,9

OE+OO

2,29E-02

1

OE+OO

OE+OO

/

, ,j

/

o

0,2

0,4

I

I

0,6

I

I

0,8

I

j

/

1

~ /~1~-1~_ 1~1~_1~_ 1 ~'~~~-J/

o

0,2

0,4

0,6

0,8

1

Comparación de proporciones con 2 muestras 15 portadores de sickle-cell (hetero-zigóticos) y 15 no portadores; todos fueron inyectados con parásitos de malaria. 2 de los 15 portadores y 14 de los 15 no portadores contrajeron malaria. Las verosimilitudes son: pC2(1–pC)13 y pN14(1–pN). Al considerar 11 modelos para cada caso; hay 121 modelos conjuntos (121 pares). La verosimilitud de uno de ellos sale (asumiendo independencia) de multiplicar las verosimilitudes respectivas:

pC2(1–pC)13pN14(1–pN)

pN

pC

Probab de un no ciclémico es menor que de un ciclémico

pN

Probab de un ciclémico es mayor que de un no ciclémico

pC

Verosimilitudes (multiplicadas por 10 elevado a la 7) 0

.1

.2

.3

.4

.5

.6

.7

.8

.9

1

0

0

0

0

0

0

0

0

0

0

0

0

.1

0

582

503

200

48

7

1

0

0

0

0

.2

0

224

193

77

18

3

0

0

0

0

0

.3

0

52

45

18

4

1

0

0

0

0

0

.4

0

8

7

3

1

0

0

0

0

0

0

.5

0

1

1

0

0

0

0

0

0

0

0

.6

0

0

0

0

0

0

0

0

0

0

0

.7

0

0

0

0

0

0

0

0

0

0

0

.8

0

0

0

0

0

0

0

0

0

0

0

.9

0

0

0

0

0

0

0

0

0

0

0

1

0

0

0

0

0

0

0

0

0

0

0

Probabilidades a priori distribuidas uniformemente entre las 121 posibilidades

pN

pC

Probabilidades a posteriori para los 121 modelos según Dr. Abierto

PC

PN

0

.1

.2

.3

.4

.5

.6

.7

.8

.9

1

Pr

1

0

0

0

0

0

0

0

0

0

0

0

0

.9

0

.292 .252 .100 .024 .004

0

0

0

0

0

.672

.8

0

.112 .097 .039 .009 .001

0

0

0

0

0

.258

.7

0

.026 .022 .009 .001

0

0

0

0

0

0

.060

.6

0

.004 .004 .001

0

0

0

0

0

0

0

.009

.5

0

0

1

0

0

0

0

0

0

0

0

0

.4

0

0

0

0

0

0

0

0

0

0

0

0

.3

0

0

0

0

0

0

0

0

0

0

0

0

.2

0

0

0

0

0

0

0

0

0

0

0

0

.1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

Pr

0

0

0

0

0

0

1

.434 .376 .149 .036 .005

Prob( PC=0.3)=.149

Prob( PN=0.9)=..672

El producto de estos dos números (0.01) es la probabilidad de la celda correspondiente al par PC=0.3 y PN=0.9 Probabilidad de que un portador inyectado desarrolle malaria es igual a: Σ P(Malaria |Mi) P(Mi) = (0x0)+(.431x.1)+.......=0.1810

Probabilidad de que un no portador inyectado desarrolle malaria es igual a: Σ P(Malaria |Mi) P(Mi) = (0x1)+(.672x.9)+.......=0.8390

Probabilidades a priori para los 121 modelos según Dr. Informado 0

PN

.1

.2

.3

.4

.5

PC .6

.7

.8

.9

1

Prob

1

.040 .040 .040 .030 .021 .010 .008 .006 .004 .001 .040

.240

.9

.040 .034 .034 .032 .016 .010 .008 .006 .004 .030 .001

.215

.8

.040 .034 .034 .032 .020 .010 .008 .006 .024 .001 .001

.210

.7

.010 .020 .020 .012 .005 .005 .005 .020 .001 .001 .001

.100

.6

.004 .006 .006 .003 .002 .005 .020 .001 .001 .001 .001

.050

.5

.002 .002 .002 .002 .002 .020 .001 .001 .001 .001 .001

.035

.4

0.01 0.01 0.01 0.01 .020 .001 .001 .001 .001 .001 .001

.030

.3

.001 .001 .001 .020 .001 .001 .001 .001 .001 .001 .001

.030

.2

.001 .001 .020 .001 .001 .001 .001 .001 .001 .001 .001

.030

.1

.001 .020 .001 .001 .001 .001 .001 .001 .001 .001 .001

.030

0

.020 .001 .001 .001 .001 .001 .001 .001 .001 .001 .001

.030

Pr

.160 .160 .160 .135 .090 .065 .065 .045 .040 .040 .050

1

Ahora se constriuiría la tabla con las verosimilitudes de manera parecida a como se hizo en el caso anterior y de inmediato se multiplican ambas tablas para obtener las probabilidades a posteriori de todos los pares de modelos según el Dr. Informado.

Probabilidades a posteriori para los 121 modelos según Dr. Informado

PC

PN

0

.1

.2

.3

.4

.5

.6

.7

.8

.9

1

Prob

0

0

0

0

0

0

0

0

0

0

0

0

.0

.9

0

.312 .270 .101 .012 .001

0

0

0

0

0

.696

.8

0

.120 .104 .039 .006

0

0

0

0

0

0

.269

.7

0

.016 .014 .003

0

0

0

0

0

0

0

.034

.6

0

.001 .001

0

0

0

0

0

0

0

0

.002

.5

0

0

.0

0

0

0

0

0

0

0

0

0

.4

0

0

0

0

0

0

0

0

0

0

0

0

.3

0

0

0

0

0

0

0

0

0

0

0

0

.2

0

0

0

0

0

0

0

0

0

0

0

0

.1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

Pr

0

.02

0

0

0

0

0

1

.449 .388 .143 .018

Tal y como hicimos antes con el Dr. Abierto, haremos ahora con el Dr. Informado: Probabilidad de que un portador inyectado desarrolle malaria es igual a: Σ P(Malaria |Mi) P(Mi) = (0x0)+(.449x.1)+(.388x.2).......=0.174

Probabilidad de que un no portador inyectado desarrolle malaria es igual a: Σ P(Malaria |Mi) P(Mi) = (0x1)+(.696x.9)+(.269x.8).......=0.866

En resumen:

Dr.Abierto Dr. Inform ciclémicos

Probabilidad predictiva para unos y otros

no ciclémicos

0.180

0.174

0.859

0.866

Está claro que la probabilidad de ciclémicos es mayor; la pregunta relevante es: ¿cuán protectiva es la condición de ciclémicos?

¿Cuál es la probabilidad de que d= pN – pC sea al menos x?

La probabilidad de que d= pN – pC sea al menos x se denota mediante la expresión PdALx Para el caso del Dr. Abierto y x=0.6, PdAL.6 es la suma del área marcada en la tabla : .292+.232+.100+....+.001 =.879

0

.1

.2

.3

.4

.5

.6

.7

.8

.9

1

Pr

1

0

0

0

0

0

0

0

0

0

0

0

0

.9

0

.292 .252 .100 .024 .004

0

0

0

0

0

.672

.8

0

.112 .097 .039 .009 .001

0

0

0

0

0

.258

.7

0

.026 .022 .009 .001

0

0

0

0

0

0

.060

.6

0

.004 .004 .001

0

0

0

0

0

0

0

.009

.5

0

0

1

0

0

0

0

0

0

0

0

0

.4

0

0

0

0

0

0

0

0

0

0

0

0

.3

0

0

0

0

0

0

0

0

0

0

0

0

.2

0

0

0

0

0

0

0

0

0

0

0

0

.1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

Pr

0

0

0

0

0

0

1

.434 .376 .149 .036 .005

PdALx para ambos evaluadores y diferentes valores de x X

0

.5

.6

.7

.8

.9

Abierto

1

.968

.879

.656

.292

0

Informado 1

.988

.922

.702

.312

0

P(pN – pC > 0.6 | datos) Densidad beta (15,2) Densidad beta (3,14)

Producto de verosimilitudes PN14(1-pN) PN14(1-pN) PC2(1-pC)13 PC2(1-pC)13

PdALx = P(pN – pC > x) (exacta, usando Minitab o soft equivalente) x 0 0.1 0.2 0.3 0.4

PdALx 1.00 1.00 1.00 1.00 0.99

x 0.5 0.6 0.7 0.8 0.9

PdALx 0.96 0.82 0.52 0.21 0.05

PdALx (Probabilidad de que la diferencia sea al menos x) en forma gráfica: 1 PdALx .8

0.816 = PdAL.6

.6 .4 .2 0

0

.2

.4

.6

.8

1 x

Intervalos de probabilidad para diferencias de proporciones pT es beta (aT,bT)

pC es beta (aC,bC)

rT = aT/ (aT+bT)

rC = aC/ (aC+bC)

r+T= (aT+1)/ (aT+bT+1)

r+C= (aC+1)/ (aC+bC+1)

tT= {rT (rT+-rT)}1/2

tC= {rC (rC+-rC)}1/2

Z =

d − ( rT − rC ) t −t 2 T

2 C

Intervalo de probabilidad para d = p T - pC

( rT − rC )  Z

1−

α

t +t 2 T

2 C

2

Evaluación de hipótesis nula (H: d=0) equivale a examinar si o está o no dentro del intervalo

Prostitutas en Zaire: condones y seropositividad a HIV No usan 100 267 367

Sero + Sero Total

pL beta (101,268)

Usan 0 6 6

PH beta (1,7)

rL = 101/369

rH = 1/8

tL= .0231793

tH= .1102396

(rL − rH )  Z

1−

α

t +t 2 L

2 H

= .149  .221

2

Intervalo al 95%: - 0.72 ; 0.37

Frecuentismo vs. Bayesianismo Seis comparaciones 

1. Probabilidades de datos vs. Probabilidades de parámetros (y también datos).



2. Evidencia usada:

• Frecuentismo mide la específica de •

un experimento. La distribución depende de toda la información disponible.



3. Depende de las probabilidades de resultados que podrían o no ocurrir:

• Mediciones frecuentistas (e.g., valores p,intervalos de confianza) incorporan probabilidades de datos que podrían no haber ocurrido.

• Probabilidades a posteriori dependen solo de los datos a través de la verosimilitud, que se calcula a partir de datos observados.



4. Flexibilidad:

• Las mediciones del frecuentismo dependen del diseño, el cual debe cumplirse como se previó.

• Bayesianismo: continúa la actualización siempre que haya nuevos datos. El tamaño muestral no ha de establecerse antes. Un experimento puede detenerse en cualquier momento y por cualquier razón .



5. Probabilidades predictivas

• Frecuentismo: asume valores •



particulares de parámetros o hipótesis. Bayesianismo: promedia sobre los parámetros.

6. Toma de decisiones

• Frecuentismo: históricamente las evita • Bayesianismo: se pronuncia sobre pérdidas y ganancias de cada decisión de modo explícito.

Los controles son esenciales E.E. Peacock, Medical World News, Sept 1, 1972: Un día, cuando yo era aún estudiante de medicina, un importante cirujano de Boston visitó nuestra escuela y ofreció una conferencia sobre un estudio basado en un gran número de pacientes que habían sido objeto de operación vascular reconstructiva. Al fin de la charla, un joven estudiante que estaba atrás preguntó tímidamente: ¿Tenía Ud.. controles? El gran cirujano sonrió y dijo ”Quiere Ud.. decir si yo dejé de operar a la mitad de los pacientes?" La audiencia estaba en vilo. La voz de atrás respondió quedamente: ”Sí, en eso estaba pensando?”. El puño del visitante sonó como un trueno. “Desde luego, no. Ello hubiera matado a la mitad de ellos”. En medio del silencio se pudo escuchar la pregunta casi inaudible del estudiante: “¿Cuál mitad?”

Related Documents

Luis Carlos Galan
June 2020 6
Luis Carlos Galan
June 2020 6
Estadistica
November 2019 25
Estadistica
August 2019 43

More Documents from ""