Probabilidades Traduccion.pdf

  • Uploaded by: Joffre Yapu
  • 0
  • 0
  • April 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Probabilidades Traduccion.pdf as PDF for free.

More details

  • Words: 171,857
  • Pages: 531
CHAPTER1

Análisis Combinatorial 1,1 1,2 1,3 1,4 1,5 1,6

1,1

Introducción EL PRINCIPIO BÁSICO DE CONTAR Permutaciones Combinaciones COEFICIENTES MULTINOMIALES EL NÚMERO DE SOLUCIONES ENTERAS DE ECUACIONES

Introducción Aquí está un problema típico del interés que implica probabilidad: un sistema de comunicación es consistir en N antenas aparentemente idénticas que se van a alinear en un orden lineal. El sistema resultante será capaz de recibir todas las señales entrantes, y se llamará Funcional— siempre y cuando no haya dos antenas consecutivas defectuosas. Si resulta que exactamente M Su N antenas son defectuosas, ¿cuál es la probabilidad de que el sistema resultante será funcional? Por ejemplo, en el caso especial N = 4 y M = 2, hay 6 configuraciones posibles del sistema, a saber, 0110 0 101 1 010 0 011 1 001 1 100 donde 1 significa que la antena está funcionando y 0 que está defectuosa. Debido a que el sistema resultante será funcional en los 3 primeros arreglos y no funcional en los 3 restantes, parece razonable tomar como la probabilidad deseada. En el caso del general N Y m, podríamos calcular la probabilidad de que el sistema es funcional de una manera similar. Es así, podemos contar el número de configuraciones que dan lugar a que el sistema sea funcional y luego dividir por el número total de todas las configuraciones posibles. De la discusión anterior, vemos que sería útil tener un método eficaz para contar el número de maneras que las cosas pueden ocurrir. De hecho, muchos problemas en la teoría de la probabilidad pueden ser resueltos simplemente contando el número de maneras diferentes que un cierto acontecimiento puede ocurrir. La teoría matemática del conteo se conoce formalmente como Análisis combinatorio.

1,2

EL principio básico de contar

El principio básico de contar será fundamental para todo nuestro trabajo. Sin apretar, afirma que si un experimento puede resultar en cualquiera de M posibles resultados y si otro experimento puede resultar en N posibles resultados, entonces hay Mn posibles resultados de los dos experimentos. 1

El principio básico de contar Supongamos que se deben realizar dos experimentos. Entonces si el experimento 1 puede resultar en uno de M posibles resultados y si, para cada resultado del experimento 1, hay N posibles resultados del experimento 2, luego juntos hay Mn posibles resultados de los dos experimentos. Prueba del principio básico: El principio básico puede ser probado enumerando todos los resultados posibles de los dos experimentos; Es decir (1, 1), (1, 2), ..., (1n) (2, 1), (2, 2), ..., (2n) # # # (m, 1), (m, 2), ..., (m,n) donde decimos que el resultado es (i, j) si el experimento 1 resulta en su iel resultado posible y el experimento 2 resulta en su jresultado posible. Por lo tanto, el conjunto de posibles resultados consiste en M filas, cada una que contiene N Elementos. Esto prueba el resultado. EJEMPLO 2ª UNA pequeña comunidad formada por 10 mujeres, cada una de las cuales tiene 3 hijos. Si una mujer y uno de sus hijos deben ser elegidos como madre e hijo del año, ¿cuántas opciones diferentes son posibles? Solución. Al considerar la elección de la mujer como el resultado del primer experimento y la elección subsiguiente de uno de sus hijos como resultado del segundo experimento, vemos desde el principio básico que hay 10 * 3 = 30 opciones posibles. . Cuando se realizan más de dos experimentos, se puede generalizar el principio básico. El principio básico generalizado de contar Sí R los experimentos que se van a realizar son tales que el primero puede dar lugar a cualquiera de n1 posibles resultados; y si, para cada uno de estos n1 posibles resultados, hay n2 posibles resultados del segundo experimento; y si, para cada uno de los posibles resultados de los dos primeros experimentos, hay n3 posibles resultados del tercer

experimento; y si..., entonces hay un total de n1 · n2 ···nR posibles resultados de la R Experimentos.

EJEMPLO 2B Un Comité de planificación universitaria consiste en 3 estudiantes de primer año, 4 de segundo año, 5 jóvenes y 2 personas mayores. Un Subcomité de 4, que consiste en 1 persona de cada clase, debe ser elegido. ¿Cuántas subcomisiones diferentes son posibles?

3 Sección 1,3

Permutaciones

Solución. Podemos considerar la elección de un Subcomité como resultado combinado de los cuatro experimentos separados de elegir un único representante de cada una de las clases. A continuación, se deriva de la versión generalizada del principio básico de que hay 3 * 4 * 5 * 2 = 120 posibles subcomisiones. . EJEMPLO 2C ¿Cuántas diferentes placas de 7 plazas son posibles si los 3 primeros lugares deben ser ocupados por letras y la final 4 por números? Solución. Por la versión generalizada del principio básico, la respuesta es 26 · 26.· 26 · 10 · 10 · 10 · 10 = 175.760.000. EJEMPLO 2D ¿Cuántas funciones definidas en N los puntos son posibles si cada valor funcional es 0 o 1? Solución.1, 2,...,n, sigue que hay 2Let que los puntos sean 1, 2,...n,nposibles funciones.. Desde f(i) debe ser 0 o 1 para cada me =.

EJEMPLO 2E En el ejemplo 2C, ¿cuántas matrículas serían posibles si se prohibiera la repetición entre letras o números? Solución. En este caso, habría 26 · 25 · 24 · 10 · 9 · 8 · 7 = 78.624.000. posibles matrículas.

1, 3

Permutaciones ¿Cuántos arreglos ordenados diferentes de las letras a, bY C son posibles? Por enumeración directa vemos que hay 6, es decir, ABC, ACB, BAC, CAS, CABY Cba. Cada arreglo se conoce como un Permutación. Así, hay 6 posibles permutaciones de un conjunto de 3 objetos. Este resultado pudo también haber sido obtenido del principio de base, puesto que el primer objeto en la permutación puede ser cualquiera de los 3, el segundo objeto en la permutación se puede entonces elegir de cualquiera de los 2 restantes, y el tercer objeto en la permutación es entonces el remaini NG 1. Así, hay 3 · 2 · 1 = 6 posibles permutaciones. Suponga que ahora que tenemos N Objetos. Razonamiento similar al que acabamos de utilizar para las 3 letras entonces muestra que hay n(N − 1)(N − 2)···3 · 2 · 1 = n! diferentes permutaciones de la N Objetos. EJEMPLO 3A

4

¿Cuántas P1P2E2P3E1R órdenes de bateo diferentes son posibles para un equipo de béisbol compuesto por 9 jugadores? Solución. ¡ Hay 9! = 362.880 posibles órdenes de bateo. . EJEMPLO 3B UNA clase en teoría de la probabilidad consiste en 6 hombres y 4 mujeres. Un examen se da, y los estudiantes se clasifican según su funcionamiento. Asuma que no hay dos estudiantes que obtengan la misma puntuación. 1. 2.

¿Cuántas clasificaciones diferentes son posibles? ¿Si los hombres se alinean apenas entre sí mismos y las mujeres apenas entre sí mismos, cuántos diversos rankings son posibles? Solución. (a) debido a que cada ranking corresponde a un arreglo ordenado particular de las 10 personas, la respuesta a esta parte es 10! = 3.628.800.

5

(b) ya que hay 6! clasificaciones posibles de los hombres entre sí mismos y 4! posibles clasificaciones de las mujeres entre sí, se desprende del principio básico de que hay (6!) (4!) = (720)(24) = 17.280 posibles rankings en este caso. . EJEMPLO 3C La Sra. Jones tiene 10 libros que va a poner en su estantería. De éstos, 4 son libros de las matemáticas, 3 son libros de la química, 2 son libros de la historia, y 1 es un libro de la lengua. La Sra. Jones quiere organizar sus libros para que todos los libros que tratan con el mismo tema están juntos en la estantería. ¿Cuántos arreglos diferentes son posibles? Solución. ¡ Hay 4! 3! 2! 1! los arreglos tales

6

que los libros de las matemáticas son los primeros en la línea, entonces los libros de la química, entonces los libros de la historia, y entonces el libro de la lengua. Del mismo modo, para cada orden posible de los temas, hay 4! 3! 2! 1! posibles arreglos. Por lo tanto, como hay 4! posibles órdenes de los sujetos, la respuesta deseada es 4! 4! 3! 2! 1! = 6912. . Ahora se determinará el número de permutaciones de un conjunto de N objetos cuando algunos de los objetos son indistinguibles entre sí. Para poner esta situación en nuestras mentes, consideremos el siguiente ejemplo. EJEMPLO 3D

7

¿Cuántos arreglos de letra diferentes se pueden formar a partir de las letras Pimienta? Solución. Primero tenemos en cuenta que hay 6! permutaciones de las letras P1E1P2P3E2R Cuando los 3Py los 2Ese distinguen unos de otros. Sin embargo, considere cualquiera de estas permutaciones — por ejemplo, P1P2E1P3E2R. Si ahora permutamos el Pentre ellos y el Ees entre ellos, entonces el arreglo resultante todavía sería de la forma PPEPER. ¡ Eso es, los tres! 2! Permutaciones P1P2E1P3E2R P1P3E1P2E2R P1P3E2P2E1R P2P1E1P3E2R P2P1E2P3E1R P2P3E1P1E2R P2P3E2P1E1R P3P1E1P2E2R P3P1E2P2E1R P3P2E1P1E2R P3P2E2P1E1R son de la forma PPEPER. Por lo tanto, hay 6!/(3! 2!) = 60 arreglos posibles de la letra de las letras Pimienta. . Sección 1,4

Combinaciones

8

En general, el mismo razonamiento que el utilizado en el ejemplo 3D muestra que hay n! n1! n2! ··· nr! diferentes permutaciones de N objetos, de los cuales n1 son iguales, n2 son iguales, ...,nR son iguales. EJEMPLO 3e UN torneo de ajedrez tiene 10 competidores, de los cuales 4 son rusos, 3 son de los Estados Unidos, 2 son de Gran Bretaña, y 1 es de Brasil. Si el resultado del torneo enumera sólo las nacionalidades de los jugadores en el orden en que se colocan, ¿cuántos resultados son posibles? Solución. Hay

posibles resultados.

.

Ejemplo 3f ¿Cuántas señales diferentes, cada una de las cuales consta de 9 banderas colgadas en una línea, pueden formarse a partir de un conjunto de 4 banderas blancas, 3 banderas rojas y 2 banderas azules si todas las banderas del mismo color son idénticas? Solución. Existen

diferentes señales. 1, 4

.

Combinaciones A menudo estamos interesados en determinar el número de diferentes grupos de R objetos que se podrían formar a partir de un total de N Objetos. Por ejemplo, ¿cuántos grupos diferentes de 3 se pueden seleccionar de los 5 elementos A, B, C, DY E? Para responder a esta pregunta, la razón es la siguiente: ya que hay 5 maneras de seleccionar el elemento inicial, 4 maneras de seleccionar el siguiente elemento, y 3 maneras de seleccionar el elemento final, hay así 5 · 4 · 3 formas de seleccionar el grupo de 3 cuando el orden en el que se seleccionan los elementos es relevante. Sin embargo, dado que cada grupo de 3 — digamos, el grupo que consta de elementos A, BY C— se contará 6 veces (es decir, todas las permutaciones ABC, ACB, BAC, CAS, CABY Cba se contabilizará cuando el orden de selección sea relevante), se deduce que el número total de grupos que se pueden formar es ·

·

En general, como n(N − 1) · · · (N − R + 1) representa el número de formas diferentes que un grupo de R los artículos se pueden seleccionar de N los artículos cuando el orden de selección es relevante, y como cada grupo de R los artículos serán contados r! veces en este conteo, se deduce que el número de grupos diferentesdiferentes señales. .

9

1, 4

Combinaciones A menudo estamos interesados en determinar el número de diferentes grupos de R objetos que se podrían formar a partir de un total de N Objetos. Por ejemplo, ¿cuántos grupos diferentes de 3 se pueden seleccionar de los 5 elementos A, B, C, DY E? Para responder a esta pregunta, la razón es la siguiente: ya que hay 5 maneras de seleccionar el elemento inicial, 4 maneras de seleccionar el siguiente elemento, y 3 maneras de seleccionar el elemento final, hay así 5 · 4 · 3 formas de seleccionar el grupo de 3 cuando el orden en el que se seleccionan los elementos es relevante. Sin embargo, dado que cada grupo de 3 — digamos, el grupo que consta de elementos A, BY C— se contará 6 veces (es decir, todas las permutaciones ABC, ACB, BAC, CAS, CABY Cba se contabilizará cuando el orden de selección sea relevante), se deduce que el número total de grupos que se pueden formar es De R elementos que se podrían formar a partir de un conjunto de N artículos es n(N − 1)··· (N − R + 1)

! r! (N −

r)! r! Notación y terminología

Definimos

, para R... N, para ¡N! R)! ¡Lla!

y decir que r a la vez.†

representa el número de combinaciones posibles de n objetos tomados

Así representa el número de diferentes grupos de tamaño r que podrían seleccionarse de un conjunto de n objetos cuando el orden de selección no se considera relevante. Ejemplo 4a Se formará un comité de 3 personas a partir de un grupo de 20 personas. ¿Cuántos comités diferentes son posibles? posibles. .

Solución. Hay

1140

comités

Ejemplo 4b De un grupo de 5 mujeres y 7 hombres, ¿cuántos comités diferentes conformados por 2 mujeres y 3 hombres pueden formarse? ¿Qué pasa si 2 de los hombres están peleando y se niegan a servir juntos en el comité?

Solución. Ya que hay

350 comités

posibles grupos de 2 mujeres, y Posible grupos de 3 hombres, se desprende del principio básico de que hay

posibles constituidos por 2 mujeres y 3 hombres. Ahora Supongamos que 2 de los hombres se niegan a servir juntos. Porque un total de

10

5 de la 35 grupos posibles de 3 hombres contienen ambos los hombres enemistados, se sigue que hay 35 − 5 = 30 grupos que no contienen a los dos hombres enemistados. Porque todavía hay hay 30 · 10 = 300 posibles comités en este caso. .

10 maneras de elegir a las 2 mujeres,



Por Convención, 0! se define como 1. Por lo tanto, a 0 cuando sea me < 0 el me > n.

1. también tomamos

Sección 1,4

a ser igual

Combinaciones

EJEMPLO 4C Considere un conjunto de N antenas de las que M son defectuosos y N − M son funcionales y asumen que todos los defectos y todos los funcionales se consideran indistinguibles. ¿Cuántas órdenes lineales hay en las que no hay dos defectos consecutivos? Solución. Imagine que el N − M las antenas funcionales se alinean entre sí. Ahora, si no hay dos defectuosos ser consecutivos, entonces los espacios entre las antenas funcionales deben cada uno contener a lo más una antena defectuosa. Es, en el N − M + 1 posiciones posibles — representadas en la figura 1,1 por los cuidadores — entre los N − M antenas funcionales, debemos seleccionar M de estos en los que poner las antenas defectuosas. Por lo tanto, hay posibles ordenamientos en los que hay al menos una antena funcional entre dos cualesquiera defectuosas. .

^ 1 ^ 1 ^ 1... ^ 1 ^ 1 ^ 1 funcional ^ Coloque para a lo más uno defectuoso

Figura 1,1: No hay defectos consecutivos

Una identidad combinatoria útil es ... R ... n (4, 1) La ecuación (4,1) puede ser probada analíticamente o por el siguiente argumento combinatorio: considere un grupo de N objetos, y fijar la atención en algún particular uno de estos objetos — llámalo objeto 1. Ahora, hay grupos de tamaño R que contienen el objeto 1 (ya que cada Este grupo se forma seleccionando R − 1 del restante N

11

− 1 objetos). Además, hay Como hay un total de

grupos de tamaño R que no contengan el objeto 1. grupos de tamaño r, La ecuación (4,1) sigue.

Los valores se refieren a menudo como Coeficientes binomiales debido a su prominencia en el teorema binomial. El teorema binomial n

x

y

n k 0

n k

xk yn

k

(4, 2)

Se presentarán dos pruebas del teorema binomial. La primera es una prueba por inducción matemática, y la segunda es una prueba basada en consideraciones combinativas. Prueba del teorema binomial por inducción: Cuando N = 1, ecuación (4,2) reduce a

X

X

Asuma la ecuación (4,2) para N − 1. ahora,

Xkyn− 1 −k k= 0

Xkyn−k k= 0

k= 0

Dejar me = K + 1 en la primera suma y me = K en la segunda suma, encontramos que

Este grupo se forma seleccionando R − 1 del restante N − 1 objetos). Además, hay grupos de tamaño R que no contengan el objeto 1. Como hay un total de tamaño r, La ecuación (4,1) sigue.

grupos de

Los valores se refieren a menudo como Coeficientes binomiales debido a su prominencia en el teorema binomial.

12

El teorema binomial n

x

y

n k 0

n k

xk yn

k

(4, 2)

Se presentarán dos pruebas del teorema binomial. La primera es una prueba por inducción matemática, y la segunda es una prueba basada en consideraciones combinativas. Prueba del teorema binomial por inducción: Cuando N = 1, ecuación (4,2) reduce a

X

X

Asuma la ecuación (4,2) para N − 1. ahora,

Xkyn− 1 −k k= 0

Xkyn−k k= 0

k= 0

Dejar me = K + 1 en la primera suma y me = K en la segunda suma, encontramos que

n

xiyn−i = xn me − 1

i xiyn−me + yn

n i i=1 −

= xN

xiyn−me + yn i=1

13

N

xiyn−i donde la igualdad siguiente a la última sigue por la ecuación (4,1). Por inducción, el teorema ahora se prueba. Prueba combinatoria del teorema binomial:

Considere el producto

(x1 + y1)(x2 + y2)··· (xN + yn) Su expansión consiste en la suma de 2N términos, cada término es el producto de N Factores. Además, cada uno de los 2N términos en la suma contendrá como un factor ya sea xme Lla yme para cada me = 1,2,...,n. Por ejemplo, (x1 + y1)(x2 + y2) = x1x2 + x1y2 + y1x2 + y1y2 Ahora, ¿cuántos de los 2N términos en la suma tendrá K Su xiy (N − k) La suya yies como factores? Como cada término que consiste en K Su xiy (N − k) La suya yicorresponde a la elección de un grupo de K desde el N Valores x1,x2,...,xn, hay

tales términos. Por lo

tanto, dejar xme = x,yme = y,me = 1...,n, vemos que

xkyn−K para= 0

Sección 1,5

Coeficientes multinomiales

EJEMPLO 4D Ampliar (X + y)3. Solución.

. EJEMPLO 4E ¿Cuántos subconjuntos hay de un conjunto consistente en N ¿Elementos? Solución. Puesto que hay deseada es

subconjuntos de tamaño k, la respuesta

14 n

= (1 + 1)N C Ln k= 0

Este resultado también podría haberse obtenido asignando el número 0 o el número 1 a cada elemento del conjunto. A cada asignación de números, corresponde, en una manera uno-auno, un subconjunto, a saber, ese subconjunto que consiste en todos los elementos que se asignaron el valor 1. Como hay 2N posibles asignaciones, el resultado sigue. Tenga en cuenta que hemos incluido el conjunto formado por 0 elementos (es el conjunto nulo) como subconjunto del conjunto original. Por lo tanto, el número de subconjuntos que contienen al menos un elemento es 2N − 1. . 1,5

Coeficientes multinomiales En esta sección, consideramos el siguiente problema: un conjunto de N los elementos distintos se dividirán en R distintos grupos de tamaños respectivos n1,n2,...,nrDonde. ¿Cuántas divisiones diferentes son posibles? Para responder a esta pregunta, observamos que hay elección del primer grupo, hay

posibles opciones para el primer grupo; para cada posibles opciones para el segundo grupo; para

cada elección de los dos primeros grupos, hay posibles opciones para el tercer grupo; y así sucesivamente. A continuación, se deriva de la versión generalizada del principio de conteo básico de que hay

n! n n 1 ! n 1! n n! n1! n2! nr ! posibles divisiones.

n n1

n1 ! n2 ! n2!

n

n1

n2 0! n r !

nr

1

!

15

Otra manera de ver este resultado es considerar el N valores 1, 1,..., 1, 2,... 2..., r,...,rDonde me Aparece nme veces, para me = 1...,r. Cada permutación de estos valores corresponde a una división de la N elementos en el R grupos de la siguiente manera: dejar que la permutación i1,i2,...,iN corresponden a la asignación del elemento 1 al grupo i1, tema 2 al grupo i2, y así sucesivamente. Por ejemplo, si N = 8 y si n1 = 4 n2 = 3, y n3 = 1, entonces la permutación 1, 1, 2, 3, 2, 1, 2, 1 corresponde a la asignación de los artículos 1, 2, 6, 8 al primer grupo, los puntos 3, 5, 7 al segundo grupo, y el punto 4 al tercer grupo. Porque cada permutación rinde una división de los artículos y todos los resultados posibles de la división de una cierta permutación, sigue que el número de divisiones de N elementos en R distintos grupos de tamaños n1,n2,...,nR es el mismo que el número de permutaciones de N elementos de los cuales n1 son iguales, y n2 son iguales, ... Y nR son iguales, que se muestra en la sección n! 1.3 a igualar . n1!n2!···nr! Notación Sí n 1

n2

nr

n , definimos n n 1, n2,

, nr

n n1, n2, n! n 1! n2!

, nr

Por

nr!

n representa el número de divisiones posibles de n 1, n 2, , nr objetos en r distintos grupos de tamaños respectivos n1 , n2 , , nr . Así

n Distintas

EJEMPLO 5A UN departamento del policía en una ciudad pequeña consiste en 10 oficiales. Si la política del Departamento es tener 5 de los oficiales patrullando las calles, 2 de los oficiales que trabajan a tiempo completo en la estación, y 3 de los oficiales en la reserva en la estación, ¿cuántas divisiones diferentes de los 10 oficiales en los 3 grupos son posible s? Solución. Hay

2520 posibles divisiones.

.

EJEMPLO 5B Diez niños deben ser divididos en un Un equipo y un B equipo de 5 cada uno. Lla Un equipo jugará en una liga y el B equipo en otro. ¿Cuántas divisiones diferentes son posibles? Solución. Hay

252 posibles divisiones.

.

EJEMPLO 5C Con el fin de jugar un juego de baloncesto, 10 niños en un patio de recreo se dividen en dos equipos de 5 cada uno. ¿Cuántas divisiones diferentes son posibles?

16 Sección 1,5

Coeficientes multinomiales

Solución. Tenga en cuenta que este ejemplo es diferente del ejemplo 5B porque ahora el orden de los dos equipos es irrelevante. Es que no hay Un Y B equipo, pero sólo una división formada por 2 grupos de 5 cada uno. Por lo tanto, la respuesta deseada es

. La prueba del teorema siguiente, que generaliza el teorema binomial, se deja como ejercicio. Teorema de la multinomia

x1

x2

xr

n

n1, n1

, nr : nr n

n n1, n 2,

n

, nr

n

x11 x22

Esto es, la suma es sobre todos los vectores de valor entero no negativos n1 , n2 , Que n 1 n2 nr n.

Los números

n

xr r

, n r Tal

se conocen como coeficientes multinomiales.

EJEMPLO 5D En la primera ronda de un torneo de nocaut que implica N C LM jugadores, el N los jugadores se dividen en n/2 pares, con cada uno de estos pares luego jugando un juego. Los perdedores de los juegos son eliminados mientras que los ganadores pasan a la siguiente ronda, donde el proceso se repite hasta que sólo queda un solo jugador. Suponga que tenemos un torneo Knockout de 8 jugadores. 1. 2.

¿Cuántos resultados posibles hay para la ronda inicial? (Por ejemplo, oneoutcome es que 1 beats 2, 3 beats 4, 5 beats 6 y 7 beats 8.) ¿Cuántos resultados del torneo son posibles, donde un resultado givescomplete información para todas las rondas?

Solución. Una manera de determinar el número de resultados posibles para la ronda inicial es determinar primero el número de emparejamientos posibles para esa ronda. Para ello, tenga en cuenta que el número de formas de dividir los 8 jugadores en un Primera Par, un Segundo Par, un Tercer Par, y a Cuarto por ES

. Así, el número de

emparejamientos posibles cuando no hay orden de los 4 pares es . Para cada uno de estos emparejamientos, hay 2 opciones posibles de cada par en cuanto al ganador de ese juego, mostrando que hay

17

Ihs

posibles resultados de la Ronda 1. (Otra manera de ver esto es notar que hay

posibles opciones de los 4 ganadores y, para cada una de esas opciones, hay 4! formas de emparejar a los 4 ganadores con los 4 perdedores, demostrando que hay 4!

resultados posibles para la primera ronda.) 4! Del mismo modo, para cada resultado de la Ronda 1, hay

posibles resultados de la Ronda

2, 2! 2! y para cada uno de los resultados de las dos primeras rondas, hay

8! posibles resultados

posibles resultados 1! de la ronda 3. Por lo tanto, por el principio básico generalizado de contar, hay 8! del torneo. De hecho, el mismo argumento

puede ser utilizado para demostrar que un torneo Knockout de N = 2M jugadores tiene n! posibles resultados. Conociendo el resultado anterior, no es difícil llegar a un argumento más directo al demostrar que existe una correspondencia uno-a-uno entre el conjunto de posibles resultados del torneo y el conjunto de permutaciones de 1,...,n. Para obtener tal correspondencia, alinee a jugadores como sigue para cualquier resultado del torneo: dé a la fila 1 del ganador del torneo, y dé la fila final-redonda 2 del perdedor. Para los dos jugadores que perdieron en la ronda siguiente a la última, dar rango 3 a la que perdió al jugador clasificado 1 y dar rango 4 a la que perdió al jugador clasificado 2. Para los cuatro jugadores que perdieron en la segunda vuelta a la última ronda, dar rango 5 a la que perdió a jugador clasificado 1, rango 6 a la que perdió al jugador clasificado 2, rango 7 a la que perdió al jugador clasificado 3 , y el rango de 8 a la que perdió al jugador clasificado 4. Continuar de esta manera da un rango a cada jugador. (Una descripción más concisa es dar al ganador del rango de torneo 1 y dejar que el rango de un jugador que perdió en una ronda de tener 2K partidos be 2K más el rango del jugador que lo golpeó, por K = 0...,M − 1.) de esta manera, el resultado del torneo puede ser representado por una permutación i1,i2,...,inDonde iJ es el jugador al que se le dio rango j. Debido a que los diferentes resultados del torneo dan lugar a diferentes permutaciones, y debido a que hay un resultado del torneo para cada permutación, se sigue que hay el mismo número de posibles resultados del torneo, ya que hay permutaciones de 1,...,n. . EJEMPLO 5e 4! formas de emparejar a los 4 ganadores con los 4 perdedores, demostrando que hay 4!

resultados posibles para la primera ronda.) 4! Del mismo modo, para cada resultado de la Ronda 1, hay 2, 2!

posibles resultados de la Ronda

18

2! y para cada uno de los resultados de las dos primeras rondas, hay

8! posibles resultados

posibles resultados 1! de la ronda 3. Por lo tanto, por el principio básico generalizado de contar, hay 8! del torneo. De hecho, el mismo argumento

puede ser utilizado para demostrar que un torneo Knockout de N C LM jugadores tiene n! posibles resultados. Conociendo el resultado anterior, no es difícil llegar a un argumento más directo al demostrar que existe una correspondencia uno-a-uno entre el conjunto de posibles resultados del torneo y el conjunto de permutaciones de 1,...,n. Para obtener tal correspondencia, alinee a jugadores como sigue para cualquier resultado del torneo: dé a la fila 1 del ganador del torneo, y dé la fila final-redonda 2 del perdedor. Para los dos jugadores que perdieron en la ronda siguiente a la última, dar rango 3 a la que perdió al jugador clasificado 1 y dar rango 4 a la que perdió al jugador clasificado 2. Para los cuatro jugadores que perdieron en la segunda vuelta a la última ronda, dar rango 5 a la que perdió a jugador clasificado 1, rango 6 a la que perdió al jugador clasificado 2, rango 7 a la que perdió al jugador clasificado 3 , y el rango de 8 a la que perdió al jugador clasificado 4. Continuar de esta manera da un rango a cada jugador. (Una descripción más concisa es dar al ganador del rango de torneo 1 y dejar que el rango de un jugador que perdió en una ronda de tener 2K partidos be 2K más el rango del jugador que lo golpeó, por K = 0...,M − 1.) de esta manera, el resultado del torneo puede ser representado por una permutación i1,i2,...,inDonde iJ es el jugador al que se le dio rango j. Debido a que los diferentes resultados del torneo dan lugar a diferentes permutaciones, y debido a que hay un resultado del torneo para cada permutación, se sigue que hay el mismo número de posibles resultados del torneo, ya que hay permutaciones de 1,...,n. . EJEMPLO 5e

. ∗1,6

El número de soluciones de enteros de ecuaciones Hay rN posibles resultados cuando N las bolas distinguibles deben ser distribuidas en R urnas distinguibles. Este resultado sigue porque cada bola puede ser distribuida en cualquiera de R posibles urnas. Ahora vamos, sin embargo, supongamos que el N las bolas son indistinguibles el uno del otro. En este caso, ¿cuántas medidas de resultado diferentes son posibles? Como las bolas son indistinguibles, se deduce que el resultado de la experiencia de la distribución de la N bolas en R las urnas pueden ser descritas por un vector (x1,x2,...,xr)Donde xme denota el número de bolas que se distribuyen en el iTH urna. Por lo tanto, el problema se reduce a encontrar el número de vectores de valor entero no negativos distintos (x1,x2,...,xr) tal que x1 + x2 + ··· + xR = n ∗Los asteriscos denotan el material que es opcional.

Sección 1,6

El número de soluciones de enteros de ecuaciones

19

Para calcular este número, comencemos considerando el número de soluciones integervalued positivas. Hacia ese extremo, imaginen que tenemos N objetos indistinguibles alineados y que queremos dividirlos en R grupos no vacíos. Para ello, podemos seleccionar R − 1 de los N − 1 espacios entre objetos adyacentes como puntos divisorios. (Vea la figura 1,2.) Por ejemplo, si tenemos N = 8 y R = 3 y elegimos los 2 divisores para obtener OOO OO | |

0 ^ 0 ^ 0 ^... ^ 0 ^ 0 n objetos 0 Elegir r 1 de los espacios ^.

Figura 1,2: Número de soluciones positivas

entonces el vector resultante es x1 = 3x2 = 3x3 = 2. como hay arepossible selecciones, tenemos la siguiente proposición. ProPosición 6,1. Hay aredistinct vectores de valor entero

positivo (x1, −

x2,...,xr) satisfaciendo la ecuación x1 + x2 + ··· + xR = n

xMe > 0Me = 1...,r

Para obtener el número de soluciones no negativas (en contraposición a positivas), tenga en cuenta que el número de soluciones no negativas de x1 + x2 + ··· + xR = N es el mismo que el número de soluciones positivas de y1 + ··· + yR = N + R (visto por dejar yme = xme + 1 de los me = 1...,r). Por lo tanto, de la Proposición 6,1, obtenemos la siguiente proposición. ProPosición 6,2. Hay (x1,x2,...,xr) satisfaciendo la ecuación

vectores de valor entero no negativos distintos

x1 + x2 + ··· + xR = n

(6, 1)

EJEMPLO 6A ¿Cuántas soluciones de valores enteros no negativos de x1 + x2 = 3 son posibles?

Solución. Hay

4 tales soluciones: (0,3), (1, 2), (2, 1), (3,0). .

20

EJEMPLO 6B Un inversor tiene 20000 dólares para invertir entre 4 posibles inversiones. Cada inversión debe estar en unidades de mil dólares. Si se va a invertir el total de 20000, ¿cuántas estrategias de inversión diferentes son posibles? ¿Qué pasa si no se necesita invertir todo el dinero? Solución. Si dejamos xi,me = 1, 2, 3, 4, denotan el número de miles invertidos en inversión i, entonces, cuando todo va a ser invertido, x1,x2,x3,x4 son enteros que satisfacen la ecuación x1 + x2 + x3 + x4 = 20

xme Efectos 0

Por lo tanto, por la proPosición 6,2, hay 1771 posibles estrategias de inversión. Si no todo el dinero necesita ser invertido, entonces si dejamos x5 denotar la cantidad guardada en reserva, una estrategia es un vector no negativo de valor entero (x1,x2,x3,x4,x5) satisfaciendo la ecuación x1 + x2 + x3 + x4 + x5 = 20

Por lo tanto, por la proPosición 6,2, hay ahora

10.626 posibles estrategias.

.

EJEMPLO 6C ¿Cuántos términos hay en la expansión multinomial de (x1 + x2 + ··· + xr)n? Solución. (x

xNo r

donde la suma es de todo valor entero no negativo (n1,...,nr) tal que n1 + ··· + nR = n. Por lo tanto, por la proPosición 6,2, hay

tales términos. .

EJEMPLO 6D Volvamos a considerar el ejemplo 4C, en el que tenemos un conjunto de N artículos, de los cuales M son (indistinguibles y) defectuosos y los restantes N − M son (también indistinguibles y) funcionales. Nuestro objetivo es determinar el número de ordenamientos lineales en los que no hay dos defectuosos uno al lado del otro. Para determinar este número, imaginemos que los artículos defectuosos están alineados entre sí y los funcionales están ahora puestos en posición. Vamos a denotar x1 como el número de elementos funcionales a la izquierda del primer defectuoso, x2 como el número de elementos funcionales entre los dos primeros defectos, y así sucesivamente. Eso es, esquemáticamente, tenemos x1 0 x2 0···xM 0 xm+1

21

Ahora, habrá al menos un elemento funcional entre cualquier par de defectos, siempre y cuando xme > 0me = 2...,m. Por lo tanto, el número de resultados que satisfacen la condición es el número de vectores x1,...,xm+1 que satisfacen la ecuación x1 + ··· + xm+1 = N − m

x1 Cuenta 0, xm+1 Cuenta 0, xme > 0, me = 2,..., m Resumen

Pero, al dejar y1 = x1 + 1 de losyme = xi,me = 2...,m,ym+1 = xm+1 + 1, vemos que este número es igual al número de vectores positivos (y1,...,ym+1) que satisfacen la ecuación y1 + y2 + ··· + ym+1 = N − Sr + 2 de

Por lo tanto, por la proPosición 6,1, hay tales resultados, de acuerdo con los resultados del ejemplo 4C. Suponga ahora que estamos interesados en el número de resultados en los cuales cada par de artículos defectuosos está separado por al menos 2 artículos funcionales. Por el mismo razonamiento que el aplicado anteriormente, esto equivale al número de vectores que satisfacen la ecuación x1 + ··· + xm+1 = N − m x1 Cuenta 0, xm+1 Cuenta 0, xme Efectos 2, me = 2,..., m Al dejar y1 = x1 + 1 de losyme = xme − 1me = 2...,m,ym+1 = xm+1 + 1, vemos que esto es lo mismo que el número de soluciones positivas de la ecuación y1 + ··· + ym+1 = N − 2Sr + 3 de

Por lo tanto, de la proPosición 6,1, hay

tales resultados.

.

Resumen El principio básico de contar los Estados que si un experimento que consiste en dos fases es tal que hay N posibles resultados de la fase 1 y, para cada uno de estos N resultados, hay M los posibles resultados de la fase 2, Nm posibles resultados del experimento. Hay n! = n(N − 1)··· 3 · 2 · 1 posibles ordenamientos lineales de N Artículos. La cantidad 0! se define como igual a 1. Dejar n! i)! i! Cuando 0 ... me ... n, y dejar que sea igual a 0 de lo contrario. Esta cantidad representa el número de subgrupos diferentes de tamaño me que se puede elegir de un conjunto de tamaño n. A menudo se denomina Ahora, habrá al menos un elemento funcional entre cualquier par de defectos, siempre y cuando

xme > 0me = 2...,m. Por lo tanto, el

22

número de resultados que satisfacen la condición es el número de vectores x1,...,xm+1 que satisfacen la ecuación x1 + ··· + xm+1 = N − m

x1 Cuenta 0, xm+1 Cuenta 0, xme > 0, me = 2,..., m Resumen

Pero, al dejar y1 = x1 + 1 de losyme = xi,me = 2...,m,ym+1 = xm+1 + 1, vemos que este número es igual al número de vectores positivos (y1,...,ym+1) que satisfacen la ecuación y1 + y2 + ··· + ym+1 = N − Sr + 2 de

Por lo tanto, por la proPosición 6,1, hay tales resultados, de acuerdo con los resultados del ejemplo 4C. Suponga ahora que estamos interesados en el número de resultados en los cuales cada par de artículos defectuosos está separado por al menos 2 artículos funcionales. Por el mismo razonamiento que el aplicado anteriormente, esto equivale al número de vectores que satisfacen la ecuación x1 + ··· + xm+1 = N − m x1 Cuenta 0, xm+1 Cuenta 0, xme Efectos 2, me = 2,..., m Al dejar y1 = x1 + 1 de losyme = xme − 1me = 2...,m,ym+1 = xm+1 + 1, vemos que esto es lo mismo que el número de soluciones positivas de la ecuación y1 + ··· + ym+1 = N − 2Sr + 3 de

Por lo tanto, de la proPosición 6,1, hay

tales resultados.

.

Resumen El principio básico de contar los Estados que si un experimento que consiste en dos fases es tal que hay N posibles resultados de la fase 1 y, para cada uno de estos N resultados, hay M los posibles resultados de la fase 2, Nm posibles resultados del experimento. Hay n! = n(N − 1)··· 3 · 2 · 1 posibles ordenamientos lineales de N Artículos. La cantidad 0! se define como igual a 1. Dejar n! i)! i! Cuando 0 ... me ... n, y dejar que sea igual a 0 de lo contrario. Esta cantidad representa el número de subgrupos diferentes de tamaño me que se puede elegir de un conjunto de tamaño n. A menudo se denomina coeficiente binomial debido a su prominencia en el teorema binomial,

que

establece

que

N

Para enteros no negativos n1,...,nR sumar a n,

Xiyn−i

23

n! !···nr! es el número de divisiones de N elementos en R distintos subgrupos de solapado de tamaños n1,n2,...,nr.

24

Capítulo 1

Análisis Combinatorial

Problemas 1. Un ¿Cuántas diferentes placas de 7 lugares son 1. 2.

3.

4.

5.

6.

7. 1. 2. 3.

posibles si los primeros 2 sitios son para las letras y los otros 5 para los números? Repita la parte (a) bajo el supuesto de que ninguna letra o número puede repetirse en una sola matrícula. ¿Cuántas secuencias de resultados son posibles cuando se rueda un troquel cuatro veces, donde decimos, por ejemplo, que el resultado es 3, 4, 3, 1 si el primer rollo aterrizó en 3, el segundo en 4, el tercero en 3, y el cuarto en 1? Veinte trabajadores deben ser asignados a 20 trabajos diferentes, uno a cada trabajo. ¿Cuántas asignaciones diferentes son posibles? John, Jim, Jay y Jack han formado una banda formada por 4 instrumentos. Si cada uno de los niños puede jugar los 4 instrumentos, ¿cuántos arreglos diferentes son posibles? ¿Qué pasa si John y Jim pueden tocar los 4 instrumentos, pero Jay y Jack pueden tocar sólo el piano y la batería? Durante años, los códigos de área telefónica en los Estados Unidos y Canadá consistieron en una secuencia de tres dígitos. El primer dígito era un entero entre 2 y 9, el segundo dígito era 0 o 1, y el tercer dígito era cualquier entero de 1 a 9. ¿Cuántos códigos de área eran posibles? ¿Cuántos códigos de área a partir de un 4 fueron posibles? Una rima de cuna bien conocida comienza de la siguiente manera: "Cuando iba a St. Ives, conocí a un hombre con 7 esposas. Cada mujer tenía 7 sacos. Cada saco tenía 7 gatos. Cada gato tenía 7 gatitos...” ¿Cuántos gatitos se reunió el viajero? Un ¿De cuántas maneras se pueden sentar en fila 3 niños y 3 niñas? ¿De cuántas maneras pueden tres niños y tres niñas sentarse en fila si los niños y las niñas se sientan juntos? ¿De cuántas maneras si sólo los chicos deben sentarse juntos? ¿De cuántas maneras si no se permite que dos personas del mismo sexo se sienten juntas?

8. ¿Cuántos arreglos de letras diferentes se pueden hacer de las cartas Un ¿Platija?

1. ¿Ofrece? 2. ¿Mississippi? D ¿Arreglar? 9. UN niño tiene 12 bloques, de los cuales 6 son negros, 4 son rojos, 1 es blanco, y 1 es azul. Si el niño pone los bloques en una línea, ¿cuántos arreglos son posibles? 1. ¿De cuántas maneras pueden 8 personas estar sentadas en una fila si 1. hay Ihs No Restricciones En En cam4 ¿arreglo de asientos? 2. Personas Un Y B deben sentarse uno al lado del otro? 3. Hay 4 hombres y 4 mujeres y no 2 hombres o dos mujeres pueden sentarse uno al lado del otro? 4. ¿Hay 5 hombres y deben sentarse uno al lado del otro? 5. Hay 4 parejas casadas y cada pareja debe sentarse juntos?

2. En cuántas maneras puede 3 novelas, 2 libros de las matemáticas, y 1 libro de la química se arregle en un estantería si 1. ¿los libros se pueden arreglar en cualquier orden? 2. ¿los libros de matemáticas deben estar juntos y las novelas deben estar juntas? 3. ¿las novelas deben estar juntas, pero los otros libros se pueden arreglar en cualquier orden?

3. Cinco premios separados (mejor beca, mejores cualidades de liderazgo, etc.) se presentarán a estudiantes seleccionados de una clase de 30. ¿Cuántas medidas de resultado diferentes son posibles si Un ¿un estudiante puede recibir cualquier cantidad de premios? B cada estudiante puede recibir como máximo 1 Premio?

4. Consideremos a un grupo de 20 personas. Si todos se dan la mano a todos los demás, ¿cuántos apretones de manos tienen lugar?

5. ¿Cuántas manos de póker de 5 cartas hay?

atorial

6. UNA clase de baile consiste en 22 estudiantes, de los cuales 10 son mujeres y 12 son hombres. Si 5 hombres y 5 mujeres deben ser elegidos y luego emparejados, ¿cuántos resultados son posibles?

7. UN estudiante tiene que vender 2 libros de una colección de 6 Matemáticas, 7 Ciencias, y 4 libros de economía. ¿Cuántas opciones son posibles si Un ¿ambos libros deben estar sobre el mismo tema? B los libros van a estar en temas diferentes?

1. Siete regalos diferentes deben ser distribuidos entre 10 niños. ¿Cuántos resultados distintos son posibles si ningún niño recibe más de un regalo?

2. Un Comité de 7, que consiste en 2 republicanos, 2 demócratas, y 3 independientes, debe ser elegido de un grupo de 5 republicanos, 6 demócratas, y 4 independientes. ¿Cuántos comités son posibles?

3. De un grupo de 8 mujeres y de 6 hombres, un

1. 2.

Comité que consiste en 3 hombres y 3 mujeres debe ser formada. ¿Cuántas comisiones diferentes son posibles si Un ¿2 de los hombres se niegan a servir juntos? ¿2 de las mujeres se niegan a servir juntas? 1 hombre y una mujer se niegan a servir juntos?

26

1. UNA persona tiene 8 amigos, de los cuales 5 serán

1. UN laboratorio de psicología que conduce la

invitados a una fiesta. 1. ¿Cuántas opciones hay si 2 de los amigos están enemistados y no van a asistir juntos? 2. ¿Cuántas opciones si 2 de los amigos sólo van a asistir juntos? 2. Considere la cuadrícula de puntos que se muestran aquí. Suponga que, comenzando en el punto etiquetado A, usted puede ir un paso hacia arriba o un paso a la derecha en cada movimiento. Este procedimiento se continúa hasta que el punto etiquetado B se alcanza. ¿Cuántas rutas diferentes de Un Para B son posibles? Pista: Tenga en cuenta que para alcanzar B De A, usted debe tomar 4 pasos a la derecha y 3 pasos hacia arriba.

investigación Dream contiene 3 habitaciones, con 2 camas en cada habitación. Si 3 juegos de gemelos idénticos deben ser asignados a estas 6 camas de modo que cada juego de gemelos duerma Problemas

B

A

1. En el problema 21, ¿cuántas rutas diferentes hay desde Un Para B que pasan por el punto en círculo en el siguiente entramado?

B

A

en diferentes camas en la misma habitación, ¿cuántas asignaciones son posibles?

2. Ampliar (3x2 + y)5. 3. El juego de Bridge es jugado por 4 jugadores, cada uno de los cuales es repartido 13 cartas. ¿Cuántas ofertas de Bridge son posibles?

4. Ampliar (x1 + 2 dex2 + 3 dex3)4. 5. Si 12 personas van a ser divididas en 3 comités de los respectivos tamaños 3, 4 y 5, ¿cuántas divisiones son posibles? 6. Si se van a dividir 8 nuevos docentes entre 4 escuelas, ¿cuántas divisiones son posibles? ¿Qué pasa si cada escuela debe recibir 2 maestros? 7. Diez levantadores de pesas están compitiendo en un concurso de Halterofilia de equipo. De los levantadores, 3 son de los Estados Unidos, 4 son de Rusia, 2 son de China, y 1 es de Canadá. Si la puntuación tiene en cuenta los países que los levantadores representan, pero no sus identidades individuales, ¿cuántos resultados diferentes son posibles desde el punto de vista de las puntuaciones? ¿Cuántos resultados diferentes corresponden a los resultados en los que Estados Unidos tiene 1 competidor en los tres primeros y dos en los tres inferiores? 8. Delegados de 10 países, incluyendo Rusia, Francia, Inglaterra y los Estados Unidos, deben estar sentados en fila. ¿Cuántos arreglos de asientos diferentes son posibles si los delegados franceses e ingleses deben sentarse uno al lado del otro y los delegados rusos y estadounidenses no deben estar uno al lado del otro? ∗31. Si se van a dividir 8 pizarras idénticas entre 4 escuelas, ¿cuántas divisiones son posibles? ¿Cuántos si cada escuela debe recibir por lo menos 1 pizarra? ∗32. Un ascensor comienza en el sótano con 8 personas (sin incluir el operador de ascensor) y los descarga a todos por el tiempo que llega a la planta superior, el número 6. ¿De cuántas maneras puede el operador haber percibido a la gente que sale del ascensor si todas las personas se parecen a él? ¿Y si las 8 personas consistían en 5 hombres y 3 mujeres y el operador podía decirle a un hombre de una mujer?

∗33.

27 Tenemos 20000 dólares que deben ser invertidos entre 4 oportunidades posibles. Cada inversión debe ser integral en unidades de 1000 dólares, y hay inversiones mínimas que hay que hacer si uno tiene que invertir en estas oportunidades. Las inversiones 1. De un grupo de N personas, supongamos que mínimas son 2, 2, 3 y 4000 dólares. ¿Cuántas queremos elegir un Comité de k,K ... n, uno de los estrategias de inversión están disponibles si 1. ¿se debe hacer una inversión en cada oportunidad? 2. ¿se deben realizar inversiones en al menos 3 de las 4 oportunidades?

EJERCICIOS TEÓRICOS cuales será designado como Presidente. 1. Centrándose primero en la elección del Comité y luego en la elección del

1. Probar la versión generalizada del principio básico de conteo.

2. Se deben realizar dos experimentos. El primero puede resultar en uno de M posibles resultados. Si el primer experimento resulta en resultados i, entonces el segundo experimento puede resultar en cualquiera de nme posibles resultados, me = 1,2,...,m. ¿Cuál es el número de posibles resultados de los dos experimentos?

3. ¿De cuántas maneras puede R los objetos se

2. la

seleccionan de un conjunto de N objetos si el orden de selección se considera relevante?

posibles opciones.

4. Hay

diferentes arreglos lineales de N bolas de las cuales R son negros y N − R son blancos. Dar una explicación combinatoria de este hecho.

3.

5. Determinar el número de vectores (x1,...,xn), de manera que cada xme es 0 o 1 y n

xme Efectos k

Presidente, argumentan que hay K posibles opciones. Centrándose primero en la elección de los miembros del Comité de noPresidente y luego en elección de la silla, argumentan que hay

Al centrarse primero en la elección de la Presidencia y luego en la elección de los demás miembros del Comité, argumentan que hay N posibles opciones.

(a) Concluir de las partes (a), (b) y (c) ThatThat

i=1

k

1. Cuantos vectores x1,...,xK están allí para que cada xme es un entero positivo tal que 1 ... xme ... N Y x1 < x2 < ··· < xk?

2. Dar una prueba analítica de la ecuación (4,1). 3. Demostrar que

1.

Utilice la definición factorial de para verificar la identidad en la parte (d). 2. La siguiente identidad se conoce como la identidad combinatoria de Fermat:

N Efectos k

Pista: Considere un grupo de N hombres y M Mujeres. Cuantos grupos de tamaño R son posibles?

1. Utilice el ejercicio teórico 8 para demostrar que

Dar un argumento combinatorio (no se necesitan cálculos) para establecer esta identidad. Pista: Considere el conjunto de números 1 a n. ¿Cuántos subconjuntos de tamaño K Cómo me como su miembro highestnumbered?

28

1. Tenga

en cuenta combinatoria:

la

siguiente

n

identidad i

N · 2n−1

1.

1.

Presentan un argumento combinatorio para esta identidad considerando un conjunto de N personas y determinar, de dos maneras, el número de posibles selecciones de un Comité de cualquier tamaño y un Presidente del Comité. Pista: ¿Cuántas selecciones posibles hay de un Comité de tamaño K ¿y su Presidente? ¿Cuántas selecciones posibles tiene un Presidente y los demás miembros del Comité?

2.

2.

Pista: Utilice el teorema binomial.

1. De un conjunto de N gente, un Comité de tamaño J debe ser elegido, y de este Comité, un Subcomité de tamaño i,me ... j, es también para ser elegido. 1. Derivar una identidad combinatoria mediante la informática, de dos maneras, el número de posibles opciones del Comité y Subcomité, primero suponiendo que el Comité sea elegido primero y luego el Subcomité sea elegido, y en segundo lugar suponiendo que la Subcomisión es elegidos primero y luego los miembros restantes del Comité son elegidos. 2. Utilice la parte (a) para probar la siguiente identidad combinatoria:

Comprobar En cam4 Siguientes Identidad Para n =

2n−i

1, 2, 3, 4, 5:

1.

Utilice la parte (a) y el ejercicio teórico 13 para demostrar que

k2 = 2n−2n(N + 1) k

n

Para una prueba combinatoria de lo anterior, considere un conjunto de N personas y argumentan que ambas partes de la identidad representan el número de diferentes selecciones de un Comité, su Presidente y su Secretario (posiblemente el mismo que el Presidente). Pista:

1.

Cuántas selecciones diferentes resultan en el Comité que contiene exactamente K ¿Gente? ¿Cuántas selecciones diferentes hay en las que el Presidente y el Secretario son los mismos? (Respuesta: n2n−1.)

2.

3.

¿Cuántas selecciones diferentes dan lugar a que el Presidente y el Secretario sean diferentes?

2.

me ... n

j=i

(−1)n−J = 0 me < n j=i

Ejercicios

teóricos

1. Dejar Hk(n) ser el número de vectores x1,...,xK para el cual cada xme es un entero positivo que satisface ... 1 ... xme ... N Y x1 ... x2 ··· ... xk.

1.

Sin ningún tipo de cómputo, argumentan que

H1(n) = n n

Hk

Ahora argumentan que

K>1

Pista: ¿Cuántos vectores hay en los que xK = j? 3

k =2

n 3 2



k

1. Demostrar que, por N > 0

n (N + 3)

1.

Utilice la recursividad anterior para calcular

H3(5). Pista: Primer cálculo H2(n) Para N = 1, 2, 3, 4, 5.

29

1. Considere un torneo de N concursantes en los que el resultado es un pedido de estos concursantes, con lazos permitidos. Esto es, el resultado divide a los jugadores en grupos, con el primer grupo que consiste en los jugadores que empataron para el primer lugar, el siguiente grupo siendo los que empataron para la siguiente mejor posición, y así sucesivamente. Dejar N(n) denotan el número de diferentes resultados posibles. Por ejemplo, N(2) = 3, puesto que, en un torneo con 2 concursantes, el jugador 1 podría ser único primero, el jugador 2 podría ser único primero, o podrían atar para primero. 1. Enumere todos los resultados posibles cuando N = 3.

2.

Pista: Utilice un argumento similar al que se usó para establecer la ecuación (4,1). 1. Prueba el teorema de multinomia. ∗20. ¿De cuántas maneras puede N las bolas idénticas se distribuyen en R urnas para que el ila urna contiene al menos mme bolas, para cada me = 1...,r? Asumir que N

Con N(0) definido a igual 1, argumentar, sin ningún cómputo, que

Ú ∗21.

mi.

Argumentan que hay exactamente soluciones de x1 + x2 + ··· + xR = n

N(N − i)

N

r i=1

para que exactamente K Su xme son igual a 0. Pista: ¿Cuántos resultados hay en los que me ¿los jugadores empatan en el último lugar?

∗22.

Considerar una función f(x1,...,xn) De N Variables. ¿Cuántos diferentes derivados parciales del orden R no F ¿Poseen?

PROBLEMAS de auto-prueba y ejercicios 1.

Demostrar que la fórmula de la parte (b) es equivalente a la siguiente:

∗23.

Determinar el número de vectores (x1,...,xn) tal que cada xme es un entero no negativo y n

xme ... k i=1 −1

Nn(i)

(a) Utilice la recursividad para encontrar N(3) y N(4).

1. Este

a De

Combinatoria Porqué .

1. Argumentan que

Explicación

30

1. Cuantos arreglos lineales diferentes hay de las letras a, B, C, D, E, F para las cuales Un ¿A y B están uno al lado del

2. 1.

2. 3. 4. 5.

otro? B ¿A es antes de B? 1. A es antes de B y B es antes de C? 2. A es antes de B y C es antes de D? 3. ¿A y B están uno al lado del otro y C y D también están uno al lado del otro? F ¿E no es la última en la línea? Si 4 estadounidenses, 3 franceses y 3 británicos deben estar sentados en fila, ¿cuántos arreglos de asientos son posibles cuando personas de la misma nacionalidad deben sentarse uno al lado del otro? Un Presidente, un Tesorero y un Secretario, todos diferentes, serán elegidos de un club formado por 10 personas. ¿Cuántas opciones diferentes de oficiales son posibles si 1. ¿no hay restricciones? 2. Un Y B ¿no servirán juntos? 3. C Y D ¿servirán juntos o no? 1. Y debe ser un oficial? 2. F servirá sólo si es Presidente? UN estudiante debe responder a 7 de cada 10 preguntas en un examen. ¿Cuántas opciones tiene? ¿Cuántos si tiene que responder al menos 3 de las primeras 5 preguntas? ¿De cuántas maneras puede un hombre dividir 7 regalos entre sus 3 hijos si el mayor es recibir 3 regalos y los otros 2 cada uno? ¿Cuántas diferentes placas de 7 lugares son posibles cuando 3 de las entradas son letras y 4 son dígitos? Suponga que se permite la repetición de letras y números y que no hay restricción alguna sobre dónde se pueden colocar las letras o los números. Dar una explicación combinatoria de la identidad

6. Considerar n-números de dígitos donde cada dígito es uno de los 10 enteros 0, 1,... 9. ¿Cuántos de esos números existen para los que Un ¿no hay dos dígitos consecutivos iguales? B 0 aparece como un dígito un total de me Veces me = 0...,n?

7. Considerar tres clases, cada una consistente en N Estudiantes. De este grupo de 3N estudiantes, un grupo de 3 estudiantes debe ser elegido. Un ¿Cuántas opciones son posibles? 1. ¿Cuántas opciones hay en las que los 3 estudiantes están en la misma clase? 2. ¿Cuántas opciones hay en las cuales 2 de los 3 estudiantes están en la misma clase y el otro estudiante está en una clase diferente? 3. ¿Cuántas opciones hay en las que los 3 estudiantes están en diferentes clases? 4. Usando los resultados de las partes (a) a través de (d), escriba una identidad combinatoria. 8. ¿Cuántos números de 5 dígitos se pueden formar a partir de los enteros 1, 2,..., 9 Si ningún dígito puede aparecer más de dos veces? (Por ejemplo, 41434 no está permitido.) 9. A partir de 10 parejas casadas, queremos seleccionar un grupo de 6 personas que no pueden contener una pareja casada. 1. ¿Cuántas opciones hay? 2. ¿Cuántas opciones hay si el grupo también debe consistir en 3 hombres y 3 mujeres? 10. Un Comité de 6 personas será elegido de un grupo formado por 7 hombres y 8 mujeres. Si el Comité debe consistir en al menos 3 mujeres y al menos 2 hombres, ¿cuántas comisiones diferentes son posibles? ∗13. Una colección de arte en subasta consistió en 4 Dalis, 5 van Goghs, y 6 Picassos. En la subasta había 5 coleccionistas de arte. Si un reportero observó sólo el número de Dalís, van Gogh, y Picassos adquiridos por cada coleccionista, ¿cuántos resultados diferentes podrían haberse registrado si se vendieron todas las obras? ∗14. Determinar el número de vectores (x1,...,xn) tal que cada xme es un entero positivo y n

31 xme ... k Donde K Efectos n. 15. UN total de N los estudiantes están matriculados en un curso de revisión para el examen actuarial en probabilidad. Los resultados publicados en el examen enumerarán los nombres de los que pasaron, en orden decreciente de sus puntuaciones. Por ejemplo, el resultado publicado será "Brown, Cho" si Brown y Cho son los únicos que pasan, con Brown recibiendo la puntuación más alta. Problemas de auto-prueba y ejercicios Asumiendo que todos los puntajes son distintos (sin ataduras), ¿cuántos resultados se pueden registrar? 1. ¿Cuántos subconjuntos de tamaño 4 del conjunto S = {1, 2,..., 20} ¿contiene al menos uno de los elementos 1, 2, 3, 4, 5?

2. Dar una verificación analítica de

... K ... n Ahora, dé un argumento combinatorio para esta identidad. 3. En una cierta comunidad, hay 3 familias que consisten en un solo padre y 1 niño, 3 familias que consisten en un solo padre y 2 niños, 5 familias que consisten en 2 padres y un solo niño, 7 familias que consisten en 2 padres y 2 niños , y 6 familias consta de 2 padres y 3 niños. Si un padre y un hijo de la misma familia son elegidos, ¿cuántas opciones posibles hay? 16. Si no hay restricciones sobre dónde se colocan los dígitos y las letras, cuántas placas de 8-Place consisten en 5 Letras y 3 dígitos son posibles si no se permiten repeticiones de letras o dígitos. ¿Qué pasa si los 3 dígitos deben ser consecutivos?

2 Axiomas de probabilidad 2,1 Introducción 2,2 ESPACIO de muestra y eventos 2,3 AXIOMAs de probabilidad 2,4 ALGUNAS proPOSICIONES sencillas 2,5 ESPACIOS de muestra con resultados igualmente PROBABLEs 2,6 PROBABILIDAD como función de conjunto continuo 2,7 PROBABILIDAD como medida de creencia

32

2,1

Introducción En este capítulo, introducimos el concepto de la probabilidad de un acontecimiento y después demostramos cómo las probabilidades se pueden calcular en ciertas situaciones. Como un preliminar, sin embargo, necesitamos el concepto del espacio de la muestra y los acontecimientos de un experimento.

2,2

ESPACIO de muestra y eventos Consideremos un experimento cuyo resultado no es predecible con certeza. Sin embargo, aunque el resultado del experimento no se conocerá con antelación, supongamos que se conoce el conjunto de todos los resultados posibles. Este conjunto de todos los resultados posibles de un experimento se conoce como el espacio de muestra del experimento y se denota por S. A continuación se muestran algunos ejemplos: 1. Si el resultado de un experimento consiste en la determinación del sexo del niño anewborn, entonces S = {g,b} donde el resultado G significa que el niño es una niña y B que es un niño. 2. Si el resultado de un experimento es el orden de final en una carrera entre los 7 caballos que tienen posiciones de puesto 1, 2, 3, 4, 5, 6, y 7, entonces S = {¡ los 7! permutaciones de (1, 2, 3, 4, 5, 6, 7)} El resultado (2, 3, 1, 6, 5, 4, 7) significa, por ejemplo, que el caballo número 2 viene primero, luego el caballo número 3, luego el caballo número 1, y así sucesivamente. 3. Si el experimento consiste en voltear dos monedas, entonces el espacio de muestra consta de los siguientes cuatro puntos: S = {(H,H),(H,T),(T,H),(T,T)} El resultado será (H, H) si ambas monedas son cabezas, (H, T) si la primera moneda es la cabeza y la segunda cola, (T, H) si el primero es Tails y las segundas cabezas, y (T, T) si ambas monedas son colas.

22 Sección 2,2

Espacio de muestra y eventos

4. Si el experimento consiste en lanzar dos dados, entonces el espacio de la muestra consiste en los puntos 36 S = {(i, j): i, J = 1, 2, 3, 4, 5, 6} Cuando el resultado (i, j) se dice que ocurre si me aparece en el troquel más a la izquierda y J en el otro dado. 5. Si el experimento consiste en medir (en horas) el curso de la vida de un transistor, entonces el espacio de la muestra consiste en todos los números verdaderos no negativos; Es decir S = {x: 0 ... X < q}

33

Cualquier subconjunto Y del espacio de muestra se conoce como un Evento. En otras palabras, un evento es un conjunto consistente en los posibles resultados del experimento. Si el resultado del experimento se incluye en E, entonces decimos que Y ha ocurrido. A continuación se muestran algunos ejemplos de eventos. En el ejemplo anterior 1, si Y = {g}Entonces Y es el caso de que el niño es una niña. Del mismo modo, si F = {b}Entonces F es el caso de que el niño es un niño. En el ejemplo 2, si Y = {todos los resultados en S comenzando con un 3} Entonces Y es el evento que el caballo 3 gana la carrera. En el ejemplo 3, si Y = {(H,H),(H,T)}Entonces Y es el acontecimiento que una cabeza aparece en la primera moneda. En el ejemplo 4, si Y = {(1, 6),(2, 5),(3, 4),(4, 3),(5, 2),(6, 1)}Entonces Y es el caso de que la suma de los dados sea igual a 7. En el ejemplo 5, si Y = {x: 0 ... X ... 5}Entonces Y es el caso de que el transistor no dure más de 5 horas. Para dos eventos Y Y F de un espacio de muestra S, definimos el nuevo evento Y ∪ F consistir en todos los resultados que se Y o en F o en ambos Y Y F. Esto es, el evento Y ∪ F ocurrirá si ya sea E O F Ocurre. Por ejemplo, en el ejemplo 1, si el evento E = {g} Y F = {b}Entonces Y ∪ F = {g,b} Es decir Y ∪ F es el espacio de muestra completo S. En el ejemplo 3, si Y = {(H,H),(H,T)} Y F = {(T,H)}Entonces Y ∪ F = {(H,H),(H,T),(T,H)} Así Y ∪ F ocurriría si una cabeza apareciera en cualquiera de las dos monedas. El evento Y ∪ F se llama el Unión del evento Y y el evento F. Del mismo modo, para dos eventos Y Y F, también se puede definir el nuevo evento Si, llamado el Intersección De Y Y F, consistir en todos los resultados que se Y y en F. Esto es, el evento Si (a veces escrito Y ∩ F) ocurrirá sólo si ambos Y Y F Ocurrir. Por ejemplo, en Ejemplo 3, si Y = {(H,H),(H,T),(T,H)} es el evento que se produce por lo menos 1 cabeza y F = {(H,T),(T,H),(T,T)} es el evento que por lo menos 1 cola se produce, entonces Si = {(H,T),(T,H)} es el acontecimiento que exactamente 1 cabeza y 1 cola ocurren. En el ejemplo 4, si Y = {(1, 6),(2, 5), (3, 4),(4, 3),(5, 2),(6, 1)} es el caso de que la suma de los dados es 7 y F = {(1,

34

5),(2, 4), (3, 3),(4, 2),(5, 1)} es el evento que la suma es 6, entonces el evento Si no contiene ningún resultado y por lo tanto no podría ocurrir. Para dar un nombre a tal acontecimiento, nos referiremos a él como el acontecimiento nulo y lo denotaremos por Ø. (es decir, Ø se refiere al acontecimiento que no consiste en resultados.) Si Si = Isla, entonces Y Y F se dice que son mutuamente excluyentes. Definimos uniones e intersecciones de más de dos eventos de manera similar. q Si E1,E2,... son eventos, entonces la Unión de estos eventos, denotado por En, se define n =1

ser ese evento que consiste en todos los resultados que están en EN por lo menos un valor q n=1 De N =

1, 2,.... Del mismo modo, la intersección de los eventos En, denotado por En, se define como el evento consistente en los resultados que se encuentran en todos los eventos En,N = 1, 2,.... Finalmente, para cualquier evento E, definimos el nuevo evento Ec, conocida como la Complemento De E, consistir en todos los resultados en el espacio de muestra S que no están en E. Es decir EC ocurrirá si y sólo si Y no ocurre. En el ejemplo 4, si el evento Y = {(1, 6),(2, 5),(3, 4),(4, 3),(5, 2),(6, 1)}Entonces EC ocurrirá cuando la suma de los dados no sea igual a 7. Tenga en cuenta que debido a que el experimento debe dar lugar a algún resultado, se deduce que SC = Isla. Para dos eventos Y Y F, si todos los resultados en Y están también en F, entonces decimos que Y Es Contenido En FO Y es un Subconjunto De F, y escribir Y ( F (o equivalente, F ) E, que a veces decimos como F es un Superconjunto De E). Así, si Y ( F, entonces la ocurrencia de Y implica la ocurrencia de F. Si Y ( F Y F ( E, decimos que Y Y F son iguales y escriben Y = F. UNA representación gráfica que es útil para ilustrar las relaciones lógicas entre los eventos es el diagrama de Venn. El espacio de muestra S está representado como consistente en todos los resultados en un rectángulo grande, y los eventos E,F,G,... están representados como compuestos de todos los resultados en círculos dados dentro del rectángulo. Los acontecimientos de interés pueden entonces ser indicados sombreando las regiones apropiadas del diagrama. Por ejemplo, en los tres diagramas de Venn que se muestran en la figura 2,1, las áreas sombreadas representan, respectivamente, los eventos Y ∪ F, SiY Ec. El diagrama de Venn en la figura 2,2 indica que Y ( F.

S E

a región sombreada: Y F.

F

S E

F

b región sombreada: Si.

35 S E

( c) región sombreada : Y c. Figura 2,1: Diagramas de Venn

Sección 2,2

Espacio de muestra y eventos S

F E

Figura 2,2: Y ( F

Las operaciones de formación de uniones, intersecciones y complementos de eventos obedecen a ciertas reglas similares a las reglas del álgebra. Enumeramos algunas de estas reglas: E∪F = F ∪E

Si = FE

Leyes asociativas

(E∪F)∪G = E∪(F ∪G)

(Si)G = E(Fg)

Leyes distributivas

(E∪F)G = Eg∪Fg

Leyes coMutativas

Si ∪G = (E∪G)(F ∪G)

Estas relaciones se verifican demostrando que cualquier resultado contenido en el evento en el lado izquierdo del signo de igualdad también está contenido en el evento en el lado derecho, y viceversa. Una manera de demostrar esto es por medio de diagramas de Venn. Por ejemplo, la Ley distributiva puede ser verificada por la secuencia de diagramas en la figura 2,3.

36 E

F

E

G ( a) región sombreada: Eg.

F

G ( b) región sombreada : Fg.

E

F

G ( c) región sombreada: ( Y F ) G.

Figura 2,3: (E∪F)G = Eg ∪ Fg

Las siguientes relaciones útiles entre las tres operaciones básicas de la formación de uniones, intersecciones y complementos se conocen como Leyes de DeMorgan: c Nn



EIc =0

Eic c

Para probar las leyes de DeMorgan, supongamos primero que X es un resultado de. Entonces n

Ei,me = 1, 2,...,n, lo que implica quei =1 X se contiene en EiC para todos me = 1, 2,...,N y así es X no está contenido en Ei, lo que significa que X no está contenido en ninguno de los eventos n

n

contenidos en Eic. Para ir hacia el otro lado, supongamos que X es un resultado de Eic. Entonces X se contiene en EiC para todos me = 1, 2,...,n, lo que significa que X no está contenido en Eme Para

N

i

Cualquier i1, 2,...,n, lo que implica que X no está contenido en Ei, a su vez, lo que implica que X Es c

contenido en. Esto prueba la primera de las leyes de DeMorgan. Para probar el segundo de las leyes de DeMorgan, usamos la primera ley para obtener

37 c Nn



c

que, desde (Ec)C = E, equivale a c

⎞ Eme n n La toma de complementos de ambos lados de la ecuación anterior produce el resultado que

buscamos, a saber,

2,3

c

AXIOMAs de probabilidad Una forma de definir la probabilidad de un evento es en términos de su frecuencia relativa. Tal definición generalmente va como sigue: suponemos que un experimento, cuyo espacio de muestra es S, se realiza repetidamente bajo exactamente las mismas condiciones. Para cada evento Y del espacio de muestra S, definimos n(E) ser el número de veces en el primer N repeticiones del experimento de que el evento Y Ocurre. Entonces P(E), la probabilidad del evento E, se define como n(E) P(E) = Lim→ NQn Sección 2,3

Axiomas de probabilidad

Es decir P(E) se define como la (limitación) proporción de tiempo que Y Ocurre. Es así la frecuencia de limitación de E. Aunque la definición anterior es ciertamente intuitivamente agradable y siempre debe ser tenida en cuenta por el lector, que posee un grave inconveniente: ¿Cómo sabemos que n(E)/N ¿convergerá a algún valor de limitación constante que será el mismo para cada secuencia posible de repeticiones del experimento? Por ejemplo, suponga que el experimento que se realizará repetidamente consiste en voltear una moneda. ¿Cómo sabemos que la proporción de cabezas obtenidas en la primera N los flips convergerán a algún valor como N se hace grande? También, incluso si converge a algún valor, ¿cómo sabemos que, si el experimento se realiza repetidamente una segunda vez, obtendremos la misma proporción limitante de cabezas? Los defensores de la definición de frecuencia relativa de probabilidad suelen responder a esta objeción afirmando que la convergencia de n(E)/N a un valor limitador constante es una hipótesis, o un Axioma, del sistema. Sin embargo, para asumir que n(E)/N necesariamente convergen a algún valor constante parece ser una hipótesis extraordinariamente complicada. Porque, si bien podemos esperar que exista una frecuencia de limitación tan constante, no parece que sea a priori evidente que este es el caso. De hecho, ¿no sería más razonable asumir un conjunto de axiomas más simples y más evidentes acerca de la probabilidad y luego intentar probar que una frecuencia de limitación constante existe en cierto sentido? Este último enfoque es el enfoque moderno del axioma a la teoría de la probabilidad que adoptaremos en este texto. En particular, supondremos que, para cada evento Y en el espacio

38

de muestra S, existe un valor P(E), conocida como la probabilidad de E. Entonces asumiremos que todas estas probabilidades satisfacen un cierto conjunto de axiomas, que, esperamos que el lector esté de acuerdo, está de acuerdo con nuestra noción intuitiva de probabilidad. Considere un experimento cuyo espacio de muestra S. Para cada evento Y del espacio de muestra S, asumimos que un número P(E) se define y satisface los tres axiomas siguientes: Axioma 1 0 ... P(E) ... 1 Axioma 2 P(S) = 1 Axioma 3 Para cualquier secuencia de eventos mutuamente exclusivos E1,E2,... (esto es, eventos para los que EiEJ = Ø cuando me Z j), q

q



P⎛

Nos referimos a P(E) como la probabilidad del evento E. Así, el axioma 1 declara que la probabilidad de que el resultado del experimento sea un resultado en Y es un número entre 0 y 1. El axioma 2 establece que, con la probabilidad 1, el resultado será un punto en el espacio de la muestra S. El axioma 3 declara que, para cualquier secuencia de eventos mutuamente exclusivos, la probabilidad de que al menos uno de estos eventos ocurra es sólo la suma de sus respectivas probabilidades. Si consideramos una secuencia de eventos E1,E2,...Donde E1 = S Y Eme = Isla para me > 1 q

entonces, porque los eventos son mutuamente excluyentes y porque S Axioma 3, q

q

i=1

i=2

P

Ei, tenemos, de

P(Ø)

lo que implica que P(Ø) = 0 Esto es, el evento null tiene probabilidad 0 de ocurrencia. Tenga en cuenta que se sigue que, para cualquier secuencia finita de eventos mutuamente exclusivos E1, E2,...,En,

P

(3,1)

39

Esta ecuación sigue del axioma 3 definiendo Eme como el evento nulo para todos los valores de me mayor que n. El axioma 3 equivale a la ecuación (3,1) cuando el espacio de la muestra es finito. (¿Por qué?) Sin embargo, la generalidad agregada del axioma 3 es necesaria cuando el espacio de la muestra consiste en un número infinito de puntos. EJEMPLO 3A Si nuestro experimento consiste en lanzar una moneda y si asumimos que una cabeza es tan probable que aparezca como una cola, entonces tendríamos P Por otro lado, si la moneda fuera sesgada y sentíamos que una cabeza tenía el doble de probabilidades de aparecer como una cola, entonces tendríamos P

.

EJEMPLO 3B Si un dado se enrolla y suponemos que los seis lados son igualmente propensos a aparecer, entonces tendríamos P . De Axioma 3, por lo tanto, seguiría que la probabilidad de rodar un número par sería igual P

.

La asunción de la existencia de una función del sistema P, definidos en los eventos de un espacio de muestra S y los axiomas satisfactorios 1, 2 y 3 constituyen el enfoque matemático moderno de la teoría de la probabilidad. Esperanzadamente, el lector convendrá que los axiomas son naturales y de acuerdo con nuestro concepto intuitivo de la probabilidad según lo relacionado con la ocasión y la aleatoriedad. Además, utilizando estos axiomas podremos demostrar que si un experimento se repite una y otra vez, entonces, con la probabilidad 1, la proporción de tiempo durante el cual cualquier acontecimiento específico Y se produce igual P(E). Este resultado, conocido como la ley fuerte de gran número, se presenta en el capítulo 8. Además, presentamos otra posible interpretación de la probabilidad — como medida de creencia — en la sección 2,7. Sección 2,4

Algunas proposiciones sencillas

Observación técnica. Hemos supuesto que P(E) se define para todos los eventos Y del espacio de la muestra. En realidad, cuando el espacio de muestra es un conjunto infinito incontable, P(E) se define sólo para una clase de eventos llamados medibles. Sin embargo, esta restricción no tiene por qué preocuparnos, ya que todos los acontecimientos de cualquier interés práctico son medibles. 2,4ALGUNAS proPOSICIONES sencillas En esta sección, probamos algunas proposiciones simples con respecto a probabilidades. Primero observamos que, desde Y Y EC siempre son mutuamente excluyentes y desde Y ∪ EC = S, tenemos, por axiomas 2 y 3, 1 = P(S) = P(Y ∪ Ec) = P(E) + P(Ec) O, equivalentemente, tenemos la proPosición 4,1.

40

Propuesta 4,1. P(Ec) = 1 − P(E) En palabras, la proPosición 4,1 establece que la probabilidad de que un evento no ocurra es 1 menos la probabilidad de que ocurra. Por ejemplo, si la probabilidad de obtener una cabeza en el lanzamiento de una moneda es , entonces la probabilidad de obtener una cola debe ser . Nuestra segunda proposición indica que si el evento Y se incluye en el evento F, entonces la probabilidad de Y no es mayor que la probabilidad de F. Propuesta 4,2. Si Y ( FEntonces P(E) ... P(F). Prueba. Desde Y ( F, sigue que podemos expresar F Como F = Y ∪ EcF Por lo tanto, porque Y Y EcF son mutuamente excluyentes, obtenemos, del axioma 3, P(F) = P(E) + P(EcF) que prueba el resultado, ya que P(EcF) de la 0. La proPosición 4,2 nos dice, por ejemplo, que la probabilidad de rodar un 1 con un dado es menor o igual a la probabilidad de rodar un valor impar con el dado. La siguiente proposición da la relación entre la probabilidad de la Unión de dos acontecimientos, expresado en términos de las probabilidades individuales, y la probabilidad de la intersección de los acontecimientos. Propuesta 4,3. P(Y ∪ F) = P(E) + P(F) − P(Si) Prueba. Para derivar una fórmula para P(Y ∪ F), primero observamos que Y ∪ F puede ser escrito como la Unión de los dos eventos desarticulados Y Y EcF. Así, desde el axioma 3, obtenemos P(Y ∪ F) = P(Y ∪ EcF) = P(E) + P(EcF) Además, desde F = Si ∪ EcF, obtenemos de nuevo el axioma 3 P(F) = P(Si) + P(EcF) E

F

41 Figura 2,4: Diagrama de Venn E

F

I

Ii

Iii

Figura 2,5: Diagrama de Venn en secciones

o, equivalentemente, P(EcF) = P(F) − P(Si) completando así la prueba. La proPosición 4,3 también podría haber sido probada haciendo uso del diagrama de Venn en la figura 2,4. Vamos a dividir Y ∪ F en tres secciones mutuamente exclusivas, como se muestra en la figura 2,5. En palabras, la sección I representa todos los puntos en Y que no están en F (esto es, Sic), la sección II representa todos los puntos tanto en Y y en F (esto es, Si), y la sección III representa todos los puntos en F que no están en Y (esto es, EcF). De la figura 2,5, vemos que Y ∪ F = Me ∪ Ii ∪ Iii E = Me ∪ Ii F = Ii ∪ Iii Como I, II, y III son mutuamente excluyentes, se desprende del axioma 3 que P(Y ∪ F) = P(I) + P(Ii) + P(Iii) P(E) = P(I) + P(Ii) P(F) = P(Ii) + P(Iii) que muestra que P(Y ∪ F) = P(E) + P(F) − P(Ii) y la proPosición 4,3 es probada, ya que II = Si. EJEMPLO 4A J está tomando dos libros a lo largo de sus vacaciones de vacaciones. Con probabilidad 5, le gustará el primer libro; con probabilidad .4, le gustará el segundo libro; y con probabilidad .3, le gustarán ambos libros. ¿Cuál es la probabilidad de que no le guste ni libro? Sección 2,4

Algunas proposiciones sencillas

Solución. Dejar Bme denota el evento que a J le gusta el libro i,me = 1, 2. entonces la probabilidad de que le gusta al menos uno de los libros es

42

P(B1 ∪ B2) = P(B1) + P(B2) − P(B1B2) = .5 + .4 −.3 = .6 Porque el evento que a J le gusta ni el libro es el complemento del evento que a ella le gusta al menos uno de ellos, obtenemos el resultado P

.

También podemos calcular la probabilidad de que uno de los tres eventos E, FY G ocurre, a saber, P(Y ∪ F ∪ G) = P[(Y ∪ F) ∪ G] que, por la proPosición 4,3, es igual a P(Y ∪ F) + P(G) − P[(Y ∪ F)G] Ahora, se deduce de la Ley distributiva que los eventos (Y ∪ F)G Y Eg ∪ Fg son equivalentes; por lo tanto, de las ecuaciones anteriores, obtenemos P(Y ∪ F ∪ G) = P(E) + P(F) − P(Si) + P(G) − P(Eg ∪ Fg) = P(E) + P(F) − P(Si) + P(G) − P(Eg) − P(Fg) + P(EGFG) = P(E) + P(F) + P(G) − P(Si) − P(Eg) − P(Fg) + P(Efg) De hecho, la siguiente proposición, conocida como la inclusión – identidad de exclusión, puede ser probado por la inducción matemática: Propuesta 4,4. n

P i=1

i1
P(Ei1Ei2 ···Eir) i1
+ ··· + (−1)n+1P(E1E2 ···En)

La suma

se

toma todo el i1
posible sub···

Juegos de tamaño R del conjunto {1, 2,...,n}. En palabras, la proPosición 4,4 establece que la probabilidad de la Unión de N los eventos equivalen a la suma de las probabilidades de estos eventos tomadas una a la vez, menos la suma de las probabilidades de estos eventos tomados dos a la vez, más la suma de las probabilidades de estos eventos tomados tres a la vez, y así sucesivamente.

43

Observaciones. 1. para un argumento inductores para la proPosición 4,4, note primero que si un resultado del espacio de muestra no es miembro de ninguno de los sets Ei, entonces su probabilidad no aporta nada a ninguno de los lados de la igualdad. Ahora, supongamos que un i el resultado es exactamente M de los eventos EiDonde M > 0. entonces, puesto que está en Ei, su probabilidad se cuenta una vez en P contenido en

; también, ya que este resultado está

subconjuntos del tipo Ei1Ei2 ···EMe, su probabilidad es contada

veces a la derecha del signo de igualdad en la proPosición 4,4. Así, por M > 0, debemos demostrar que

Sin embargo, desde 1

, la ecuación anterior equivale a

y la última ecuación se deriva del teorema binomial, ya que m



1)i(1)m−i

i=0

2.

Lo siguiente es una forma sucinta de escribir la identidad de inclusión – exclusión: n

P

P(Ei1 ···EY) r=1

i1<···
3. En la identidad de la inclusión-exclusión, saliendo un término da como resultado un límite superior la probabilidad de la Unión, saliendo dos términos da como resultado un límite más bajo en la probabilidad, saliendo tres términos da como resultado un límite superior en la probabilidad, saliendo cuatro términos resulta en un límite inferior, y así sucesivamente. Esto es, para eventos E1,...,EnTenemos n

P

(4,1) n

P

(EiEj) i=1

P

(4,2)

j
(EiEj)

(EiEjEk) (4,3) i=1 j
44

y así sucesivamente. Para probar la validez de estos límites, tenga en cuenta la identidad Enc−1En

45

Esto es, al menos uno de los eventos Eme ocurre si E1 ocurre, o si E1 no ocurre, pero E2 hace, o si E1 Y E2 no ocurren, pero E3 hace, y así sucesivamente. Debido a que el lado derecho es la Unión de eventos desarticulados, obtenemos

P (4,4) Bme = EC ser el caso de que ninguno de los primeros

Ahora, vamos

me − se producen 1 eventos. Aplicación de la identidad P(Ei) = P(BiEi) + P(Bcme Ei) muestra que P

j<me Ej)

o, equivalentemente, P La sustitución de esta ecuación en (4,4) rinde

j
P(∪ni

j
(4,5)

i

Porque las probabilidades son siempre no negativas, la desigualdad (4,1) sigue directamente de Ecuación (4,5). Ahora, la fijación me y aplicando la desigualdad (4,1) para P(∪j
(EiEj) j
que, por ecuación (4,5), da desigualdad (4,2). De manera similar, la fijación me y aplicando la desigualdad (4,2) para P(∪j
(EiEj) j
(EiEjEiEk) k<j
(EiEj) j
(EiEjEk) k<j
que, por ecuación (4,5), da desigualdad (4,3). La próxima inclusión – la desigualdad de exclusión se obtiene ahora mediante la fijación me y aplicando la desigualdad (4,3) para P(∪j
2,5 ESPACIOS de muestra con resultados igualmente PROBABLEs

46

En muchos experimentos, es natural suponer que todos los resultados en el espacio de la muestra tienen la misma probabilidad de ocurrir. Esto es, consideremos un experimento cuyo espacio de muestra S es un conjunto finito, digamos, S = {1, 2,...,N}. Entonces, a menudo es natural suponer que P({1}) = P({2}) = ··· = P({N}) lo que implica, a partir de los axiomas 2 y 3 (¿por qué?), que 1 P({i}) =

me = 1, 2,...,N N A partir de esta ecuación, se desprende del axioma 3 que, para cualquier evento E, número de resultados en E P(E) =

número de resultados en S

En palabras, si asumimos que todos los resultados de un experimento son igualmente propensos a ocurrir, entonces la probabilidad de cualquier evento Y equivale a la proporción de resultados en el espacio de muestra contenido en E. EJEMPLO 5A Si se ruedan dos dados, ¿cuál es la probabilidad de que la suma de las caras volteadas sea igual a 7? Solución. Resolveremos este problema asumiendo que todos los 36 posibles resultados son igualmente probables. Dado que hay 6 posibles resultados, a saber, (1, 6), (2, 5), (3,4), (4, 3), (5, 2), y (6, 1) — que dan como resultado la suma de los dados siendo igual a 7, la probabilidad deseada es

.

.

EJEMPLO 5B Si 3 bolas se "dibujan aleatoriamente" de un tazón que contiene 6 bolas blancas y 5 negras, ¿cuál es la probabilidad de que una de las bolas sea blanca y las otras dos negras? Solución. Si miramos el orden en el cual las bolas se seleccionan como siendo relevantes, entonces el espacio de la muestra consiste en 11 · 10 · 9 = 990 resultados. Además, hay 6 · 5 · 4 = 120 resultados en los que la primera bola seleccionada es blanca y las otras dos son negras; 5 · 6 · 4 = 120 resultados en los que el primero es negro, el segundo es blanco, y el tercero es negro; y a 5 · 4 · 6 = 120 en el que los dos primeros son negros y el tercero es blanco. Por lo tanto, asumiendo que "dibujado aleatoriamente" significa que cada resultado en el espacio de la muestra es igualmente probable que ocurra, vemos que la probabilidad deseada es

47

Este problema también podría haberse resuelto con respecto al resultado del experimento como el conjunto desordenado de bolas dibujadas. Desde este punto de vista, hay 165 resultados en el espacio de muestra. Ahora, cada juego de 3 bolas corresponde a 3! resultados cuando se observa el orden de selección. Consecuentemente, si todos los resultados se asumen igualmente probables cuando se observa el orden de la selección, después sigue que siguen siendo igualmente probables cuando el resultado se toma para ser el sistema desordenado de bolas seleccionadas. Por lo tanto, utilizando la última representación del experimento, vemos que la probabilidad deseada es

que, por supuesto, está de acuerdo con la respuesta obtenida anteriormente. Cuando el experimento consiste en una selección aleatoria de K elementos de un conjunto de N los elementos, tenemos la flexibilidad de dejar que el resultado del experimento sea la selección ordenada de la K artículos o dejar que sea el conjunto desordenado de elementos seleccionados. En el primer caso supondríamos que cada nueva selección es igualmente probable que sea cualquiera de los elementos hasta ahora no seleccionados del conjunto, y en este último caso asumimos que todos los posibles subconjuntos de K los elementos son igualmente propensos a ser el conjunto seleccionado. Por ejemplo, suponga que 5 personas sean seleccionadas aleatoriamente de un grupo de 20 individuos que consisten en 10 parejas casadas, y queremos determinar P(N), la probabilidad de que los 5 elegidos no estén relacionados. (Es que, no hay dos casados entre sí.) Si consideramos el espacio de la muestra como el conjunto de 5 personas elegidas, entonces hay resultados igualmente probables. Un resultado que no contiene una pareja casada puede ser considerado como el resultado de un experimento de seis etapas: en la primera etapa, 5 de las 10 parejas que tienen un miembro en el grupo son elegidos; en las próximas 5 etapas, se selecciona 1 de los 2 miembros de cada una de estas parejas. Por lo tanto, hay posibles resultados en los que los 5 miembros seleccionados no están relacionados, produciendo la probabilidad deseada de

P En cambio, podríamos dejar que el resultado del experimento sea el Ordenó selección de los 5 individuos. En este entorno, hay 20 · 19 · 18 · 17 · 16 resultados igualmente probables, de los cuales 20 · 18 · 16 · 14 · 12 resultados dan lugar a un grupo de 5 individuos no relacionados, dando el resultado P Dejamos que el lector Verifique que las dos respuestas son idénticas.

.

48

EJEMPLO 5C UN Comité de 5 debe ser seleccionado de un grupo de 6 hombres y 9 mujeres. Si la selección se hace aleatoriamente, ¿cuál es la probabilidad de que el Comité esté compuesto por 3 hombres y dos mujeres? Solución. Porque cada uno de los los comités posibles son igualmente probables ser seleccionados, la probabilidad deseada es

. EJEMPLO 5D Una urna contiene N bolas, una de las cuales es especial. Si K de estas bolas se retiran una a la vez, con cada selección siendo igualmente probable que sea cualquiera de las bolas que permanecen en el momento, ¿cuál es la probabilidad de que la bola especial se elige? Solución. Puesto que todas las bolas son tratadas de una manera idéntica, sigue que el sistema de K las bolas seleccionadas es igualmente probable que sea cualquiera de los de K Bolas. Por

P{la

bola

especial

conjuntos

k selecciona}

se

n También podríamos haber obtenido este resultado dejando Ame denotar el evento de que la bola especial es el ila bola del TH que se elegirá, me = 1...,k. Entonces, ya que cada uno de los N bolas es igualmente probable que sea el iTH Ball elegido, sigue que P(Ai) = 1/n. Por lo tanto, debido a que estos eventos son claramente mutuamente excluyentes, hemos Meses

k selecciona} = P

P{la bola especial se i

P(Ai) =



i=1 n

i=1

También podríamos haber argumentado que P(Ai) = 1/n, observando que hay n(N − 1)··· (N − K + 1) = n!/(N − k)! resultados igualmente probables del experimento, de los cuales (N − 1)(N − 2)··· (N − me + 1)(1)(N − i)··· (N − K + 1) = (N − 1)!/(N − k)! resultado en la bola especial que es el iTH uno elegido. A partir de este razonamiento, se deduce que P(Ai) = (N − 1)! = 1 EJEMPLO 5e

. n!

n

=

49

Suponga que N + M bolas, de las cuales N son rojos y M son azules, se arreglan en un orden lineal de tal manera que todos los (N + m)! las posibles órdenes son igualmente probables. Si grabamos el resultado de este experimento enumerando sólo los colores de las bolas sucesivas, mostrar que todos los resultados posibles siguen siendo igualmente probables. Solución. Considere cualquiera de los (N + m)! posibles pedidos, y tenga en cuenta que cualquier permutación de las bolas rojas entre sí y de las bolas azules entre sí no cambia la secuencia de colores. Como resultado, cada pedido de colorantes corresponde a n! m! diferentes órdenes de la N + M bolas, por lo que cada pedido de los colores tiene probabilidad

! de

ocurrir.

Por ejemplo, supongamos que hay 2 bolas rojas, numeradas r1,r2, y 2 bolas azules, numeradas b1,b2. Entonces, de los 4! posibles pedidos, habrá 2! 2! ORDENES que dan lugar a cualquier combinación de colores especificada. Por ejemplo, las siguientes órdenes dan lugar a las bolas sucesivas alternando en color, con una bola roja primero: r1,b1,r2,b2

r1,b2,r2,b1

r2,b1,r1,b2

r2,b2,r1,b1

Por lo tanto, cada uno de los pedidos posibles de los colores tiene probabilidad Ocurriendo. . EJEMPLO 5F UNA mano de póquer consiste en 5 cartas. Si las cartas tienen distintos valores consecutivos y no son todas del mismo palo, decimos que la mano es una recta. Por ejemplo, una mano que consiste en el cinco de espadas, seis de espadas, siete de espadas, ocho de espadas, y nueve de corazones es una recta. ¿Cuál es la probabilidad de que uno se reparte una recta? Solución. Empezamos asumiendo que todos los las posibles manos de póker son igualmente probables. Para determinar el número de resultados que son rectas, primero determinemos el número de resultados posibles para los cuales la mano de póker consiste en un as, dos, tres, cuatro y cinco (los trajes son irrelevantes). Dado que el ACE puede ser cualquier 1 de los 4 Ases posibles, y de manera similar para los dos, tres, cuatro y cinco, se sigue que hay 45 resultados que conducen a exactamente un as, dos, tres, cuatro y cinco. Por lo tanto, ya que en 4 de estos resultados todas las cartas serán del mismo palo (una mano se llama una escalera de color), se sigue que hay 45 − 4 manos que forman una recta de la forma ACE, dos, tres, cuatro y cinco. Del mismo modo, hay 45 − 4 manos que forman una recta de la forma de diez, Jack, Queen, King, y ACE. Por lo tanto, hay 10(45 − 4) las manos que son rectas, y sigue que la probabilidad deseada es

. EJEMPLO 5g UNA mano de póquer de 5 cartas se dice que es una casa llena si se compone de 3 tarjetas de la misma denominación y otras 2 cartas de la misma denominación (por supuesto,

50

diferente de la primera denominación). Así, un tipo de casa llena es tres de un tipo más un par. ¿Cuál es la probabilidad de que uno se reparte una casa completa? Solución. Una vez más, asumimos que todos probables. Para

las posibles manos son igualmente

determinar el número de casas completas posibles, primero observamos que hay diferentes combinaciones de, digamos, 2 decenas y 3 Jotas. Debido a que hay 13 opciones diferentes para el tipo de pareja y, después de que un par ha sido elegido, hay otras 12 opciones para la denominación de las 3 tarjetas restantes, se sigue que la probabilidad de una casa llena es

. EJEMPLO 5h En el juego de Bridge, toda la baraja de 52 cartas se reparte a 4 jugadores. ¿Cuál es la probabilidad de que (a) uno de los jugadores recibe las 13 espadas; (b) cada jugador recibe 1 ACE? Solución. a dejar Eme sea el acontecimiento que la mano me tiene las 13 espadas, entonces

P

1, 2, 3, 4

Porque los eventos Ei, me = 1, 2, 3, 4, son mutuamente excluyentes, la probabilidad de que una de las manos se reparte las 13 espadas es

L 6.3 * 10−12

P( i=1

(b) Para determinar el número de resultados en los que cada uno de los distintos playersreceives exactamente 1 ACE, dejar de lado los ases y notar que hay posibles divisiones de las otras tarjetas 48 cuando cada jugador reciba 12. Porque hay 4! formas de dividir los 4 Ases para que cada jugador reciba 1, vemos que el número de posibles resultados en los que cada jugador recibe exactamente 1 ACE es 4! Ya que hay

. las manos posibles, la probabilidad deseada es así

51

4! . Algunos resultados en probabilidad son bastante sorprendentes cuando se encuentran inicialmente. Nuestros siguientes dos ejemplos ilustran este fenómeno. EJEMPLO 5i Si N la gente está presente en una habitación, ¿cuál es la probabilidad de que no dos de ellos celebren su cumpleaños el mismo día del año? Lo grande que necesita N ser así que esta probabilidad es menor que ? Solución. Como cada persona puede celebrar su cumpleaños en uno de 365 días, hay un total de (365)N posibles resultados. (Estamos ignorando la posibilidad de que alguien haya nacido el 29 de febrero.) Asumiendo que cada resultado es igual de probable, n vemos que la probabilidad deseada es (365)(364)(363)... (3651)/(365) . Es un hecho bastante sorprendente que cuando N Efectos 23, esta probabilidad es menor que . Es decir, si hay 23 o más personas en una habitación, entonces la probabilidad de que por lo menos dos de ellos tienen el mismo cumpleaños excede . Muchas personas se sorprenden inicialmente por este resultado, ya que 23 parece tan pequeño en relación a 365, el número de días del año. Sin embargo, cada par de individuos tiene probabilidad

de tener el mismo cumpleaños, y en un grupo de 23

personas hay 253 diferentes pares de individuos. Mirado de esta manera, el resultado ya no parece tan sorprendente. Cuando hay 50 personas en la habitación, la probabilidad de que por lo menos dos comparten el mismo cumpleaños es de aproximadamente 970, y con 100 personas en la habitación, las probabilidades son mejores que 3000000:1. (Esto es, la probabilidad es mayor que

que al menos dos personas tienen el mismo cumpleaños.).

EJEMPLO 5J UNA baraja de 52 naipes es barajada, y las cartas se vuelven una a la vez hasta que aparezca el primer as. ¿Es la siguiente carta, es decir, la tarjeta que sigue al primer as, más probable que sea el as de picas o los dos de tréboles? Solución. Para determinar la probabilidad de que la tarjeta después de la primera ACE es el as de espadas, necesitamos calcular cuántos de los (52)! los pedidos posibles de las tarjetas tienen el as de espadas inmediatamente después del primer as. Para empezar, tenga en cuenta que cada pedido de las tarjetas 52 se puede obtener por primera vez ordenar las 51 tarjetas diferentes del as de espadas y luego insertar el as de espadas en ese orden. ¡ Además, para cada uno de los (51)! ORDENES de las otras tarjetas, sólo hay un lugar donde el as de espadas puede ser colocado de modo que siga el primer as. Por ejemplo, si el pedido de las otras tarjetas 51 es 4c, 6h, Jd, a 5s, Y, 7d,...,Kh

52

entonces la única inserción del as de picas en este ordenamiento que resulta en su siguiente el primer as es 4c, 6h, Jd, a 5s, Y, Como, 7d,...,Kh Por lo tanto, hay (51)! ORDENES que resultan en el as de espadas después de la primera ACE, por lo que P{el as de espadas sigue el primer as} = De hecho, por exactamente el mismo argumento, se sigue que la probabilidad de que los dos de los clubes (o cualquier otra tarjeta especificada) sigue el primer ACE es también . En otras palabras, cada una de las 52 tarjetas de la baraja es igualmente probable que sea la que sigue el primer as! Muchas personas encuentran este resultado bastante sorprendente. De hecho, una reacción común es suponer inicialmente que es más probable que los dos de tréboles (más que el as de espadas) siga el primer as, ya que ese primer ACE podría ser el as de espadas. Esta reacción se sigue a menudo por la realización que los dos de tréboles pudieron aparecer antes del primer as, así negando su ocasión de inmediatamente después del primer as. Sin embargo, como hay una posibilidad en cuatro de que el as de espadas será el primer as (porque los 4 Ases son igualmente probables de ser el primero) y sólo una oportunidad en cinco que los dos de los clubes aparecerán antes de la primera ACE (porque cada uno de los conjunto de 5 tarjetas que consisten en los dos de tréboles y los 4 Ases son igualmente propensos a ser los primeros de este set en aparecer), de nuevo parece que los dos de tréboles son más propensos. Sin embargo, este no es el caso, y un análisis más completo muestra que son igualmente probables. . EJEMPLO 5K UN equipo de fútbol consta de 20 jugadores ofensivos y 20 defensivos. Los jugadores deben ser emparejados en grupos de 2 con el propósito de determinar compañeros de cuarto. Si el emparejamiento se hace al azar, ¿cuál es la probabilidad de que no haya parejas ofensivasdefensivas de compañeros de cuarto? ¿Cuál es la probabilidad de que haya 2me pares ofensivos-defensivos del compañero de cuarto, me = 1, 2,...10? Solución. Hay

formas de dividir a los 40 jugadores en 20 Ordenó pares de dos cada uno. [Esto es, hay (40)!/220 formas de dividir a los jugadores en un Primera par, un Segundo par, y así sucesivamente.] Por lo tanto, hay (40)!/220(20)! formas de dividir a los jugadores en pares (desordenados) de 2 cada uno. Además, puesto que una división no resultará en pares ofensivos-defensivos si los jugadores ofensivos (y defensivos) se emparejan entre sí, se sigue que hay [(20)!/210(10)!]2 esas divisiones. Por lo tanto, la probabilidad de que no haya pares ofensivos-defensivos, llámalo P0, se da por

P !

53

Para determinar P2i, la probabilidad de que haya 2me ofensiva-pares defensivos, primero observamos que hay formas de seleccionar los 2me los jugadores ofensivos y los 2me los jugadores defensivos que deben estar en los pares ofensivos-defensivos. Estos 4me los jugadores pueden ser emparejados en (2i)! posibles pares ofensivos-defensivos. (Esto es así porque el primer jugador ofensivo puede ser emparejado con cualquiera de los 2me los jugadores defensivos, el segundo jugador ofensivo con cualquiera de los 2 restantesme − 1 jugadores defensivos, y así sucesivamente.) Como los 20 restantes − 2me los jugadores ofensivos (y defensivos) deben ser emparejados entre sí, se sigue que hay

divisiones que conducen a 2me pares ofensivos-defensivos. Ahí

P

me = 0, 1,..., a 10

Lla P2i,me = 0, 1,..., 10, ahora puede ser calculado, o pueden ser aproximados por Mak-√ 2π.

el uso de un resultado de Stirling, que muestra que n! puede ser aproximado por nn+1/2e−n Por ejemplo, obtenemos P0 L 1.3403 * 10−6 P10 L.345861 P20 L 7.6068 * 10−6

.

Nuestros siguientes tres ejemplos ilustran la utilidad de la proPosición 4,4. En el ejemplo 5L, la introducción de la probabilidad nos permite obtener una solución rápida a un problema de conteo. EJEMPLO 5L UN total de 36 miembros de un club juegan tenis, 28 juegan squash, y 18 juegan bádminton. Además, 22 de los miembros juegan tenis y squash, 12 juegan tenis y bádminton, 9 juegan squash y bádminton, y 4 juegan los tres deportes. ¿Cuántos miembros de este club juegan al menos uno de los tres deportes? Solución. Dejar N Anote el número de miembros del Club, e introduzca la probabilidad asumiendo que un miembro del Club es seleccionado aleatoriamente. Si, para cualquier subconjunto C de los miembros del Club, dejamos P(C) denotan la probabilidad de que el miembro seleccionado esté contenido en CEntonces número de miembros enC P(C) = N Ahora, con T siendo el conjunto de miembros que juegan al tenis, S ser el conjunto que juega squash, y B siendo el conjunto que juega bádminton, tenemos, de la proPosición 4,4,

54

P(T ∪ S ∪ B)

(Tsb) N N Por lo tanto, podemos concluir que 43 miembros juegan al menos uno de los deportes. . El siguiente ejemplo de esta sección no sólo posee la virtud de dar lugar a una respuesta algo sorprendente, sino que también es de interés teórico. EJEMPLO 5m el problema que empareja Suponga que cada uno de N los hombres en una fiesta tira su sombrero en el centro de la habitación. Los sombreros se mezclan por primera vez, y luego cada hombre selecciona al azar un sombrero. ¿Cuál es la probabilidad de que ninguno de los hombres Seleccione su propio sombrero? Solución. Primero calculamos la probabilidad complementaria de que al menos un hombre escoja su propio sombrero. Vamos a denotar por Ei,me = 1, 2,...,N el acontecimiento que el iel hombre escoge su propio sombrero. Ahora, por la proPosición 4,4 P , la probabilidad de que al menos uno de los hombres selecciona su propio sombrero se da por

P

P(Ei1Ei2) + ··· − i1
+ ··· + (−1)N+1P(E1E2 ···EN) Si consideramos el resultado de este experimento como un vector de N números, donde el iel elemento TH es el número del sombrero dibujado por el iTH Man, entonces hay N! posibles resultados. [El resultado (1, 2, 3,...,N) significa, por ejemplo, que cada hombre selecciona su propio sombrero.] Además Ei1Ei2 ...EEn, el caso de que cada uno de los N Hombres i1,i2,...,iN selecciona su propio sombrero, puede ocurrir en cualquiera de (N − n)(N − N − 1)···3 · 2 · 1 = (N − n)! maneras posibles; para, de los restantes N − N los hombres, el primero puede seleccionar cualquiera de N − N los sombreros, el segundo puede seleccionar cualquiera de N − N − 1 sombreros, y así sucesivamente. Por lo tanto, asumiendo que todos N! los posibles resultados son igualmente probables, vemos que P(Ei1Ei2 ···Ein) = −N n)! N!

55

También, como

allí

areterms enEEn), sigue que i

1 n! i 1< 2···

<

Así

P

N+1

1

N! Por lo tanto, la probabilidad de que ninguno de los hombres selecciona su propio sombrero es 1

1)N

N! que es aproximadamente igual a L.36788 para N Grande. En otras palabras, para N grande, la probabilidad que ninguno de los hombres selecciona su propio sombrero es aproximadamente. 37. (¿Cuántos lectores habrían pensado erróneamente que esta probabilidad iría a 1 como N→q?) . e−1

Para otra ilustración de la utilidad de la proPosición 4,4, considere el siguiente ejemplo. EJEMPLO 5N Calcular la probabilidad de que 10 parejas casadas estén sentadas al azar en una mesa redonda, entonces ninguna esposa se sienta al lado de su marido. Solución. Si dejamos Ei,me = 1, 2,..., 10 denotan el acontecimiento que el ipareja se sientan uno al lado del otro, se sigue que la probabilidad deseada es 1 − P

. Ahora, desde

Propuesta 4,4,

Pp(Ei1Ei2

···Ein) in

Para calcular P(Ei1Ei2 ···EEn), primero tenemos en cuenta que hay 19! maneras de organizar a 20 personas alrededor de una mesa redonda. (¿Por qué?) El número de arreglos que dan lugar a un conjunto especificado de N los hombres sentados junto a sus esposas se puede obtener más fácilmente por primera vez pensando en cada uno de los N las parejas

56

casadas como entidades solteras. Si este fuera el caso, entonces tendríamos que arreglar 20 − N las entidades alrededor de una mesa redonda, y hay claramente (20 − N − 1)! tales arreglos. Finalmente, ya que cada uno de los N las parejas casadas se pueden organizar una al lado de la otra en una de las dos formas posibles, y se sigue que hay 2n(20 − N − 1)! los arreglos que dan lugar a un conjunto especificado de N hombres sentados junto a sus esposas. Por ! P Así, de la proPosición 4,4, obtenemos que la probabilidad de que al menos una pareja casada se reúna, es decir,

y la probabilidad deseada es aproximadamente. 3395. ∗EJEMPLO

.

5o runs

Considerar un equipo atlético que acababa de terminar su temporada con un registro final de N gana y M Pérdidas. Al examinar la secuencia de victorias y pérdidas, esperamos determinar si el equipo tenía tramos de juegos en los que era más probable ganar que en otros momentos. Una forma de obtener una idea de esta pregunta es contar el número de carreras de WINS y, a continuación, ver cómo es probable que el resultado sería cuando todos los (N + m)!/(n! m!) órdenes de la N gana y M las pérdidas se asumen igualmente probables. Por una carrera de victorias, nos referimos a una secuencia consecutiva de victorias. Por ejemplo, si N = 10M = 6, y la secuencia de resultados fue WWLLWWWLWLLLWWWW, entonces habría 4 carreras de victorias — la primera es de tamaño 2, la segunda de tamaño 3, la tercera de tamaño 1, y la cuarta de tamaño 4. Suponga ahora que un equipo ha N gana y M Pérdidas. Asumiendo que todos (N + m)!/ los pedidos son igualmente probables, vamos a determinar la probabilidad que habrá exactamente R carreras de victorias. Para ello, considere primero cualquier vector de enteros positivos x1,x2,...,xR Con x1 + ··· + xR = n, y veamos cuantos resultados resultan en R carreras de victorias en las que el iTH Run es de tamaño xi,me = 1...,r. Para cualquier resultado, si dejamos y1 denotar el número de pérdidas antes de la primera ejecución de WINS, y2 el número de pérdidas entre las dos primeras carreras de victorias, ...,yr+1 el número de pérdidas después de la última ejecución de WINS, entonces el yme Satisfacer y1 + y2 + ··· + yr+1 = m

y1 Efectos 0yr+1 Efectos 0yme > 0me = 2...,r

y el resultado puede ser representado esquemáticamente como y1

x1

y2

x2

xr

y r+1

57

Por lo tanto, el número de resultados que resultan en R carreras de victorias: la iTH de tamaño xi,me = 1...r: es igual al número de números enteros y1,...,yr+1 que satisfacen lo anterior, o, equivalentemente, al número de enteros positivos y1 = y1 + 1

yme = yi,me = 2...,r, yr+1 = yr+1 + 1

que satisfacen y1 + y2 + ··· + yr+1 = M + 2

Por la proPosición 6,1 en el capítulo 1, hay

tales resultados. Por lo tanto, el

número total de resultados que resultan en R carreras de victorias es , multiplicado por el número de soluciones integrales positivas de x1 + ··· + xR = n. Por lo tanto, de nuevo de la proPosición 6,1, hay R carreras de victorias. Ya que hay

resultados que resultan en

resultados igualmente probables, se deduce que

P({R carreras de victorias}

R Efectos 1

Por ejemplo, si N = 8 y M = 6, entonces la probabilidad de 7 funcionamientos es 429 si todos los resultados son igualmente probables. Por lo tanto, si el resultado Fue WLWLWLWLWWLWLW, entonces podríamos sospechar que la probabilidad del equipo de ganar estaba cambiando con el tiempo. (En particular, la probabilidad de que el equipo gane parece ser bastante alta cuando perdió su último juego y bastante bajo cuando ganó su último partido.) En el otro extremo, si el resultado se WWWWWWWWLLLLLL, entonces no habría sido sólo una carrera, y como P 429, así parecería de nuevo improbable que la probabilidad del equipo de ganar se mantuvo sin cambios en sus 14 juegos. .

∗2,6

PROBABILIDAD como función de conjunto continuo UNA secuencia de eventos {En,N Efectos 1} se dice que es una secuencia creciente si E1 ( E2 ( ··· ( EN ( En+1 ( ···

58

que se dice que es una secuencia decreciente si E1 ) E2 ) ··· ) EN ) En+1 ) ··· Si {En,N Efectos 1} es una secuencia cada vez mayor de eventos, entonces definimos un nuevo evento, denotado por Lim EnPor n→q q

Lim

EnEme

n →q

Del mismo modo, si {En,N Efectos 1} es una secuencia decreciente de eventos, definimos LimEN Por n q

Lim EnEme n→Q i=1 Ahora probamos la siguiente proPosición 1: Propuesta 6,1. Si {En,N Efectos 1} es una secuencia creciente o decreciente de eventos, entonces Lim P(En) = P( Lim→ En) n→q Nq

Prueba. SuPongamos, en primer lugar, que {En,N Efectos 1} es una secuencia cada vez mayor, y definir los eventos Fn,N Efectos 1, por F1 = E1 c

Fn

donde hemos utilizado el hecho de que

n−1



EnEnc−1 N > 1

Eme = En−1, ya que los acontecimientos están aumentando.

En palabras, FN consiste en esos resultados en EN que no están en ninguno de los anteriores Ei,me < n. Es fácil verificar que el FN son eventos mutuamente exclusivos q q

n

n

59

Yi

Y

Yipara todos N Efectos 1

60 Sección 2,6

Probabilidad como función de conjunto continuo

Así

P q

)

(por axioma 3)

n

=n

P(Fi) n

=n









n

=n = nLim→qP(En)

que prueba el resultado cuando {En,N Efectos 1} está aumentando. Si {En,N Efectos 1} es una secuencia decreciente, entonces {ENc,N Efectos 1} es una secuencia cada vez mayor; por lo tanto, de las ecuaciones anteriores,

P

i

c

Sin embargo, porque

=

, sigue que

⎛⎛

P q

c

⎞⎞

61

o,

equivalentemente,

⎛q



O

P ⎝1



n→q

lo que prueba el resultado. EJEMPLO 6A probabilidad y una paradoja SuPongamos que poseemos una urna infinitamente grande y una colección infinita de pelotas etiquetadas número 1, número 2, número 3, y así sucesivamente. Considere un experimento realizado de la siguiente manera: en 1 minuto a 12 P.m., las bolas numeradas del 1 al 10 se colocan en la urna y la bola número 10 se retira. (Suponga que la retirada no toma tiempo.) En minuto a 12 P.m., las bolas numeradas 11 a 20 se colocan en la urna y la bola número 20 se retira. En minuto a 12 P.m., las bolas numeradas del 21 al 30 se colocan en la urna y la bola número 30 se retira. En minuto a 12 P.m., y así sucesivamente. La cuestión de interés es, ¿cuántas bolas hay en la urna a las 12 P.m.? La respuesta a esta pregunta es claramente que hay un número infinito de bolas en la urna a las 12 P.m., ya que cualquier bola cuyo número no es de la forma 10n, N Efectos 1, se han colocado en la urna y no se han retirado antes de 12 P.m. Por lo tanto, el problema se resuelve cuando el experimento se realiza como se describe. Sin embargo, ahora vamos a cambiar el experimento y Supongamos que en 1 minuto a 12 P.m. las bolas numeradas del 1 al 10 se colocan en la urna y la bola número 1 se retira; En minuto a 12 P.m., las bolas numeradas del 11 al 20 se colocan en la urna y la bola número 2 se retira; En minuto a 12 P.m., las bolas numeradas del 21 al 30 se colocan en la urna y la bola número 3 se retira; En minuto a 12 P.m., las bolas numeradas 31 a 40 se colocan en la urna y la bola número 4 se retira, y así sucesivamente. Para este nuevo experimento, ¿cuántas bolas hay en la urna a las 12 P.m.? Sorprendentemente, la respuesta ahora es que la urna es Vacío a las 12 P.m. Para, considere cualquier bola-digamos, número de la bola n. En algún momento antes de 12 P.m. [en particular, en minutos a 12 P.m.], esta bola habría sido retirada de la urna. Por lo tanto, para cada n, número de la bola N no está en la urna a las 12 P.m.; por lo tanto, la urna debe estar vacía en ese momento. Vemos entonces, de la discusión anterior que la manera en que las bolas son retiradas hace la diferencia. Para, en el primer caso sólo bolas numeradas 10n,N Efectos 1, se retira

62

siempre, mientras que en el segundo caso todas las bolas se retiran eventual. Supongamos ahora que cada vez que una pelota se retira, esa pelota es seleccionada aleatoriamente entre los presentes. Esto es, supongamos que en 1 minuto a 12 P.m. las bolas numeradas del 1 al 10 se colocan en la urna y una bola es seleccionada y retirada aleatoriamente, y así sucesivamente. En este caso, ¿cuántas bolas hay en la urna a las 12 P.m.? Solución. Vamos a demostrar que, con la probabilidad 1, la urna está vacía a las 12 P.m. Primero pensemos en la bola número 1. Definir EN para ser el caso de que la bola número 1 todavía está en la urna después de la primera N se han hecho retiros. Claramente

P [Para entender esta ecuación, sólo tenga en cuenta que si la bola número 1 es todavía estar en la urna después de la primera N retiros, la primera bola retirada puede ser cualquiera de 9, el segundo cualquiera de 18 (hay 19 bolas en la urna en el momento de la segunda retirada, uno de los cuales debe ser balón número 1), y así sucesivamente. El denominador se obtiene semejantemente.] Sección 2,6

Probabilidad como función de conjunto continuo q

Porque los eventos En,N Efectos 1, están disminuyendo los eventos, se desprende de la proPosición 6,1 quen=1 Ahora, el evento que la bola número 1 está en la urna a las 12 P.m. es sólo el evento En. P{la bola número 1 está en la urna a las 12. P.m.}

=P = Lim P(En)

n→Q q

= n=1 Ahora mostramos que q

n=1

Desde

q

9n +

1

63 n =1

Esto equivale a mostrar que

Q n=1

Ahora, para todos M Efectos 1 q

9n 9n n=1 =1

m me q

Por lo tanto, dejar m→Q y utilizando el hecho de que

Q Rendimientos

Q n=1

Por lo tanto, dejar Fme denota el acontecimiento que el número de la bola me está en la urna a las 12 P.m., hemos demostrado que P(F1) = 0. del mismo modo, podemos demostrar que P(Fi) = 0 para todos i. q

(Por ejemplo, el mismo razonamiento demuestra que P(Fi)

[9n/(9n = n$=2

1)] para i +

11, 12,..., 20.) Por lo tanto, la probabilidad de que la urna no esté vacía a los 12 P.m., P , Satisface q

q

=

64

P⎛ ⎞ por la desigualdad de Boole. (Ver ejercicio de auto-prueba 14.) 2,7

Así, con la probabilidad 1, la urna estará vacía a las 12 P.m. PROBABILIDAD como medida de creencia

.

Hasta ahora hemos interpretado la probabilidad de que un evento de un experimento dado sea una medida de la frecuencia con la que el evento ocurrirá cuando el experimento se repita continuamente. Sin embargo, también hay otros usos del término Probabilidad. Por ejemplo, todos hemos escuchado tales declaraciones como "es 90 por ciento probable que Shakespeare realmente escribió Aldea"o" la probabilidad de que Oswald actuara solo en asesinar a Kennedy es. 8. ¿Cómo interpretar estas afirmaciones? La interpretación más simple y natural es que las probabilidades mencionadas son medidas del grado de creencia del individuo en las declaraciones que él o ella está haciendo. En otras palabras, el individuo que hace las declaraciones anteriores está bastante seguro de que Oswald actuó solo y está aún más seguro de que Shakespeare escribió Aldea. Esta interpretación de la probabilidad como una medida del grado de creencia de uno se conoce a menudo como el Personal O Subjetiva vista de la probabilidad. Parece lógico suponer que una "medida del grado de la creencia de uno" debe satisfacer todos los axiomas de la probabilidad. Por ejemplo, si estamos 70 por ciento seguro de que Shakespeare escribió Julio César y 10 por ciento seguro de que era en realidad Marlowe, entonces es lógico suponer que estamos 80 por ciento seguro de que era o Shakespeare o Marlowe. Por lo tanto, si interpretamos la probabilidad como una medida de creencia o como una frecuencia de ocurrencia a largo plazo, sus propiedades matemáticas permanecen inalteradas. EJEMPLO 7A Suponga que, en una carrera de 7 caballos, usted siente que cada uno de los dos primeros caballos tiene un 20 por ciento de probabilidades de ganar, los caballos 3 y 4 cada uno tienen un 15 por ciento de probabilidades, y los 3 caballos restantes tienen un 10 por ciento de probabilidades cada uno. ¿Sería mejor para usted apostar a dinero incluso que el ganador será uno de los tres primeros caballos o para apostar, de nuevo a dinero incluso, que el ganador será uno de los caballos 1, 5, 6, y 7? Solución. Sobre la base de sus probabilidades personales sobre el resultado de la carrera, su probabilidad de ganar la primera apuesta es .2 + .2 + .15 = .55, mientras que es .2 + .1 + .1 + .1 = .5 para la segunda apuesta. Por lo tanto, la primera apuesta es más atractiva.

.

Tenga en cuenta que, al suponer que las probabilidades subjetivas de una persona son siempre coherentes con los axiomas de la probabilidad, estamos tratando con un idealizado en lugar de un Resumen

persona real. Por ejemplo, si tuviéramos que preguntarle a alguien lo que él pensaba que las posibilidades eran de (a) lluvia hoy, (b) lluvia mañana, (c) lluvia tanto hoy como mañana,

65

(d) llueva hoy o mañana, es muy posible que, después de algunas deliberaciones, pueda dar 30 por ciento, 40 por ciento, 20 por ciento, y 60 por ciento como respuestas. Desafortunadamente, tales respuestas (o tales probabilidades subjetivas) no son consistentes con los axiomas de la probabilidad. (¿Por qué no?) Por supuesto, esperamos que, después de que se señaló a la demandada, ella cambiaría sus respuestas. (Una posibilidad que podríamos aceptar es 30 por ciento, 40 por ciento, 10 por ciento y 60 por ciento).

Resumen Dejar S denotar el conjunto de todos los resultados posibles de un experimento. S se llama el espacio de muestra del experimento. Un evento es un subconjunto de S. Si Ai,me = 1...,n, son eventos, entonces n Ai, llamado el Unión de estos eventos, consiste en todos los resultados que se encuentran en al menos n

uno de los eventos Ai,me = 1...,n. Semejantemente Ai, a veces escrito como A1 ···AnEs

llamado el Intersección de los eventos Ame y consiste en todos los resultados que están en todosi=1 los eventos Ai,me = 1...,n. Para cualquier evento A, definimos AC consistir en todos los resultados en el espacio de muestra que no están en A. Que llamamos AC Lla Complemento del evento A. El evento Sc, que está vacío de los resultados, es designado por Ø y se llama el Null Establecer. Si Apagado = Ø, entonces decimos que Un Y B Son mutuamente excluyentes. Para cada evento Un del espacio de muestra S, suponemos que un número P(A), llamada la probabilidad de A, se define y es tal que (i) 0 ... P(A) ... 1 (ii) P(S) = 1 (iii) Para eventos mutuamente exclusivos Ai,me Efectos 1 q

q

⎛ ⎞

P

P(A) representa la probabilidad de que el resultado del experimento se A. Se puede demostrar que P(Ac) = 1 − P(A)

66

UN resultado útil es que

que

se

P(Un ∪ B) = P(A) + P(B) − P(Apagado) puede generalizar para dar P (AiAjAk) n

⎞ (AiAj) n i<j
+ ··· + (−1)n+1P(A1 ···An) Si S es finito y cada conjunto de un punto se supone que tiene la misma probabilidad, entonces A P(A) = || || S Donde |E| denota el número de resultados en el evento E. P(A) puede ser interpretado como una frecuencia relativa a largo plazo o como una medida del grado de creencia de uno. Problemas 1. UNA caja contiene 3 canicas: 1 rojo, 1 verde y 1 azul. Consideremos un experimento que consiste en tomar 1 canica de la caja y luego reemplazarla en la caja y dibujar un segundo mármol de la caja. DesCriba el espacio de muestra. Repita cuando se dibuje la segunda canica sin reemplazar la primera canica. 2. En un experimento, el troquel se enrolla continuamente hasta que aparece un 6, momento en el cual el experimento se detiene. ¿Cuál es el espacio de muestra de este experimento? Dejar EN denotar el evento que N los rollos son necesarios para completar el experimento. ¿Qué puntos de la Samc el espacio del ple se contiene en En? ¿Qué es? 3. Se lanzan dos dados. Dejar Y ser el caso de que la suma de los dados es impar, que F ser el caso de que al menos uno de los dados aterriza en 1, y dejar que G sea el caso de que la suma sea 5. Describir los eventos Si,Y ∪ F,Fg,SicY Efg. 4. A, BY C tome turnos volteando una moneda. El primero en conseguir una cabeza gana. El espacio de muestra de este experimento puede ser definido por 1, 01, 001, 0001,..., S=%

··· 0000

(a) Interprete el espacio de la muestra. (b) Defina los siguientes eventos en términos de S: (i) Un Gana = A. (ii)

B Gana = B.

(iii) (Un ∪ B)c. Asumir que Un voltea primero, luego BEntonces CEntonces A, y así sucesivamente. 5. UN sistema consta de 5 componentes, cada uno de los cuales funciona o falla. Considerar un experimento que consiste en observar el estado de cada componente, y dejar que el resultado del experimento sea dado por el vector (x1,x2,x3,x4,x5)Donde xme es igual a 1 si el componente me está funcionando y es igual a 0 si el componente me se ha fallado. (a) ¿Cuántos resultados se encuentran en el espacio de muestra de este experimento? (b) Suponga que el sistema funcionará si los componentes 1 y 2 están funcionando, o si los componentes 3 y 4 están funcionando, o si todos los componentes 1, 3 y 5 están funcionando. Dejar En ser el evento que el sistema funcionará. Especifique todos los resultados en W. (c) Dejar Un sea el caso de que los componentes 4 y 5 fallen. ¿Cuántos resultados se incluyen en el evento? A?

(d) Escriba todos los resultados en el evento Aw. 6. UN administrador del hospital codifica pacientes entrantes que sufren heridas de bala de acuerdo a si tienen seguro (codificación 1 si lo hacen y 0 si no lo hacen) y de acuerdo a su condición, que está clasificado como bueno (g), justo (f), o grave (s). Considere un experimento que consiste en la codificación de tal paciente. (a) Dar el espacio de muestra de este experimento. (b) Dejar Un ser el caso de que el paciente esté en grave estado. Especifique los resultados en A. (c) Dejar B sea el caso de que el paciente no esté asegurado. Especifique los resultados en B. (d) Dar todos los resultados en el evento BC ∪ A. 7. Consideremos un experimento que consiste en determinar el tipo de trabajo — ya sea de cuello azul o whitecollar — y la afiliación política — republicana, democrática o independiente — de los 15 miembros de un equipo de fútbol para adultos. ¿Cuántos resultados se un en el espacio de muestra? (b) en caso de que al menos uno de los miembros del equipo sea un trabajador de cuello azul? (c) ¿en caso de que ninguno de los miembros del equipo se considere independiente? 8. Suponga que Un Y B son eventos mutuamente exclusivos para los que P(A) = .3 y P(B) = .5. ¿Cuál es la probabilidad de que un sea Un O B ¿Ocurre? b Un ocurre, pero B ¿No? c Ambos Un Y B ¿Ocurrir? 9. UN establecimiento minorista acepta ya sea el American Express o la tarjeta de crédito VISA. UN total de 24 por ciento de sus clientes llevan una tarjeta American Express, 61 por ciento llevan una tarjeta VISA, y 11 por ciento llevan ambas Tarjetas. ¿Qué porcentaje de sus clientes lleva una tarjeta de crédito que el establecimiento aceptará? 10. 60 por ciento de los estudiantes en cierta escuela no llevan ni un anillo ni un collar. Veinte por ciento usan un anillo y 30 por ciento usan un collar. Si uno de los estudiantes es elegido aleatoriamente, ¿cuál es la probabilidad de que este estudiante esté usando un ¿un anillo o un collar? b ¿un anillo y un collar? 11. UN total del 28 por ciento de los varones americanos fuma cigarrillos, el 7 por ciento fuma cigarros, y el 5 por ciento fuma ambos cigarros y cigarrillos. (a) ¿Qué porcentaje de hombres fuma ni cigarros ni cigarrillos? (b) Qué Porcentaje Fuma Cigarros Pero ¿no cigarrillos? 12. Una escuela primaria ofrece 3 clases de idiomas: una en español, una en francés y otra en alemán. Las clases están abiertas a cualquiera de los 100 estudiantes en la escuela. Hay 28 estudiantes en la clase de español,

67 26 en la clase de francés, y 16 en la clase de alemán. Hay 12 estudiantes que están en español y francés, 4 que están en español y alemán, y 6 que están en francés y alemán. Además, hay 2 estudiantes que toman las 3 clases. (a) Si un estudiante es elegido aleatoriamente, ¿cuál es la probabilidad de que él o ella no esté en ninguna de las clases de idiomas? (b) Si un estudiante es elegido aleatoriamente, ¿cuál es la probabilidad de que él o ella esté tomando exactamente una clase de idioma? (c) Si dos estudiantes son elegidos aleatoriamente, ¿cuál es la probabilidad de que al menos 1 esté tomando una clase de idioma? 13. UNA cierta ciudad con una población de 100.000 tiene 3 periódicos: I, II, y III. Las proporciones de los pobladores que leen estos documentos son las siguientes: I: 10 por ciento I y II: 8 por ciento

I y II y III: 1 por ciento

II: 30 por ciento I y III: 2 por ciento III: 5 por ciento II y III: 4 por ciento Problemas (La lista nos dice, por ejemplo, que 8000 personas leen los periódicos I y II.) (a) Encontrar el número de personas que leen sólo un periódico. (b) Cómo Muchos Gente Leer En Menos ¿dos periódicos? (c) Si I y III son periódicos matutinos y II es un periódico vespertino, ¿cuánta gente lee al menos un periódico matutino más un periódico vespertino? (d) Cómo Muchos Gente De No Leer ¿algún periódico? (e) ¿Cuánta gente lee sólo un periódico matutino y un periódico vespertino? 14. Los siguientes datos fueron dados en un estudio de un grupo de 1000 suscriptores a una cierta revista: en referencia a trabajo, estado civil, y educación, había 312 profesionales, 470 personas casadas, 525 graduados de la Universidad, 42 graduados de la Universidad profesional, 147 los graduados de la Universidad casada, 86 profesionales casados, y 25 casaron a graduados profesionales de la Universidad. DeMuestre que los números reportados en el estudio deben ser incorrectos. Pista: Let M, WY G denotan, respectivamente, el conjunto de profesionales, personas casadas y graduados universitarios. Asuma que una de las 1000 personas es escogida al azar, y use la proPosición 4,4 para mostrar que si los números dados son correctos, entonces

P(M ∪ En ∪ G) > 1.

68 (a) Si una de estas familias es escogida al azar, ¿cuál es la probabilidad que tiene me Niños me = ¿1, 2,

15. Si se asume que todos los las manos de póquer son igualmente probables, ¿cuál es la probabilidad de ser tratado (a) ¿un rubor? (Se dice que una mano es de color si las 5 cartas son del mismo palo.) (b) ¿un par? (Esto ocurre cuando las tarjetas tienen denominaciones a, a, b, c, dDonde a, b, cY D son todos distintos.) (c) ¿dos pares? (Esto ocurre cuando las tarjetas tienen denominaciones a, a, b, b, cDonde a, bY C son todos distintos.) (d) ¿tres de un tipo? (Esto ocurre cuando las tarjetas tienen denominaciones a, a, a, b, cDonde a, bY C son todos distintos.) (e) ¿cuatro de un tipo? (Esto ocurre cuando las tarjetas tienen denominaciones a, a, a, a, b.) 16. Dados de póquer se juega al mismo tiempo rodando 5 dados. Demuestran que un P{no dos iguales} = .0926; b P{un par} = .4630; c P{dos pares} = .2315; De P{tres iguales} = .1543; Y P{Full House} = .0386; f P{cuatro iguales} = .0193; g P{cinco iguales} = .0008. 17. Si 8 Torres (castillos) son colocadas aleatoriamente en un tablero de ajedrez, calcule la probabilidad de que ninguna de las torres pueda capturar a ninguna de las otras. Esto es, calcule la probabilidad de que ninguna fila o archivo contenga más de una torre. 18. Dos cartas son seleccionadas aleatoriamente de una baraja de juego ordinaria. ¿Cuál es la probabilidad de que formen un Blackjack? Esto es, ¿cuál es la probabilidad de que una de las cartas sea un as y la otra sea un diez, un gato, una reina o un rey? 19. Dos dados simétricos tienen dos de sus lados pintados de rojo, dos pintados de negro, uno pintado de amarillo, y la otra pintada de blanco. Cuando este par de dados se enrolla, ¿cuál es la probabilidad de que ambos dados aterricen con el mismo color boca arriba? 20. Suponga que está jugando Blackjack contra un traficante. En una baraja recién barajada, ¿cuál es la probabilidad de que ni usted ni el crupier se reparten un Blackjack? 21. UNA organización pequeña de la comunidad consiste en 20 familias, de las cuales 4 tienen un niño, 8 tienen dos niños, 5 tienen tres niños, 2 tienen cuatro niños, y 1 tiene cinco niños.

3, 4, 5? (b) Si uno de los niños es elegido al azar, ¿cuál es la probabilidad de que el niño provenga de una familia que me Niños me = ¿1, 2, 3, 4, 5? 22. Considere la siguiente técnica para barajar una baraja de N tarjetas: para cualquier pedido inicial de las tarjetas, ir a través de la baraja de una tarjeta a la vez y en cada tarjeta, voltear una moneda justa. Si la moneda sube cabezas, entonces deje la tarjeta donde está; Si la moneda sube por las colas, entonces mueva esa tarjeta hasta el final de la baraja. Después de que la moneda se ha volteado N veces, dicen que una ronda se ha completado. Por ejemplo, si N = 4 y el orden inicial es 1, 2, 3, 4, entonces si las volteretas sucesivas resultan en el resultado h, t, t, h, entonces el ordenar al final de la Ronda es 1, 4, 2, 3. Asumiendo que todos los posibles resultados de la secuencia de N los flips de monedas son igualmente probables, ¿cuál es la probabilidad de que el pedido después de una ronda es el mismo que el pedido inicial? 23. UN par de dados justos se ruedan. ¿Cuál es la probabilidad de que el segundo dado caiga en un valor más alto que el primero? 24. Si se ruedan dos dados, ¿cuál es la probabilidad de que la suma de las caras volteadas es igual a i? Encontrar para me = 2, 3,..., 11, 12. 25. Se rueda un par de dados hasta que aparezca una suma de 5 o 7. Encontrar la probabilidad de que un 5 ocurra primero. Pista: Let EN denotan el evento de que se produce un 5 en Lla nTH roll y no 5 o 7 se produce en el primer N − 1 q n =1

Rollos. Calcular P(En) y argumentan que P(En) Es la probabilidad deseada. 26. El juego de dados se juega de la siguiente manera: un jugador rueda dos dados. Si la suma de los dados es un 2, 3, o 12, el jugador pierde; Si la suma es un 7 o un 11, el jugador gana. Si el resultado es cualquier otra cosa, el jugador continúa tirando los dados hasta que ruede el resultado inicial o un 7. Si el 7 es el primero, el jugador pierde, mientras que si el resultado inicial se reproduce antes de que aparezca el 7, el jugador gana. Calcular la probabilidad de que un jugador gane en dados. Pista: Let Eme denotan el evento de que el resultado inicial es me y el jugador gana. La probabilidad deseada es

. Para calcular P(Ei), defina los

eventos Ei,N ser el caso de que la suma inicial sea me y el jugador gana en el nrollo. Argumentan que q P P(Ei,n). n=1 27. Una urna contiene 3 bolas rojas y 7 negras. Jugadores Un Y B Retire las bolas de la urna consecutivamente hasta que se seleccione una bola roja. Encontrar la probabilidad de que Un selecciona la bola roja. (Un dibuja la primera bola, entonces B, y así sucesivamente. No hay reemplazo de las bolas dibujadas.) 28. Una urna contiene 5 bolas rojas, 6 azules y 8 verdes. Si un juego de 3 bolas se selecciona al azar, ¿cuál es la probabilidad de que cada una de las bolas será (a) del mismo color? (b) de diferentes colores? Repita bajo el supuesto de que cada vez que una bola es seleccionada, su color es observado y entonces es substituido en la urna antes de la selección siguiente. Esto se conoce como muestreo con reemplazo. 29. Una urna contiene N blanco y M bolas negras, donde N Y M son números positivos. (a) Si dos bolas se retiran al azar, ¿cuál es la probabilidad de que sean del mismo color? (b) Si una bola se retira aleatoriamente y luego se sustituye antes de que se dibuje el segundo, ¿cuál es la probabilidad de que las bolas retiradas sean del mismo color? (c) Mostrar que la probabilidad en la parte (b) es siempre mayor que la de la parte (a). 30. Los clubes de ajedrez de dos escuelas consisten, respectivamente, en 8 y 9 jugadores. Cuatro miembros de cada Club son elegidos al azar para participar en un concurso entre las dos escuelas. Los jugadores elegidos de un equipo se emparejan al azar con los del otro equipo, y cada emparejamiento juega un juego de ajedrez. Suponga que Rebecca y su hermana Elise están en los clubes de ajedrez en diferentes escuelas. ¿Cuál es la probabilidad de que un ¿Rebecca y Elise serán emparejados? (b) ¿Rebecca y Elise serán elegidos para representar a sus escuelas pero no se jugarán entre sí? (c) ¿o Rebecca o Elise serán elegidos para representar a su escuela? 31. UN equipo de baloncesto de 3 personas consiste en un guardia, un delantero y un centro. (a) Si una persona es escogida al azar de cada uno de los tres equipos diferentes, ¿cuál es la probabilidad de seleccionar un equipo completo? (b) ¿Cuál es la probabilidad de que los 3 jugadores seleccionados jueguen la misma posición? 32. UN grupo de individuos que contienen B chicos y G las niñas se alinean en orden aleatorio; es, cada uno de los (B + g)! se supone que las permutaciones son igualmente probables. Qué es la probabilidad de que

69 la persona en el iposición TH, 1 ... me ... B + g, es una chica? 33. UN bosque contiene 20 alces, de los cuales 5 son capturados, etiquetados y luego liberados. Cierto tiempo después, 4 de los 20 alces son capturados. ¿Cuál es la probabilidad de que 2 de estos 4 hayan sido etiquetados? ¿Qué suposiciones estás haciendo? 34. El segundo conde de Yarborough se ha reportado que ha apostado en odds de 1000 a 1 que una mano de Bridge de 13 cartas contendría al menos una carta que sea diez o más. (Por diez o más queremos decir que una tarjeta es un diez, un gato, una reina, un rey, o un as.) Hoy en día, llamamos a una mano que no tiene tarjetas superiores a 9 un Yarborough. ¿Cuál es la probabilidad de que una mano de puente seleccionada aleatoriamente sea un Yarborough? 35. Siete bolas son retiradas aleatoriamente de una urna que contiene 12 bolas rojas, 16 azules y 18 verdes. Encontrar la probabilidad de que (a) 3 rojo, 2 azules, y 2 bolas verdes se retiran; (b) se retiran al menos 2 bolas rojas; (c) todas las bolas retiradas son del mismo color; (d) o exactamente 3 bolas rojas o exactamente 3 bolas azules se retiran. 36. Dos cartas son escogidas al azar de una baraja de 52 naipes. ¿Cuál es la probabilidad de que un ¿ambos son ases? b tienen el mismo valor? 37. Un instructor le da a su clase un conjunto de 10 problemas con la información que el examen final consistirá en una selección aleatoria de 5 de ellos. Si un estudiante ha descubierto cómo hacer 7 de los problemas, ¿cuál es la probabilidad de que él o ella va a responder correctamente un ¿los 5 problemas? b ¿al menos 4 de los problemas? 38. Hay N calcetines, 3 de los cuales son rojos, en un cajón. ¿Cuál es el valor de N Si, cuando 2 de los calcetines son elegidos aleatoriamente, la probabilidad de que ambos son rojos es ? 39. Hay 5 hoteles en una ciudad determinada. Si 3 personas registro en hoteles en un día, ¿cuál es la probabilidad de que cada uno de ellos en un hotel diferente? ¿Qué suposiciones estás haciendo? 40. UNA ciudad contiene 4 personas que reparan televisiones. Si 4 sets se descomponen, ¿cuál es la probabilidad de que Problemas Exactamente me de los reparadores se llaman? Resolver el problema para me = 1, 2, 3, 4. ¿Qué suposiciones estás haciendo? 41. Si un dado se enrolla 4 veces, ¿cuál es la probabilidad de que 6 se presenta al menos una vez?

70 42. Se lanzan dos dados N veces consecutivas. Calcule la probabilidad de que Double 6 aparezca al menos una vez. Lo grande que necesita N ser para hacer esta probabilidad por lo menos ? 43. un Si N personas, incluyendo Un Y B, se organizan al azar en una línea, ¿cuál es la probabilidad de que Un Y B están uno al lado del otro? b ¿Cuál sería la probabilidad si la gente fuera arreglada aleatoriamente en un círculo? 44. Cinco personas, designadas como A, B, C, D, E, se arreglan en orden linear. Asumiendo que cada orden posible es igual de probable, ¿cuál es la probabilidad de que (a) hay exactamente una persona entre Un Y B? (b) hay exactamente dos personas entre Un Y B? (c) Hay tres personas entre Un Y B? 45. UNA mujer ha N llaves, de los cuales se abrirá la puerta. (a) Si ella intenta las llaves al azar, descartando aquellos que no funcionan, ¿cuál es la probabilidad de que ella le abrirá la puerta a su k¿lo intentamos? (b) ¿Qué pasa si no descarta las llaves previamente probadas? 46. ¿Cuántas personas tienen que estar en una habitación para que la probabilidad de que por lo menos dos de ellos celebran su cumpleaños en el mismo mes es por lo menos ? SuPongamos que todos los posibles resultados mensuales son igualmente probables. 47. Si hay 12 extraños en una habitación, ¿cuál es la probabilidad de que no dos de ellos celebren su cumpleaños en el mismo mes? 48. Dado 20 personas, ¿cuál es la probabilidad de que, entre los 12 meses del año, haya 4 meses que contengan exactamente 2 cumpleaños y 4 que contengan exactamente 3 cumpleaños? 49. UN grupo de 6 hombres y 6 mujeres se divide al azar en 2 grupos de tamaño 6 cada uno. ¿Cuál es la probabilidad de que ambos grupos tengan el mismo número de hombres? 50. En una mano de Bridge, encuentra la probabilidad de que tengas 5 picas y tu pareja tiene los 8 restantes. 51. Suponga que N las bolas se distribuyen aleatoriamente en N Compartimientos. Encontrar la probabilidad de que M las bolas caerán en el primer compartimento. Asumir que todos NN los arreglos son igualmente probables. 52. UN armario contiene 10 pares de zapatos. Si se seleccionan 8 zapatos al azar, ¿cuál es la probabilidad de que habrá un ¿ningún par completo?

b ¿exactamente 1 par completo? 53. Si 4 parejas casadas están organizadas en una fila, encontrar la probabilidad de que ningún marido se sienta al lado de su esposa. 54. Calcule la probabilidad de que una mano de puente esté vacía en al menos un traje. Tenga en cuenta que la respuesta no es

(¿Por qué no?) Pista: Use la proPosición 4,4. 55. Calcular la probabilidad de que una mano de 13 tarjetas contiene (a) el as y el rey de al menos un traje; b los 4 de al menos 1 de las 13 denominaciones.

71 56. Dos jugadores juegan el siguiente juego: jugador Un Elige uno de los tres Spinners ilustrados en la figura 2,6, y luego el jugador B Escoge uno de los dos hilanderos restantes. Ambos jugadores giran su Spinner, y el que aterriza en el número más alto es declarado ganador. Asumiendo que cada Spinner es igualmente probable que aterrice en cualquiera de sus 3 regiones, ¿preferirías ser jugador Un o jugador B? ¡ Explique su respuesta!

9

5

3

a

b

1

4

7

6 c

2 Figura 2,6: Hilanderos

EJERCICIOS TEÓRICOs

Demostrar las siguientes relaciones: 1. Si ( Y ( Y ∪ F.

4.EiF

8

Y

2. Si Y ( FEntonces FC ( Ec. 3. F = FE ∪ FEC Y Y ∪ F = Y ∪ EcF.

.

5. Para cualquier secuencia de eventos E1,E2,..., defina una

nueva

secuencia

eventos

restante K artículos no especiales. Añadiendo el

desarticulados (es FiFJ = Ø cuando me Z j) tal que para

elemento especial al subconjunto de tamaño N − k,

todos N Efectos 1

obtenemos una partición de todos N + 1 items. n

F1,F2,...

de

72 especiales, y luego cualquiera de los TK particiones del

n

Ei 6. Dejar E, FY G tres eventos. Buscar expresiones para los eventos de modo que, de E, FY G, un Sólo Y ocurre (b) Ambos Y Y G, pero no Focurrir (c) al menos uno de los eventos ocurre; (d) al menos dos de los eventos ocurren; (e) los tres acontecimientos ocurren; (f) ninguno de los eventos ocurre; (g) a lo sumo uno de los eventos ocurre; (h) a lo sumo dos de los eventos ocurren; me exactamente dos de los acontecimientos ocurren; Me a lo sumo tres de los eventos ocurren. 7. Encuentre la expresión más sencilla para los siguientes eventos: (a) (Y ∪ F)(Y ∪ Fc); (b) (Y ∪ F)(EC ∪ F)(Y ∪ Fc); c (Y ∪ F)(F ∪ G). 8. Dejar S ser un conjunto dado. Si, para algunos K > 0 S1,S2,...,SK son mutuamente excluyentes no vacías K subconjuntos de S tal que Si

=

S, entonces nos

9. Suponga que se realiza un experimento N Veces. Para cualquier evento Y del espacio de la muestra, deje n(E) indicar el número de veces que el evento Y se produce y define f(E) = n(E)/n. Demuestran que f(·) satisface los axiomas 1, 2 y 3. Ejercicios teóricos 10. Demostrar que P(Y ∪ F ∪ G) = P(E) + P(F) + P(G) − P(EcFg) − P(SicG) − P(Efgc) − 2P(Efg). 11. Si P(E) = .9 y P(F) = .8, demuestran que P(SiEfectos.7. en general, demuestre la desigualdad de Bonferroni, a saber, P(Si) de la P(E) + P(F) − 1 12. Demostrar que la probabilidad de que exactamente uno de los eventos Y O F ocurre es igual a P(E) + P(F) − 2P(Si). 13. Demostrar que P(Sic) = P(E) − P(Si). 14. Prueba la proPosición 4,4 por inducción matemática.

Llame al set Partición De S. Dejar TN indicar el número de particiones diferentes de {1, 2,...,n}. Así T1 = 1 (la única partición que se S1 = {1}) y T2 = 2 (las dos particiones que son

15. Una urna contiene M blanco y N bolas negras. Si una muestra aleatoria de tamaño R se elige, ¿cuál es la probabilidad de que contiene exactamente K ¿bolas blancas? 16. Utilizar la inducción para generalizar la desigualdad de Bonferroni a N Eventos. Esto es, mostrar que

{{1, 2,}},{{1},{2}}). (a) Mostrar, mediante la informática de todas las

P(E1E2 ···En) de la P(E1) + ··· + P(En−N − 1)

particiones, que T3 = 5T4 = 15. b Demuestran que n TnTk

17. Considere el problema coincidente, el ejemplo 5m, y defina AN el número de formas en que el N los hombres pueden seleccionar sus sombreros para que ningún hombre elija el suyo. Argumentan que

k=1

AN = (N − 1)(AN−1 + AN−2) y utilizar esta ecuación para calcular T10. Pista: Una forma de elegir una partición de N + 1 los artículos son llamar uno de los artículos Especial.

Esta fórmula, junto con las condiciones de límite A1 =

Luego obtenemos diferentes particiones eligiendo

0A2 = 1, puede entonces ser solucionado para AN, y la probabilidad deseada de no coincide sería

primero k,K = 0, 1,...,n, a continuación, un

AN/N!.

subconjunto de tamaño N − K de los artículos no

73 Pista: Después de que el primer hombre selecciona un sombrero que no es el suyo, no permanecen N − 1 hombres para seleccionar entre un conjunto de N − 1 sombreros que no contengan el sombrero de uno de estos hombres. Por lo tanto, hay un hombre extra y un sombrero extra. Argumentan que no podemos conseguir fósforos ya sea con el hombre extra seleccionando el sombrero extra o con el hombre extra no seleccionando el sombrero extra. 18. Dejar fN denota el número de formas de lanzar una moneda N veces tales que las cabezas sucesivas nunca aparecen. Argumentan que fN = fn−1 + fn−2

N Efectos 2, donde f0 K 1 f1 K 2

Pista: ¿Cuántos resultados hay que empezar con una cabeza, y cuántos empiezan con una cola? Si PN denota la probabilidad de que las cabezas sucesivas nunca aparezcan cuando se lanza una moneda N veces, encontrar PN (en términos de fn) cuando todos los posibles resultados de la N los lanzamientos se asumen igualmente probable. Calcular P10. 19. Una urna contiene N rojo y M bolas azules. Se retiran uno a la vez hasta que un total de r,R ... n, las bolas rojas han sido retiradas. Encontrar la probabilidad de que un total de K las bolas se retiran. Tenga en cuenta el número total de ejecuciones, es decir, Pista: Un total de K las bolas se retirarán si hay 20. y theareConsider un experimento cuya muestra de espacio con-R −kel 1º retiro roja. bolas rojas en la primera K − 1 retiros P{2K Funciona} = M−1 N−1

consiste de un número infinitamente infinito de puntos. Demostrar que no todos los puntos pueden ser igualmente probables. ¿Todos los puntos pueden tener una probabilidad positiva de P{2K + 1 funcionamientos} ¿Ocurriendo? ∗21.

Considere el ejemplo 5o, que se refiere al número de funcionamientos de triunfos obtenidos cuando N gana y M las pérdidas se permutan aleatoriamente. Nwo

PROBLEMAS de auto-prueba y ejercicios las ejecuciones más pérdidas, y mostrar que

es una bola

n

1. UNA cafetería ofrece una comida de tres platos consistente en un entrante, un almidón y un postre. Las posibles opciones se dan en la siguiente tabla: Curso Entrada

Opciones Pollo o rosbif

Almidón Postre

Pasta o arroz o patatas Helado o gelatina o tarta de manzana o un melocotón UNA persona debe elegir un curso de cada categoría. (a) ¿Cuántos resultados se encuentran en el espacio de muestra? b Dejar Un sea el caso de que el helado sea elegido. ¿Cuántos resultados hay en A? (c) Dejar B sea el caso de que el pollo sea elegido. ¿Cuántos resultados hay en B? (d) Enumere todos los resultados en el evento Apagado. (e) Dejar C sea el caso de que el arroz sea elegido. ¿Cuántos resultados hay en C? (f) Enumere todos los resultados en el evento Abc.

2. UN cliente que visita el Departamento de traje de cierta tienda comprará un traje con probabilidad de .22, una camisa con probabilidad de .30, y un empate con probabilidad. 28. El cliente comprará tanto un traje como una camisa con probabilidad de .11, tanto un traje como un empate con probabilidad .14, y una camisa y una corbata con probabilidad. 10. UN cliente comprará los 3 artículos con probabilidad. 06. ¿Cuál es la probabilidad de que un cliente compre un ¿ninguno de estos artículos? b exactamente 1 de estos artículos? 3. Se reparte un mazo de cartas. ¿Cuál es la probabilidad de que el reparto de la tarjeta 14 sea un as? ¿Cuál es la probabilidad de que el primer ACE ocurra en la tarjeta 14? 4. Dejar Un denota el acontecimiento que la temperatura de Midtown en los Ángeles es 70 ◦F, y dejar que B denota el acontecimiento que la temperatura de Midtown en Nueva York es 70◦F. también, deje C denota el acontecimiento que el máximo de las temperaturas de Midtown en Nueva York y en los Ángeles es 70 ◦F. Si P(A) = .3P(B) = .4 y P(C) = .2, encontrar la probabilidad de que el mínimo de las dos temperaturas Midtown es 70◦F. 5. Una baraja ordinaria de 52 cartas es barajada. ¿Cuál es la probabilidad de que las cuatro cartas superiores tengan un ¿diferentes denominaciones? b ¿trajes diferentes? 6. Urna Un contiene 3 bolas rojas y 3 negras, mientras que la urna B contiene 4 bolas rojas y 6 negras. Si una bola es seleccionada aleatoriamente de cada urna, ¿cuál es la probabilidad de que las bolas sean del mismo color? 7. En una lotería estatal, un jugador debe elegir 8 de los números de 1 a 40. La Comisión de lotería realiza entonces un experimento que selecciona 8 de estos 40 números. Asumiendo que la elección de la Comisión de lotería es igualmente probable que sea combinaciones, ¿cuál es la probabilidad de que un jugador tiene (a) ¿los 8 números seleccionados por la Comisión de lotería? (b) 7 de los números seleccionados por la Comisión de lotería? (c) ¿al menos 6 de los números seleccionados por la Comisión de lotería? 8. De un grupo de 3 novatos, 4 estudiantes de segundo año, 4 Juniors, y 3 seniors un Comité de la talla 4 es seleccionado al azar. Encontrar la probabilidad de que el Comité consistirá en (a) 1 de cada clase; b 2 estudiantes de segundo año y 2 Juniors; csólo estudiantes de segundo año o Juniors. 9. Para un conjunto finito ADejar N(A) indicar el número de elementos en A. un Demuestran que N(Un ∪ B) = N(A) + N(B) − N(Apagado) b Más en general, muestran que

Sección 3,2

Probabilidades condicionales

75

N(AiAj) i=1

i

i<

(−1)n+1N(A1 ···An)

+ ··· +

10. Consideremos un experimento que consiste en seis caballos, numerados del 1 al 6, corriendo una carrera, y Supongamos que el espacio de muestra consiste en el 6! posibles órdenes en las que los caballos terminan. Dejar Un ser el caso de que el caballo número 1 se encuentra entre los tres primeros finalistas, y dejar que B sea el caso de que el caballo número 2 venga en segundo lugar. ¿Cuántos resultados hay en el evento? Un ∪ B? 11. UNA mano de 5 cartas se reparte de una baraja bien barajada de 52 naipes. ¿Cuál es la probabilidad de que la mano contenga al menos una carta de cada uno de los cuatro trajes? 12. UN equipo de baloncesto consta de 6 delantera y 4 jugadores de la cancha. Si los jugadores están divididos en compañeros de cuarto al azar, ¿cuál es la probabilidad de que habrá exactamente dos pares de compañeros de cuarto constituidos por un tribunal y un jugador delantera? 13. Suponga que una persona escoge una letra al azar de R e S E R V E y después escoge uno al azar de V E R T I C A L. ¿Cuál es la probabilidad de que se escoja la misma letra? 14. Pruebe la desigualdad de Boole:

P Problemas de auto-prueba y ejercicios

P(Ai)

15. Demostrar que si P(Ai) = 1 para todos me Efectos 1, entonces P 16. Dejar Tk(n) indicar el número de particiones del conjunto {1...,n} En K subconjuntos no vacíos, donde 1 ... K ... n. (Véase el ejercicio teórico 8 para la definición de una partición.) Argumentan que Tk(n) = Otrosk(N − 1) + Tk−1(N − 1) Pista: ¿En cuántas particiones se {1} un subconjunto, y en cuántos es 1 un elemento de un subconjunto que contiene otros elementos? 17. Cinco bolas son escogidas aleatoriamente, sin reemplazo, de una urna que contiene 5 bolas rojas, 6 blancas y 7 azules. Encuentre la probabilidad de que se elija al menos una bola de cada color. 18. Cuatro bolas rojas, 8 azules, y 5 verdes se arreglan aleatoriamente en una línea. (a) ¿Cuál es la probabilidad de que las primeras 5 bolas sean azules? (b) ¿Cuál es la probabilidad de que ninguna de las primeras 5 bolas sea azul? (c) ¿Cuál es la probabilidad de que las 3 bolas finales son de diferente color. (d) ¿Cuál es la probabilidad de que todas las bolas rojas estén juntas? 19. Diez cartas son escogidas aleatoriamente de una baraja de 52 tarjetas que consta de 13 tarjetas de cada uno de 4 trajes diferentes. Cada una de las cartas seleccionadas se coloca en una de las 4 pilas, dependiendo del traje de la tarjeta. (a) ¿Cuál es la probabilidad de que la pila más grande tenga 4 tarjetas, la siguiente más grande tiene 3, la siguiente más grande tiene 2, y la más pequeña tiene 1 tarjeta? (b) ¿Cuál es la probabilidad de que dos de los pilotes tengan 3 tarjetas, una tiene 4 tarjetas, y una no tiene tarjetas? 20. Las bolas se extraen al azar de una urna que inicialmente contiene 20 bolas rojas y 10 azules. ¿Cuál es la probabilidad de que todas las bolas rojas se eliminen antes de que se hayan eliminado todos los azules?

Sección 3,2

Probabilidades condicionales

76

CHAPTER3

Probabilidad condicional e independencia 3,1 3,2 3,3 3,4

Introducción PROBABILIDADES CONDICIONAles FÓRMULA de BAYES EVENTOS independientes

3,5 P(·|F ) Es una probabilidad

3,1

Introducción En este capítulo, introducimos uno de los conceptos más importantes en la teoría de la probabilidad, el de la probabilidad condicional. La importancia de este concepto es doble. En primer lugar, a menudo nos interesa calcular las probabilidades cuando se dispone de información parcial sobre el resultado de un experimento; en tal situación, las probabilidades deseadas son condicionales. En segundo lugar, incluso cuando no hay información parcial disponible, las probabilidades condicionales se pueden utilizar a menudo para calcular las probabilidades deseadas más fácilmente.

3,2PROBABILIDADES CONDICIONAles Suponga que tiramos 2 dados, y Supongamos que cada uno de los 36 posibles resultados es igualmente probable que ocurra y por lo tanto tiene probabilidad . Suponga además que observamos que el primer dado es un 3. Entonces, dada esta información, ¿cuál es la probabilidad de que la suma de los 2 dados sea igual a 8? Para calcular esta probabilidad, razonamos como sigue: dado que el dado inicial es un 3, puede haber como máximo 6 posibles resultados de nuestro experimento, a saber, (3, 1), (3, 2), (3, 3), (3, 4), (3, 5) y (3, 6). Dado que cada uno de estos resultados originalmente tenía la misma probabilidad de ocurrir, los resultados deberían tener igualmente probabilidades. Esto es, dado que el primer dado es un 3, la probabilidad (condicional) de cada uno de los resultados (3, 1), (3, 2), (3, 3), (3,4), (3, 5), y (3, 6) es , mientras que la probabilidad (condicional) de los otros 30 puntos en el espacio de muestra es 0. Por lo tanto, la probabilidad deseada será . Si dejamos Y Y F denotan, respectivamente, el acontecimiento que la suma del dado es 8 y el acontecimiento que el primer dado es 3, después la probabilidad apenas obtenida se llama el probabilidad condicional de que E ocurra dado que F ha ocurrido y se denota por

Sección 3,2

Probabilidades condicionales

77

P(E|F) UNA fórmula general para P(E|F) que es válido para todos los eventos Y Y F se deriva de la misma manera: Si el evento F ocurre, entonces, con el fin de Y para que ocurra, es necesario que la ocurrencia real sea un punto tanto en Y y en F; es decir, debe estar en Si. Ahora, ya que sabemos que F ha ocurrido, se sigue que F se convierte en nuestro nuevo, o reducido, espacio de muestra; por lo tanto, el probabilidad de que el evento Si ocurre será igual a la probabilidad de Si en relación con la probabilidad de F. Esto es, tenemos la siguiente definición. 58

Definición Si P F

0Entonc es

P EF

P Si P F

(2,1)

EJEMPLO 2A UN estudiante está tomando un examen de maquillaje de una hora de duración. Suponga que la probabilidad de que el estudiante termine el examen en menos de X horas es x/2, para todos los 0 ... X ... 1. entonces, dado que el estudiante todavía está trabajando después de .75 hora, ¿cuál es la probabilidad condicional de que se utilice la hora completa? Solución. Dejar LX denotar el evento de que el estudiante termine el examen en menos de X horas, 0 ... X ... 1, y deje F sea el evento que el estudiante use la hora completa. Kuz F es el evento que el estudiante no ha terminado en menos de 1 hora, P Ahora, el acontecimiento que el estudiante todavía está trabajando en el tiempo .75 es el complemento del evento L.75, por lo que la probabilidad deseada se obtiene de P(FlC ) P(Fp(Lc.75.75) P(F) =

. Si cada resultado de un espacio de muestra finito S es igualmente probable, entonces, condicional en el caso de que el resultado se encuentra en un subconjunto F ( S, todos los resultados en F ser igualmente probable. En tales casos, a menudo es conveniente calcular las probabilidades condicionales de la forma P(E|F) mediante F como el espacio de la muestra. De hecho, trabajar con este espacio de muestra reducido a menudo resulta en una solución más fácil y mejor entendida. Nuestros siguientes ejemplos ilustran este punto.

Sección 3,2

Probabilidades condicionales

78

EJEMPLO 2B UNA moneda se voltea dos veces. Asumiendo que los cuatro puntos del espacio de muestra S = {(h,h), (h,t),(t,h),(t,t)} son igualmente probables, ¿cuál es la probabilidad condicional de que ambos voltean la tierra sobre las cabezas, dado que (a) la primera Flip aterriza en la cabeza? (b) por lo menos un tirón aterriza en cabezas? Solución. Dejar B = {(h,h)} sea el acontecimiento que ambos voltean la tierra en cabezas; Dejar F = {(h,h), (h,t)} sea el acontecimiento que el primer tirón aterriza en cabezas; y que Un = {(h,h),(h,t),(t,h)} sea el acontecimiento que por lo menos un tirón aterriza en cabezas. La probabilidad de (a) puede obtenerse de P(Bf) P(B|F) = P(F) P h, h P({(h,h),(h,t)})

Para (b), hemos P(Tres) P(B|A) = P(A) P h, h P({(h,h),(h,t),(t,h)})

Por lo tanto, la probabilidad condicional de que ambos voltea la tierra sobre los cabezales dado que la primera es 1/2, mientras que la probabilidad condicional de que ambos voltean la tierra sobre los cabezales dado que al menos una hace es sólo 1/3. muchos estudiantes encuentran inicialmente este último resultado sorprendente. Ellos razonan que, dado que al menos un tirón aterriza en cabezas, hay dos resultados posibles: o ambos aterrizan en cabezas o solamente uno lo hace. Sin embargo, su error consiste en asumir que estas dos posibilidades son igualmente probables. Para, inicialmente, hay 4 resultados igualmente probables. Porque la información que por lo menos un tirón aterriza en cabezas es equivalente a la información que el resultado no es (t,t), nos quedamos con los 3 resultados igualmente probables (h,h),(h,t),(t,h), sólo uno de los cuales da como resultado dos volteretas aterrizando en la cabeza. . EJEMPLO 2C En el puente de juego de naipes, las tarjetas 52 se reparten por igual a 4 jugadores, llamadas este, oeste, norte y sur. Si el norte y el sur tienen un total de 8 picas entre ellos, ¿cuál es la probabilidad de que este tenga 3 de las 5 picas restantes?

Sección 3,2

Probabilidades condicionales

79

Solución. Probablemente la forma más fácil de calcular la probabilidad deseada es trabajar con el espacio de muestra reducido. Es decir, dado que norte-sur tiene un total de 8 picas entre sus 26 tarjetas, queda un total de 26 cartas, exactamente 5 de ellas de picas, que se distribuirán entre las manos este-oeste. Puesto que cada distribución es igualmente probable, sigue que la probabilidad condicional que el este tendrá exactamente 3 espadas entre sus 13 tarjetas es

. EJEMPLO 2D UN total de N las bolas se eligen secuencialmente y aleatoriamente, sin reemplazo, de una urna que contiene R rojo y B bolas azules (N ... R + b). Dado que K Dela N las bolas son azules, ¿cuál es la probabilidad condicional de que la primera bola elegida sea azul? Solución. Si nos imaginamos que las bolas están numeradas, con las bolas azules que tienen números 1 a través B y las bolas rojas B + 1 a través B + r, entonces el resultado del experimento de selección N bolas sin reemplazo es un vector de distintos enteros x1,...,xn, donde cada xme está entre 1 y R + b. Además, cada uno de estos vectores es igualmente probable que sea el resultado. Así que, dado que el vector contiene K bolas azules (es decir, contiene K valores entre 1 y b), se deduce que cada uno de estos resultados es igualmente probable. Pero debido a que la primera bola elegida es, por lo tanto, igualmente probable que sea cualquiera de los N bolas seleccionadas, de las cuales K son azules, sigue que la probabilidad deseada es k/n. Si no elegimos trabajar con el espacio de muestra reducido, podríamos haber resuelto el problema dejando B sea el caso de que la primera bola elegida sea azul y BK ser el caso de que un total de K se eligen bolas azules. Entonces P(Bbk

)

P(B|Bk) = P(Bk) = P(Bk|B)P(B) P(Bk) Nwo P(Bk|B) es la probabilidad de que una elección aleatoria de N − 1 bolas de una urna que contiene R rojo y B − 1 bolas azules resulta en un total de K − 1 bolas azules que son escogidas; Por consiguiente

P Usando la fórmula anterior junto con b P(B) =

+

Sección 3,2

r

Probabilidades condicionales

80

b

y la probabilidad hipergeométrica P n

produce de nuevo el resultado que k P(B|Bk) = n

.

Multiplicando ambos lados de la ecuación (2,1) por P(F ), obtenemos P(Si ) = P(F)P(E|F )

(2,2)

En palabras, la ecuación (2,2) establece que la probabilidad de que ambos Y Y F ocurre es igual a la probabilidad de que F se multiplica por la probabilidad condicional de Y Dado que F Ocurrió. La ecuación (2,2) es a menudo bastante útil en calcular la probabilidad de la intersección de acontecimientos. EJEMPLO 2E Celine está indeciso en cuanto a si tomar un curso de francés o un curso de química. Ella estima que su probabilidad de recibir un grado A sería en un curso de francés y en un curso de química. Si Celine decide basar su decisión en la FLIP de una moneda justa, ¿cuál es la probabilidad de que obtenga una A en química? Solución. (a) dejar que el evento que Celine toma la química y Un denotan el acontecimiento que ella recibe una A en cualquier curso que ella toma, entonces la probabilidad deseada es P(Como), que se calcula utilizando la ecuación (2,2) de la siguiente manera:

P .

EJEMPLO 2F Suponga que una urna contiene 8 bolas rojas y 4 bolas blancas. Sacamos 2 bolas de la urna sin reemplazo. (a) si asumimos que en cada sorteo cada bola en la urna es igualmente probable que se elija, ¿cuál es la probabilidad de que ambas bolas dibujadas son rojas? (b) ahora suponga que las bolas tienen diversos pesos, con cada bola roja que tiene peso R y cada bola blanca que tiene peso w. Suponga que la probabilidad de que una bola dada en la urna es la siguiente seleccionada es su peso dividido por la suma de los pesos de todas las bolas actualmente en la urna. Ahora, ¿cuál es la probabilidad de que ambas bolas sean rojas? Solución. Dejar R1 Y R2 denotan, respectivamente, los eventos que las primeras y segundas bolas dibujadas son rojas. Ahora, dado que la primera bola seleccionada

Sección 3,2

Probabilidades condicionales

81

es roja, hay 7 bolas rojas restantes y 4 bolas blancas, así que P . Como P(R1) es claramente , la probabilidad deseada es

P Por supuesto, esta probabilidad podría haber sido calculada por P . Para la parte (b), volvemos a dejar Rme sea el caso de que el iTH Ball elegido es de color rojo y el uso P(R1R2) = P(R1)P(R2|R1) Ahora, el número de las bolas rojas, y dejar que Bi, me = 1..., 8 ser el acontecimiento que la primera bola dibujada es número rojo de la bola i. Entonces P(R1) w i=1

Además, dado que la primera bola es roja, la urna contiene 7 bolas rojas y 4 blancas. Así, por un argumento similar al anterior, 7r P(R2|R1) =

+ 7r

4w

Por lo tanto, la probabilidad de que ambas bolas son rojas es 8r P(R1R2)

=8

7r R + 4En 7R + 4w

.

UNA generalización de la ecuación (2,2), que proporciona una expresión para la probabilidad de la intersección de un número arbitrario de acontecimientos, se refiere a veces como el regla de multiplicación. La regla de la multiplicación

P(E1E2E3 ···En) = P(E1)P(E2|E1)P(E3|E1E2)···P(En|E1 ···En−1) Para probar la regla de la multiplicación, sólo aplicar la definición de la probabilidad condicional a su lado derecho, dando P(Y y ) P(Y y y ) P(Y y

Y) P(E1)

··· P(Y )

P(Y y )

······ P(Y y

E

= P(E1E2 ···En) )

Sección 3,2

Probabilidades condicionales

82

EJEMPLO 2g En el problema del fósforo indicado en el ejemplo 5m del capítulo 2, fue demostrado que PN, la probabilidad de que no haya coincidencias cuando N las personas seleccionan aleatoriamente entre N sombreros, se da por N

PN

! i=0

¿Cuál es la probabilidad de que exactamente K Dela N ¿la gente tiene cerillas? Solución. Vamos a fijar nuestra atención en un conjunto particular de K personas y determinar la probabilidad de que estos K los individuos tienen cerillas y nadie más lo hace. Dejar Y denotar el evento de que todo el mundo en este conjunto tiene una coincidencia, y dejar G ser el caso de que ninguno de los otros N − K la gente tiene una coincidencia, tenemos P(Eg) = P(E)P(G|E) Ahora, vamos Fi, me = 1...,k, sea el caso de que el iel miembro del set tiene una coincidencia. Entonces P

N NK + 1 (N − =

N!

Dado que todo el mundo en el conjunto de K tiene un fósforo, el otro N − K la gente elegirá al azar entre sus propias N − K sombreros, por lo que la probabilidad de que ninguno de ellos tiene un partido es igual a la probabilidad de no coincide en un problema que tiene N − K las personas que eligen entre N − K Sombreros. Por

P(G

N−k 1)i/i!

mostrando que la probabilidad de que un conjunto especificado de K la gente tiene cerillas y nadie más lo hace P(Eg) = N−! PN−K (N a)!

Sección 3,2

Probabilidades condicionales

83

Porque habrá exactamente K coincide si el precedente es verdadero para cualquiera de los conjuntos de K los individuos, la probabilidad deseada es P(Exactamente K Partidos) = PN−k/k! L e−1/k!

Cuando N es grande

.

Ahora emplearemos la regla de multiplicación para obtener un segundo enfoque para resolver el ejemplo 5h (b) del capítulo 2. EJEMPLO 2H Una baraja ordinaria de 52 naipes es aleatoriamente dividida en 4 montones de 13 cartas cada una. Calcular la probabilidad de que cada pila tiene exactamente 1 ACE. Solución. Definir eventos Ei,me = 1, 2, 3, 4, como sigue: E1 = {el as de espadas está en cualquiera de las pilas} E2 = {el as de espadas y el as de corazones están en diferentes montones} E3 = {los ases de espadas, corazones y diamantes están en diferentes montones} E4 = {los 4 Ases están en montones diferentes} La probabilidad deseada es P(E1E2E3E4), y por la regla de la multiplicación, P(E1E2E3E4) = P(E1)P(E2|E1)P(E3|E1E2)P(E4|E1E2E3) Nwo P(E1) = 1 Desde E1 es el espacio de muestra S. También P Dado que la pila que contiene el as de espadas recibirá 12 de las restantes 51 tarjetas, y P ya que las pilas que contienen los ases de espadas y corazones recibirán 24 de las restantes 50 tarjetas. Finalmente P Por lo tanto, la probabilidad de que cada pila tiene exactamente 1 ACE es P Es que hay aproximadamente un 10,5 por ciento de probabilidades de que cada pila contenga un as. (El problema 13 da otra forma de usar la regla de multiplicación para resolver este problema.) .

Sección 3,2

Probabilidades condicionales

84

Observaciones. Nuestra definición de P(E|F) es consistente con la interpretación de la probabilidad como una frecuencia relativa a largo plazo. Para ver esto, suponga que N las repeticiones del experimento deben realizarse, donde N es grande. Afirmamos que si

Sección 3,3

Fórmula de Bayes

85

Consideramos sólo aquellos experimentos en los que F ocurre, entonces P(E|F) será igual a la proporción de largo plazo de ellos en el que Y también ocurre. Para verificar esta afirmación, tenga en cuenta que, desde P(F) es la proporción a largo plazo de experimentos en los que F se produce, se sigue que en el N repeticiones del experimento F ocurrirá aproximadamente Eg(F) Veces. Del mismo modo, en aproximadamente Eg(Si) de estos experimentos tanto Y Y F ocurrirá. Por lo tanto, de la aproximadamente Eg(F) experimentos en los que F se produce, la proporción de ellos en el que Y también ocurre es aproximadamente igual a Eg(Si) Eg(F)

P(F)

Porque esta aproximación se hace exacta como N se hace más grande y más grande, tenemos la definición apropiada de P(E|F).

3,3 FÓRMULA de BAYES Dejar Y Y F ser eventos. Podemos expresar Y Como Y = Si ∪ Sic para, a fin de que un resultado sea en E, debe estar en ambos Y Y F o estar en Y pero no en F. (Vea la figura 3,1.) Como Si Y SiC son claramente mutuamente excluyentes, tenemos, por axioma 3, P E

c

P Si P Si EF P F P E Fc P Fc P P EF P F P E F c [1 P F ]

(3,1)

La ecuación (3,1) establece que la probabilidad del evento Y es un promedio ponderado de la probabilidad condicional de Y Dado que F ha ocurrido y la probabilidad condicional de Y Dado que F no ha ocurrido: cada probabilidad condicional que se da tanto peso como el evento en el que está condicionada tiene de ocurrir. Esta es una fórmula extremadamente útil, porque su uso a menudo nos permite determinar la probabilidad de un evento por el primer "condicionamiento" sobre si se ha producido o no algún segundo evento. Es decir, hay muchos casos en los que es difícil calcular la probabilidad de un evento directamente, pero es fácil calcularlo una vez que sabemos si se ha producido o no algún segundo evento. Ilustramos esta idea con algunos ejemplos.

E

F Si c

Si

Sección 3,3

Fórmula de Bayes

86

Figura 3,1: Y = Si ∪ Sic. Si = Área sombreada; SiC = Área de rayas

EJEMPLO 3A (parte 1) Una compañía de seguros cree que la gente puede ser dividida en dos clases: los que son propensos a los accidentes y los que no lo son. Las estadísticas de la compañía muestran que una persona propensa a accidentes tendrá un accidente en algún momento dentro de un período fijo de 1 año con probabilidad .4, mientras que esta probabilidad disminuye a .2 para una persona que no es propensa a los accidentes. Si asumimos que el 30 por ciento de la población es propensa a los accidentes, ¿cuál es la probabilidad de que un nuevo asegurado tenga un accidente dentro de un año de la compra de una póliza? Solución. Obtendremos la probabilidad deseada por el primer condicionamiento sobre si el asegurado es o no propenso al accidente. Dejar A1 denotar el evento de que el asegurado tendrá un accidente dentro de un año de la compra de la póliza, y que Un denotar el caso de que el asegurado sea propenso a accidentes. Por lo tanto, la probabilidad deseada es dada por P(A1) = P(A1|A)P(A) + P(A1|Ac)P(Ac) = (.4)(.3) + (.2)(.7) = .26

.

EJEMPLO 3A (parte 2) Suponga que un nuevo asegurado tiene un accidente dentro de un año de la compra de una póliza. ¿Cuál es la probabilidad de que él o ella sea propenso a accidentes? Solución. La probabilidad deseada es P(AA1) P(A|A1) = P(A1) = P(A)P(A1|A) P(A1) . EJEMPLO 3B Considere el siguiente juego jugado con una baraja ordinaria de 52 naipes: las cartas son barajadas y luego volteadas una a la vez. En cualquier momento, el jugador puede adivinar que la siguiente carta a ser volteada será el as de espadas; Si lo es, entonces el jugador gana. Además, el jugador se dice que ganar si el as de espadas todavía no ha aparecido cuando sólo una tarjeta permanece y no hay conjetura todavía se ha hecho. ¿Qué es una buena estrategia? ¿Qué es una mala estrategia? Solución. ¡ Cada estrategia tiene probabilidad 1/52 de ganar! Para mostrar esto, vamos a utilizar la inducción para demostrar el resultado más fuerte que, para un N baraja de cartas, una de cuyas cartas es el as de espadas, la probabilidad de ganar es 1/n, sin importar la estrategia que se emplee. Ya que esto es claramente cierto para N = 1, asuma que es verdad para un N − 1 baraja de cartas, y ahora considere una N baraja de cartas. Fijar cualquier

Sección 3,3

Fórmula de Bayes

87

estrategia, y dejar que P denota la probabilidad de que la estrategia adivine que la primera carta es el as de espadas. Dado que lo hace, la probabilidad del jugador de ganar es 1/n. Si, sin embargo, la estrategia no adivina que la primera tarjeta es el as de espadas, entonces la probabilidad de que el jugador gane es la probabilidad de que la primera carta no sea el as de espadas, a saber, (N − 1)/n, multiplicado por la probabilidad condicional de ganar, dado que la primera la tarjeta no es el as de espadas. Pero esta última probabilidad condicional es igual a la probabilidad de ganar cuando se usa un N − 1 baraja de cartas que contiene un solo as de picas; es así, por el/(N − 1). Por lo tanto, dado que la estrategia no adivina la hipótesis de inducción, 1 primera tarjeta, la probabilidad de ganar es N−1

1

n

N−1

= n1

Por lo tanto, dejar G sea el caso de que se Adivine la primera carta, obtenemos

P{Ganar} = P{Ganar|G}P(G) + P{Ganar|Gc}(

P)

n .

EJEMPLO 3C Al contestar una pregunta en una prueba de la múltiple-opción, un estudiante sabe la respuesta o las conjeturas. Dejar P la probabilidad de que el estudiante conozca la respuesta y 1 − P ser la probabilidad de que el estudiante adivine. Suponga que un estudiante que conjetura en la respuesta será correcto con la probabilidad 1/mDonde M es el número de alternativas de opción múltiple. ¿Cuál es la probabilidad condicional de que un estudiante conociera la respuesta a una pregunta teniendo en cuenta que él o ella lo contestó correctamente? Solución. Dejar C Y K denotan, respectivamente, los eventos que el estudiante responde correctamente a la pregunta y el evento que él o ella realmente conoce la respuesta. Nwo P(Kc ) P(K|C ) =

P(C ) P CK P K CK P K P C Kc P Kc p

= 1 + (M − 1)p

=P

+ (1/m)(1 −

)

Sección 3,3

Por ejemplo, si m

Fórmula de Bayes

88

, entonces la probabilidad de que el estudiante supiera la

respuesta a una pregunta que él o ella respondió correctamente es . .

EJEMPLO 3D UN análisis de sangre del laboratorio es 95 por ciento eficaz en la detección de una cierta enfermedad cuando está, de hecho, presente. Sin embargo, la prueba también rinde un resultado "falso positivo" para el 1 por ciento de las personas sanas probadas. (Es decir, si una persona sana es probada, entonces, con la probabilidad .01, el resultado de la prueba implicará que él o ella tiene la enfermedad.) Si el 5 por ciento de la población realmente tiene la enfermedad, ¿cuál es la probabilidad de que una persona tenga la enfermedad dado que el resultado de la prueba es positivo? Solución. Dejar D ser el caso de que la persona a la que se ha sometido la Y el evento que el resultado de la prueba es positivo. Entonces la probabilidad deseada es P(DE) P(D|E) = P(E) P ED P D = P(E|D)P(D) + P(E|Dc)P(Dc)

Por lo tanto, sólo 32 por ciento de las personas cuyos resultados de prueba son positivos en realidad tienen la enfermedad. Muchos estudiantes se sorprenden a menudo de este resultado (esperan que el porcentaje sea mucho más alto, ya que el análisis de sangre parece ser uno bueno), así que probablemente valga la pena presentar un segundo argumento que, aunque menos riguroso que el anterior, es probablemente más Revelar. Ahora lo hacemos. Puesto que el 5 por ciento de la población tiene realmente la enfermedad, sigue que, en el promedio, 1 persona fuera de cada 200 probado lo tendrá. La prueba confirmará correctamente que esta persona tiene la enfermedad con probabilidad. 95. Así, en promedio, de cada 200 personas probadas, la prueba confirmará correctamente que. 95 persona tiene la enfermedad. Por otro lado, sin embargo, de la (en promedio) 199 personas sanas, la prueba incorrectamente indicará que (199) (. 01) de estas personas tienen la enfermedad. Por lo tanto, por cada. 95 persona enferma que la prueba correctamente Estados está enfermo, hay (en el promedio) (199) (. 01) las personas sanas que la prueba incorrectamente los Estados están enfermas. Por lo tanto, la proporción de tiempo que el resultado de la prueba es correcta cuando se declara que una persona está enferma es . . La ecuación (3,1) también es útil cuando uno tiene que reevaluar las probabilidades personales de uno a la luz de información adicional. Por ejemplo, considere los ejemplos que siguen.

Sección 3,3

Fórmula de Bayes

89

EJEMPLO 3e Considere a un médico que reflexiona sobre el siguiente dilema: "si estoy al menos 80 por ciento seguro de que mi paciente tiene esta enfermedad, entonces siempre recomiendo la cirugía, mientras que si no estoy tan seguro, entonces recomiendo pruebas adicionales que son caros y a veces doloroso. Ahora, al principio sólo estaba 60 por ciento seguro de que Jones tenía la enfermedad, por lo que ordenó A la serie una prueba, que siempre da un resultado positivo cuando el paciente tiene la enfermedad y casi nunca lo hace cuando está sano. El resultado de la prueba fue positivo, y yo estaba listo para recomendar la cirugía cuando Jones me informó, por primera vez, que él era diabético. Esta información complica las cosas porque, aunque no cambia mi estimación original de 60 por ciento de sus probabilidades de tener la enfermedad en cuestión, afecta la interpretación de los resultados de la prueba A. Esto es así porque la prueba de A, mientras que nunca dando un resultado positivo cuando el paciente es sano, desafortunadamente rinde un resultado positivo el 30 por ciento del tiempo en el caso de Diabético pacientes que no padecen la enfermedad. ¿Y ahora qué hago? ¿Más pruebas o cirugía inmediata? " Solución. Para decidir si recomendar o no la cirugía, el doctor debe primero calcular su probabilidad actualizada que Jones tiene la enfermedad dado que el resultado de una prueba era positivo. Dejar D denotan el acontecimiento que Jones tiene la enfermedad y Y el evento que el resultado de una prueba es positivo. La probabilidad condicional deseada es entonces P(DE) P(D|E) = P(E) P D P ED = P(E|D)P(D) + P(E|Dc)P(Dc)

Note que hemos calculado la probabilidad de un resultado positivo de la prueba condicionando encendido si Jones tiene o no la enfermedad y entonces usando el hecho de que, porque Jones es un diabético, su probabilidad condicional de un resultado positivo dado que él no tiene la enfermedad , P(E|Dc), es igual a. 3. Por lo tanto, como el médico ahora debe ser más de 80 por ciento seguro de que Jones tiene la enfermedad, debe recomendar la cirugía. . EJEMPLO 3F En una cierta etapa de una investigación criminal, el inspector a cargo es 60 por ciento convencido de la culpabilidad de un determinado sospechoso. Suponga, sin embargo, que un Nuevo pieza de evidencia que muestra que el delincuente tiene una cierta característica (como el zurdo, la calvicie o el cabello castaño) es descubierto. Si el 20 por ciento de la población posee esta característica, ¿cómo seguro de la culpa del sospechoso debe ser el inspector ahora si resulta que el sospechoso tiene la característica? Solución. Dejar G denotar el caso de que el sospechoso es culpable y C el acontecimiento que él posee la característica del criminal, tenemos P(Gc)

Sección 3,3

Fórmula de Bayes

90

P(G|C) = P(C) P CG P G = P(C|G)P(G) + P(C|Gc)P(Gc)

L.882 donde hemos supuesto que la probabilidad de que el sospechoso tenga la característica si es, de hecho, inocente es igual a .2, la proporción de la población que posee la característica. . EJEMPLO 3G En el Campeonato del mundo de Bridge celebrado en Buenos Aires en mayo de 1965, el famoso puente británico de Terrence Reese y Boris Schapiro fue acusado de hacer trampa usando un sistema de señales de los dedos que podría indicar el número de corazones sostenidos por los jugadores. Reese y Schapiro negaron la acusación, y finalmente una audiencia fue sostenida por la Liga británica del puente. La audiencia estaba en la forma de un procedimiento legal con los equipos de la Fiscalía y de la defensa, ambos que tenían la energía de llamar y de interrogar a testigos. Durante el transcurso del procedimiento, el fiscal examinó las manos específicas de Reese y Schapiro y afirmó que su interpretación de estas manos era consistente con la hipótesis de que eran culpables de tener conocimiento ilícito del traje cardíaco. En este punto, el abogado defensor señaló que su juego de estas manos también era perfectamente coherente con su línea de juego estándar. Sin embargo, la Fiscalía argumentó entonces que, mientras su juego fuera consistente con la hipótesis de culpabilidad, debe ser contado como evidencia hacia esa hipótesis. ¿Qué opina del razonamiento de la Fiscalía? Solución. El problema es básicamente uno de determinar cómo la introducción de nuevas pruebas (en el ejemplo anterior, el juego de las manos) afecta a la probabilidad de una hipótesis particular. Si dejamos H denotar una hipótesis particular (como la hipótesis de que Reese y Schapiro son culpables) y Y la nueva evidencia, entonces P(Hge) P(H|E) =

P E P

P EH P H H c [1

P H ]

(3,2)

(E|H)P(H) + P(E| Donde P (H) es nuestra evaluación de la probabilidad de la hipótesis antes de la introducción de la nueva evidencia. La nueva evidencia estará en apoyo de la hipótesis cada vez que haga la hipótesis más probable, es decir, cuando P(H|E) de la P(H). De la ecuación (3,2), este será el caso cuando P(E|H) de la P(E|H)P(H) + P(E|Hc)[1 − P(H)] o, equivalentemente, cuando

Sección 3,3

Fórmula de Bayes

91

P(E|H) de la P(E|Hc) En otras palabras, cualquier nueva evidencia puede considerarse como apoyo a una hipótesis particular sólo si su ocurrencia es más probable cuando la hipótesis es verdadera que cuando es falsa. De hecho, la nueva probabilidad de la hipótesis depende de su probabilidad inicial y de la relación de estas probabilidades condicionales, ya que, a partir de la ecuación (3,2), P(H) P(H|E) =

+



|| c) P(E H P(H)

[1

P(H)] P(y H)

Por lo tanto, en el problema que se está considerando, el juego de las tarjetas puede ser considerado para apoyar la hipótesis de la culpabilidad solamente si tal juego habría sido más probable si la sociedad estaba engañando que si no lo eran. Como el fiscal nunca hizo esta afirmación, su afirmación de que la evidencia está en apoyo de la hipótesis de culpabilidad no es válida. . Cuando el autor de este texto bebe té helado en una cafetería, pide un vaso de agua junto con el vaso (del mismo tamaño) de té. Mientras bebe el té, rellena continuamente el vaso de té con agua. Asumiendo una mezcla perfecta de agua y té, se preguntó acerca de la probabilidad de que su último trago sería el té. Esta maravilla condujo a la parte (a) del siguiente problema y a una respuesta muy interesante. EJEMPLO 3H La urna 1 inicialmente tiene N las moléculas rojas y la urna 2 han N moléculas azules. Las moléculas se retiran aleatoriamente de la urna 1 de la siguiente manera: después de cada extracción de la urna 1, se toma una molécula de la urna 2 (si la urna 2 tiene moléculas) y se coloca en la urna 1. El proceso continúa hasta que se hayan eliminado todas las moléculas. (Así, hay 2N Mudanzas en todos.) (a) Encontrar P(R)Donde R es el caso de que la molécula final removida de la urna 1 sea roja. (b) Repita el problema cuando la urna 1 inicialmente ha r1 moléculas rojas y b1 las moléculas azules y la urna 2 inicialmente r2 moléculas rojas y b2 moléculas azules. Solución. (a) centrar la atención en cualquier molécula roja en particular, y dejar que F sea el caso de que esta molécula sea la última seleccionada. Ahora, con el fin de F a ocurrir, la molécula en cuestión debe todavía estar en la urna después de la primera N se han eliminado moléculas (en cuyo momento la urna 2 está vacía). Por lo tanto, dejar Nme ser el caso de que esta molécula no es el ila molécula del TH que se quitará, tenemos P

N Cuando la fórmula anterior utiliza el hecho de que la probabilidad condicional de que la molécula considerada es la molécula final que se va a eliminar, dado que todavía está en la urna 1 cuando sólo N las moléculas permanecen, es, por la simetría, 1/n.

Sección 3,3

Fórmula de Bayes

92

Por lo tanto, Si numeramos el N moléculas rojas y dejar RJ ser el caso de que el número de molécula roja J es la molécula final eliminado, entonces sigue de la anterior fórmula quen 1 P(Rj) =

n Porque los eventos RJ son mutuamente excluyentes, obtenemos

1 N L e−1 P) n j=1

=1

(b) suponga ahora que la urna me Inicialmente tiene rme rojo y bme moléculas azules, para me = 1, 2. Buscar P(R), la probabilidad de que la molécula final se elimine es roja, enfoque la atención en cualquier molécula que esté inicialmente en la urna 1. Como en la parte (a), se deduce que la probabilidad de que esta molécula sea la última eliminada es p r2 b2

+

Es

decires la probabilidad de que la molécula en consideración

se encuentra todavía en la urna 1 cuando la urna 2 se vacía, y 1 b1 es la probabilidad condicional, dada la suceso anterior, que la molécula considerada es la molécula final eliminada. Por lo tanto, si dejamos Lla ser el caso de que la última molécula eliminado es una de las moléculas originalmente en la urna 1, a continuación, r2+b2

P(O) = (r1 + b1)P = Para determinar P(R), condicionamos si Lla se produce, para obtener P(R) = P(R|O)P(O) + P(R|Oc)P(Oc)

r = r1 + b1 − r1 + b1 r2 + b2 − − r1 + b1 Si r1 + b1 = r2 + b2 = n, de modo que ambas urnas inicialmente N moléculas, entonces, r2 cuando N es grande, r1 −1 (1 e−1) . L P(L) e + r1 + b1 r2 + b2 −

Sección 3,3

Fórmula de Bayes

93

El cambio en la probabilidad de una hipótesis cuando se introducen nuevas pruebas puede expresarse de forma compacta en términos del cambio en la Probabilidades de esa hipótesis, donde el concepto de probabilidades se define como sigue. Definición Las probabilidades de un evento Un se definen por Pp(A) P(Ac)

1 − P(A)

Esto es, las probabilidades de un evento Un decir lo mucho más probable es que el evento Un ocurre que no se produce. Por ejemplo, si PEntonces P(A) = 2P(Ac), así que las probabilidades son 2. Si las probabilidades son iguales a α, entonces es común decir que las probabilidades son "Un a 1 "a favor de la hipótesis. Considere ahora una hipótesis H eso es cierto con la probabilidad P(H), y Supongamos que la nueva evidencia Y se introduce. Entonces las probabilidades condicionales, dada la evidencia EQue H es cierto y que H no es cierto son dados respectivamente por | P(H E)

c

= P(E|H)P(H)

( |E) = P(E|Hc)P Hc)

P(H P(E)

P(E)

Por lo tanto, las nuevas probabilidades después de la evidencia Y se ha introducido son P(H|E) = P(H) P(E|H) P(HC E) P(Hc) P(y Hc)

(3,3) |

|

Es el nuevo valor de las probabilidades de H es el valor antiguo, multiplicado por la razón de la probabilidad condicional de la nueva evidencia dado que H es fiel a la probabilidad condicional dado que H no es cierto. Por lo tanto, la ecuación (3,3) comprueba el resultado del ejemplo 3F, ya que las probabilidades, y por lo tanto la probabilidad de H, aumentan cada vez que la nueva evidencia es más probable cuando H es cierto que cuando es falso. De manera similar, las probabilidades disminuyen cada vez que la nueva evidencia es más probable cuando H es falso que cuando es verdad. EJEMPLO 3i Una urna contiene dos tipos Un monedas y un tipo B Moneda. Cuando un tipo Un la moneda es volteada, sube cabezas con probabilidad 1/4, mientras que cuando un tipo B la moneda es volteada, sube cabezas con probabilidad 3/4. una moneda es escogida aleatoriamente de la urna y volteada. Dado que la FLIP aterrizó en las cabezas, ¿cuál es la probabilidad de que era un tipo Un ¿Moneda? Solución. Dejar Un sea el caso de que un tipo Un moneda se volcó, y dejar que B = AC sea el caso de que un tipo B la moneda se volcó. Queremos P(A|Cabezas), donde los jefes es el caso de que la FLIP aterrizó en las cabezas. De la ecuación (3,3), vemos que P(A|Cabezas)

(Cabezas|A)

Sección 3,3

P(Ac|Cabezas)

Fórmula de Bayes

94

P(B) P(Cabezas|B)

Por lo tanto, las probabilidades son 2/3:1, o, equivalentemente, la probabilidad es de 2/5 que un tipo Un la moneda se volcó. . La ecuación (3,1) puede ser generalizada de la siguiente manera: suPongamos que F1,F2,...,FN son eventos mutuamente exclusivos n

Fme = S En otras palabras, exactamente uno de los eventos F1,F2,...,FN debe ocurrir. Escribiendo n

E

Sii

y utilizando el hecho de que los eventos Sii,me = 1...,N son mutuamente excluyentes, obtenemos n

P n

(3,4) Así, la ecuación (3,4) muestra cómo, para los eventos dados F1,F2,...,Fn, de los cuales uno y sólo uno debe ocurrir, podemos calcular P(E) por el primer acondicionamiento en el que uno de los Fme Ocurre. Esto es, la ecuación (3,4) establece que P(E) es igual a un promedio ponderado de P(E|Fi), cada término es ponderado por la probabilidad del evento en el que está condicionada. EJEMPLO 3J En el ejemplo 5J del capítulo 2, consideramos la probabilidad de que, para una baraja aleatoria, la tarjeta que sigue al primer ACE es una tarjeta especificada, y dimos un argumento combinatorio para mostrar que esta probabilidad es . Aquí es un argumento probabilístico basado en el condicionamiento: Let Y sea el acontecimiento que la tarjeta que sigue el primer as es alguna tarjeta especificada, digamos, tarjeta x. Para calcular P(E), ignoramos la tarjeta X y la condición en el pedido relativo de la otra 51 cartas en la baraja. Dejar Lla ser el pedido da P O

Ahora, dado O, hay 52 posibles pedidos de las tarjetas, que corresponden a tener tarjeta X siendo el iTH Card en la baraja, me = 1,..., 52. Pero porque todos los 52! los posibles ordenamientos fueron inicialmente igualmente probables, se deduce que, condicionalmente

Sección 3,3

Fórmula de Bayes

95

O, cada uno de los 52 es igualmente probable que los pedidos restantes sean posibles. Porque la tarjeta X seguirá el primer as para sólo uno de estos pedidos, tenemos P(E|O) = 1/52, lo que implica que P(E) = 1/52.

.

Una vez más, que F1,...,FN ser un conjunto de eventos mutuamente exclusivos y exhaustivos (lo que significa que exactamente uno de estos eventos debe ocurrir). Supongo que ahora que Y se ha producido y estamos interesados en determinar cuál de las FJ también ocurrió. Luego, por ecuación (3,4), tenemos la siguiente proposición. Propuesta 3,1. P(Sij) P(Fj|E) = =

P(E) P(E|Fj)P(Fj) (3,5) n

La ecuación (3,5) es conocida como la fórmula de Bayes, después del filósofo inglés Thomas Bayes. Si pensamos en los eventos FJ como posibles hipótesis sobre algún tema, entonces la fórmula de Bayes puede ser interpretada como mostrándonos cómo las opiniones sobre estas hipótesis se llevaron a cabo antes de que se realizara el experimento [es decir, la P(Fj)] deben ser modificados por la evidencia producida por el experimento. EJEMPLO 3K Falta un avión, y se presume que fue igual de probable que se haya caído en cualquiera de las 3 regiones posibles. Let 1 − bi, me = 1, 2, 3, denota la probabilidad de que el avión se encuentre en una búsqueda de la iregión cuando el avión está, de hecho, en esa región. (Las constantes βme se llaman pasar por alto las probabilidades, porque representan la probabilidad de que se tenga en vista el plano; son generalmente atribuibles a las condiciones geográficas y ambientales de las regiones.) ¿Cuál es la probabilidad condicional de que el avión esté en el iregión, dado que una búsqueda de la región 1 no tiene éxito? Solución. Dejar Ri, me = 1, 2, 3, ser el caso de que el avión está en la región i, y dejar Y sea el acontecimiento que una búsqueda de la región 1 sea fracasada. De la fórmula de Bayes obtenemos ) P(Hge1 P(R1|E) = P(E) = P(E|R1)P(R 1)

Sección 3,3

Fórmula de Bayes

96

| i=1

Para J = 2, 3, P(E|Rj)P(Rj)

P(Rj Tenga en cuenta que la probabilidad actualizada (esto es, la condicional) de que el plano está en la región j, dada la información que una búsqueda de la región 1 no encontró, es mayor que la probabilidad inicial de que se encontraba en la región J Cuando J Z 1 y es menor que la probabilidad inicial cuando J = 1. esta afirmación es ciertamente intuitiva, ya que no encontrar el avión en la región 1 parecería disminuir su probabilidad de estar en esa región y aumentar sus posibilidades de estar en otra parte. Además, la probabilidad condicional de que el avión se encuentra en la región 1 dada una búsqueda fallida de esa región es una función cada vez mayor de la probabilidad de pasar por alto β1. Esta afirmación es también intuitiva, ya que el mayor β1 es decir, cuanto más es razonable atribuir la búsqueda fracasada a "mala suerte" en comparación con el avión no está allí. Semejantemente P(Rj|E),J Z 1, es una función de disminución de β1. . El ejemplo siguiente ha sido utilizado a menudo por estudiantes de probabilidad sin escrúpulos para ganar dinero de sus amigos menos iluminados. EJEMPLO 3L SuPongamos que tenemos 3 tarjetas que son idénticas en forma, excepto que ambos lados de la primera tarjeta son de color rojo, ambos lados de la segunda tarjeta son de color negro, y un lado de la tercera carta es de color rojo y el otro lado negro. Las 3 tarjetas se mezclan en un sombrero, y 1 tarjeta es aleatoriamente seleccionado y puesto en el suelo. Si la parte superior de la tarjeta elegida es de color rojo, ¿cuál es la probabilidad de que el otro lado es de color negro? Solución. Dejar RR, BBY Rb denotan, respectivamente, los eventos que la carta escogida es toda roja, toda negra, o la tarjeta rojo-negra. También, deje R sea el caso de que el lado volteado de la tarjeta elegida sea rojo. Entonces la probabilidad deseada es obtenida por

Sección 3,3

P Rb R

Fórmula de Bayes

97

P R P R Rb P Rb P R Rb P Rb

R Rr P Rr 1 2

1

1 3

1 2

1 3 1 3

1 Por lo tanto, la respuesta Somestudentsguess 3 . es P(Rb R)

0 1 2

1 3

P R Bb P Bb

1 3

astheanswerbyincorrectlyreasoning

P

eso, dado que aparece un lado rojo, hay dos posibilidades igualmente probables: que la tarjeta es la tarjeta todo-roja o la tarjeta rojo-negra. Sin embargo, su error consiste en asumir que estas dos posibilidades son igualmente probables. Porque, si pensamos en cada carta como que consta de dos lados distintos, entonces vemos que hay 6 resultados igualmente probables del experimento, a saber, R1,R2,B1,B2,R3,B3— donde el resultado es R1 Si el primer lado de la tarjeta roja se voltea hacia arriba, R2 Si el segundo lado de la tarjeta All-red se voltea hacia arriba, R3 Si el lado rojo de la tarjeta roja-negra está volteado hacia arriba, y así sucesivamente. Ya que el otro lado del lado rojo hacia arriba será negro sólo si el resultado es R3, vemos que la probabilidad deseada es la probabilidad condicional de R3 Dado que ya sea R1 O R2 O R3 ocurrió, que obviamente es igual a . . EJEMPLO 3m UNA nueva pareja, conocida por tener dos hijos, acaba de mudarse a la ciudad. SuPongamos que la madre se encuentra caminando con uno de sus hijos. Si este niño es una niña, ¿cuál es la probabilidad de que ambos niños sean niñas? Solución. Comencemos por definir los siguientes eventos: G1: el primero (es, el más viejo) niño es una niña. G2: el segundo niño es una niña. G: el niño que se ve con la madre es una niña. También, deje B1,B2Y B denotan eventos similares, excepto que "chica" es sustituida por "Boy". Ahora, la probabilidad deseada es P(G1G2|G), que puede expresarse de la siguiente manera: P(G1G2G P(G1G2|G) = P(G)

)

Sección 3,3

Fórmula de Bayes

98

P(G1G2) =

P(G)

También P(G) = P(G|G1G2)P(G1G2) + P(G|G1B2)P(G1B2) + P(G|B1G2)P(B1G2) + P(G|B1B2)P(B1B2) = P(G1G2) + P(G|G1B2)P(G1B2) + P(G|B1G2)P(B1G2) donde la ecuación final usó los resultados P(G|G1G2) = 1 y P(G|B1B2) = 0. Si ahora hacemos la hipótesis usual de que las 4 posibilidades de género son igualmente probables, entonces vemos que

P Por lo tanto, la respuesta depende de cualquier hipótesis que queramos hacer sobre las probabilidades condicionales que el niño ve con la madre es una niña dada el evento G1B2 y que el niño visto con la madre es una niña dado el evento G2B1. Por ejemplo, si queremos asumir, por un lado, que, independientemente de los géneros de los niños, el niño que camina con la madre es el niño mayor con cierta probabilidad p, entonces seguiría eso P(G|G1B2) = P = 1 − P(G|B1G2) implicando en este escenario que P Si, por otro lado, suponemos que si los niños son de diferentes géneros, entonces la madre optaría por caminar con la niña con probabilidad q, independientemente de la orden de nacimiento de los niños, entonces tendríamos P(G|G1B2) = P(G|B1G2) = q lo que implica que P(G

q Por ejemplo, si tomamos Q = 1, lo que significa que la madre siempre elegiría caminar con una hija, entonces la probabilidad condicional de que tiene dos hijas sería , que está de

Sección 3,3

Fórmula de Bayes

99

acuerdo con el ejemplo 2B porque ver a la madre con una hija es ahora equivalente al acontecimiento que ella tiene por lo menos una hija. Por lo tanto, como se ha dicho, el problema es incapaz de solucionarlo. De hecho, incluso cuando se hace la asunción usual sobre probabilidades de género igualmente probables, todavía necesitamos hacer suposiciones adicionales antes de que se pueda dar una solución. Esto se debe a que el espacio de muestra del experimento consiste en vectores de la forma s1,s2, iDonde s1 es el género del niño mayor, s2 es el género del niño más joven, y me identifica la orden de nacimiento del niño que se ve con la madre. Como resultado, para especificar las probabilidades de los acontecimientos del espacio de la muestra, no basta con hacer suposiciones sólo sobre los géneros de los niños; también es necesario asumir algo sobre las probabilidades condicionales en cuanto a qué niño está con la madre dados los géneros de los niños. . EJEMPLO 3N UN contenedor contiene 3 tipos diferentes de linternas desechables. La probabilidad de que una linterna tipo 1 le dé más de 100 horas de uso es .7, con las probabilidades correspondientes para las linternas tipo 2 y tipo 3 siendo .4 y. 3, respectivamente. Suponga que el 20 por ciento de las linternas en el compartimiento son tipo 1, el 30 por ciento son tipo 2, y 50 por ciento son tipo 3. (a) ¿Cuál es la probabilidad de que una linterna elegida aleatoriamente le dé más than100 horas de uso? (b) Dado que una linterna duró más de 100 horas, ¿cuál es el Probabilidadque condicional que era un tipo J Linterna J = ¿1, 2, 3? Solución. (a) deje Un Denote el acontecimiento que la linterna escogida dará más de 100 horas de uso, y deje FJ sea el caso de que un tipo J se elige la linterna, J = 1, 2, 3. para calcular P(A), condicionamos en el tipo de la linterna, para obtener P(A) = P(A|F1)P(F1) + P(A|F2)P(F2) + P(A|F3)P(F3) = (.7)(.2) + (.4)(.3) + (.3)(.5) = .41 Hay un 41 por ciento de probabilidades de que la linterna dure más de 100 horas. (b) la probabilidad se obtiene usando la fórmula de Bayes: P(Dej) P(Fj|A) = P(A) = P(A|Fj)P(Fj) .41 así, P(F1|A) = (.7)(.2)/.41 = 14/41 P(F2|A) = (.4)(.3)/.41 = 12/41 P(F3|A) = (.3)(.5)/.41 = 15/41

Sección 3,3

Fórmula de Bayes 100

Por ejemplo, mientras que la probabilidad inicial de que una linterna tipo 1 es elegida es sólo .2, la información que la linterna ha durado más de 100 horas eleva la probabilidad de este evento a 14/41 L.341. . EJEMPLO 3o Un crimen ha sido cometido por un individuo solitario. que dejó un poco de ADN en la escena del crimen. Los científicos forenses que estudiaron el ADN recuperado observaron que sólo cinco hebras podrían ser identificadas y que cada persona inocente, independientemente, tendría una probabilidad de 10−5 de que su ADN coincida con las cinco hebras. El fiscal del distrito supone que el autor del crimen podría ser cualquiera de los 1 millón residentes de la ciudad. 10000 de estos residentes han sido liberados de prisión en los últimos 10 años; por lo tanto, una muestra de su ADN está archivada. Antes de cualquier comprobación del archivo de ADN, el fiscal de distrito siente que cada uno de los 10000 ex-criminales tiene probabilidad Un de ser culpable del nuevo crimen, mientras que cada uno de los 990.000 residentes restantes tiene probabilidad βDonde A = cβ. (Esto es, el fiscal de distrito supone que cada convicto recientemente liberado es C veces más probabilidades de ser el perpetrador del crimen como es cada miembro de la ciudad que no es un convicto recientemente liberado.) Cuando el ADN que se analiza se compara con la base de datos de los 10000 ex-convictos, resulta que a. j. Jones es el único cuyo ADN coincide con el perfil. Asumiendo que la estimación del fiscal de distrito de la relación entre Un Y B es exacto, ¿cuál es la probabilidad de que a. j. sea culpable? Solución. Para empezar, tenga en cuenta que, debido a que las probabilidades deben sumar a 1, tenemos 1 = 10.000A + 990.000B = (10.000C + 990.000) (b Así 1 A= 10.000c

Cb=

+

,

+ 990.000

10.000c

990.000

Ahora, vamos G ser el caso de que a. j. es culpable, y dejar que M denotar el evento de que a. j. es el único de los 10000 en el archivo para tener una coincidencia. Entonces P(Gm) P(G|M) = P(M) P G P M G = P(M|G)P(G) + P(M|Gc)P(Gc) Por un lado, si a. j. es culpable, entonces él será el único que tendrá una coincidencia de ADN si ninguno de los otros en el archivo tiene una coincidencia. Por P(M|G) = (1 − 10−5)9999 Por otro lado, si a. j. es inocente, entonces para que él sea el único partido, su ADN debe coincidir (que ocurrirá con probabilidad 10−5), todos los demás en la base de datos deben

Sección 3,3

Fórmula de Bayes 101

ser inocentes, y ninguno de estos otros puede tener una coincidencia. Ahora, dado que a. j. es inocente, la probabilidad condicional de que todos los demás en la base de datos también son inocentes es P(todos en base de datos inocentes) P(todos los demás inocentes|También Inocente) = P(También Inocente)

También, la probabilidad condicional, dada su inocencia, que ninguno de los otros en la base de datos tendrá una coincidencia es (1 − 10−5)9999. Por

P

Sección 3,4

Eventos independientes 102

Kuz P(G) = A, la fórmula anterior da

P Por lo tanto, si los sentimientos iniciales del fiscal de distrito eran que un ex convicto arbitrario era 100 veces más propensos a cometer el crimen que era un no convicto (esto es, C = 100), entonces

Y

P Si el fiscal de distrito inicialmente sintió que la proporción apropiada era C = 10, entonces A=

Y P

Si el fiscal de distrito inicialmente sintió que el delincuente era igualmente probable que sea cualquiera de los miembros de la ciudad (C = 1)Entonces A = 10−6 Y

P Por lo tanto, la probabilidad varía de aproximadamente 9 por ciento cuando la asunción inicial del fiscal de distrito es que todos los miembros de la población tienen la misma oportunidad de ser el perpetrador a aproximadamente 91 por ciento cuando ella asume que cada ex-convicto es 100 veces más probabilidades de ser el criminal que un townsperson especificado que no es un ex-convicto. . 3,4 EVENTOS independientes Los ejemplos anteriores de este capítulo demuestran que P(E|F), la probabilidad condicional de Y Dado F, no es generalmente igual a P(E), la probabilidad incondicional de E. En otras palabras, sabiendo que F se ha producido generalmente cambia las probabilidades de Eocurrencia. En los casos especiales en los que P(E|F) de hecho es igual P(E), decimos que Y es independiente de F. Es decir Y es independiente de F Si el conocimiento que F ha ocurrido no cambia la probabilidad de que Y Ocurre. Desde P(E|F) = P(Si)/P(F), sigue que Y es independiente de F Si P(Si) = P(E)P(F)

(4,1)

El hecho de que la ecuación (4,1) es simétrica en Y Y F muestra que cada vez que Y es independiente de F, F es también independiente de E. Por lo tanto, tenemos la siguiente definición.

Sección 3,4

Eventos independientes 103

Definición Dos eventos Y Y F se dice que son Independiente Si la ecuación (4,1) sostiene. Dos eventos Y Y F que no son independientes se dice que son Dependiente. EJEMPLO 4A UNA tarjeta es seleccionada al azar de una baraja ordinaria de 52 naipes. Si Y es el evento que la tarjeta seleccionada es un ACE y F es el caso de que se trata de una pala, a continuación, Y Y F son independientes. Esto sigue porque P P

Que P

.

Y .

EJEMPLO 4B Dos monedas se voltean, y se supone que los 4 resultados son igualmente probables. Si Y es el caso de que la primera moneda aterriza en las cabezas y F el acontecimiento que el segundo aterriza en las colas, entonces Y Y F son independientes, ya que P Que P(E) = P({(H,H),(H,T)

YP

.

.

EJEMPLO 4C Suponga que tiramos 2 dados justos. Dejar E1 denotar el evento de que la suma de los dados es 6 y F denota el acontecimiento que el primer dado es igual a 4. Entonces P Que P Ahí E1 Y F no son independientes. Intuitivamente, la razón de esto es clara porque si estamos interesados en la posibilidad de lanzar un 6 (con 2 dados), estaremos muy contentos si el primer dado aterriza en 4 (o, de hecho, en cualquiera de los números 1, 2, 3, 4 y 5) , para entonces todavía tendremos la posibilidad de obtener un total de 6. Si, sin embargo, el primer dado aterrizó en 6, seríamos infelices porque no tendríamos más una ocasión de conseguir un total de 6. En otras palabras, nuestra oportunidad de obtener un total de 6 depende del resultado del primer dado; Así E1 Y F no puede ser independiente. Ahora, supongamos que dejamos E2 ser el caso de que la suma de los dados es igual a 7. Es E2 independiente de F? La respuesta es sí, ya que P Que P

Sección 3,4

Eventos independientes 104

Dejamos que el lector presente el argumento intuitivo de por qué el acontecimiento que la suma de los dados es igual a 7 es independiente del resultado en el primer dado. . EJEMPLO 4D Si dejamos Y denotar el evento de que el próximo presidente es un republicano y F el acontecimiento que habrá un terremoto importante dentro del año próximo, entonces la mayoría de la gente probablemente estaría dispuesta a asumir que Y Y F son independientes. Sin embargo, probablemente habría cierta controversia sobre si es razonable suponer que Y es independiente de GDonde G es el acontecimiento que habrá una recesión dentro de dos años después de las elecciones. . Ahora mostramos que si Y es independiente de FEntonces Y es también independiente de Fc. Propuesta 4,1. Si Y Y F son independientes, entonces también lo son Y Y Fc. Prueba. Asumir que Y Y F son independientes. Desde Y = Si ∪ SiC Y Si Y SiC son obviamente mutuamente excluyentes, tenemos P(E) = P(Si) + P(Sic) = P(E)P(F) + P(Sic) o, equivalentemente, P(Sic) = P(E)[1 − P(F)] = P(E)P(Fc) y el resultado está demostrado. Así, si Y es independiente de F, entonces la probabilidad de Ela ocurrencia de la misma es inalterable por la información sobre si F ha ocurrido. Supongo que ahora que Y es independiente de F y también es independiente de G. Es Y entonces necesariamente independiente de Fg? La respuesta, algo sorprendentemente, es no, como se muestra en el siguiente ejemplo. EJEMPLO 4E Se lanzan dos dados justos. Dejar Y denotar el evento de que la suma de los dados es 7. Dejar F denotar el caso de que el primer troquel sea igual a 4 y G denotar el caso de que el segundo dado sea igual a 3. Desde el ejemplo 4C, sabemos que Y es independiente de F, y el mismo razonamiento que se aplica allí muestra que Y es también independiente de G; pero claramente, Y no es independiente de Fg [puesto que P(E|Fg) = 1]. . Parecería seguir del ejemplo 4E que una definición apropiada de la independencia de tres acontecimientos E, FY G tendría que ir más allá de simplemente asumir que todos los los pares de acontecimientos son independientes. Por lo tanto, nos lleva a la siguiente definición.

Sección 3,4

Eventos independientes 105

Definición Tres eventos E, FY G se dice que son independientes si P(Efg) = P(E)P(F)P(G) P(Si) = P(E)P(F) P(Eg) = P(E)P(G) P(Fg) = P(F)P(G) Tenga en cuenta que si E, FY G son independientes, entonces Y será independiente de cualquier evento formado por F Y G. Por ejemplo, Y es independiente de F ∪ GDesde P[E(F ∪ G)] = P(Si ∪ Eg) = P(Si) + P(Eg) − P(Efg) = P(E)P(F) + P(E)P(G) − P(E)P(Fg) = P(E)[P(F) + P(G) − P(Fg)] = P(E)P(F ∪ G) Por supuesto, también podemos ampliar la definición de independencia a más de tres eventos. Los eventos E1,E2,...,EN se dice que son independientes si, para cada subconjunto E ,R ... n, de estos eventos, P Finalmente, definimos un conjunto infinito de eventos para ser independientes si cada subconjunto finito de esos eventos es independiente. A veces, un experimento de probabilidad bajo consideración consiste en realizar una secuencia de subexperimentos. Por ejemplo, si el experimento consiste en lanzar continuamente una moneda, es posible que pensemos en cada lanzamiento como un subexperimento. En muchos casos, es razonable suponer que los resultados de cualquier grupo de los subexperimentos no tienen ningún efecto sobre las probabilidades de los resultados de los otros subexperimentos. Si tal es el caso, decimos que los subexperimentos son independientes. Más formalmente, decimos que los subexperimentos son independientes si E1,E2,...,En,... es necesariamente una secuencia independiente de eventos cuando Eme es un evento cuya ocurrencia está completamente determinada por el resultado de la isubexperimento. Si cada subexperimento tiene el mismo conjunto de posibles resultados, los subexperimentos a menudo se denominan Ensayos. EXAMPLE 4F Se debe realizar una secuencia infinita de ensayos independientes. Cada ensayo da como resultado un éxito con probabilidad P y un fracaso con probabilidad 1 − p. ¿Cuál es la probabilidad de que

Sección 3,4

Eventos independientes 106

(a) al menos 1 éxito se produce en la primera N ensayos (b) exactamente K los éxitos se producen en la primera N ensayos (c) ¿todos los ensayos dan lugar a éxitos? Solución. Para determinar la probabilidad de al menos 1 éxito en la primera N los ensayos, es más fácil calcular primero la probabilidad del acontecimiento complementario: el de ningunos éxitos en el primer N Ensayos. Si dejamos Eme denotar el caso de un fallo en el ijuicio, entonces la probabilidad de ningún éxito es, por la independencia, P(E1E2 ···En) = P(E1)P(E2)···P(En) = (1 − p)n Por lo tanto, la respuesta a la parte (a) es 1 −1 − p)n. Para calcular la respuesta a la parte (b), considere cualquier secuencia particular de la primera N resultados que contienen K éxitos y N − K Fallas. Cada una de estas secuencias, por la independencia asumida de los ensayos, se producen con probabilidad pk(1 − p)n−k. Puesto que hay

tales secuencias (hay n!/k!(N − k)! permutaciones de K éxitos y N − K

fallas), la probabilidad deseada en la parte (b) es

k

P{Exactamente K Éxitos} =

Para contestar la parte (c), observamos que, por la parte (a), la probabilidad de la primera N todos los juicios que resultan en éxito son dados por P Pn Así, usando la propiedad de continuidad de probabilidades (sección 2,6), vemos que la probabilidad deseada es dada por



P

me ⎠

⎝n→Q i=1 EIc⎞ ⎠

i=1

= nLim→qP

= LimN pn EJEMPLO 4G

.

Sección 3,4

Eventos independientes 107

UN sistema compuesto por N se dice que los componentes separados son un sistema paralelo si funciona cuando al menos uno de los componentes funciona. (Vea la figura 3,2.) Para un sistema de este tipo, si Componente i, que es independiente de los otros componentes, funciona con probabilidad pi,me = 1...,n, ¿cuál es la probabilidad de que el sistema funcione? Solución. Dejar Ame denotar el evento que el componente me Funciones. Entonces P{funciones del sistema} = 1 − P{el sistema no funciona} = 1 − P{todos

los

componentes

no

funcionan} Pi)

N

por la independencia

. i 1

1 2 A

B 3 n

Figura 3,2: Sistema paralelo: funciona si los flujos de corriente de Un Para B

EJEMPLO 4H Se realizan ensayos independientes que consisten en rodar un par de dados justos. ¿Cuál es la probabilidad de que un resultado de 5 aparezca antes de un resultado de 7 cuando el resultado de un rollo es la suma de los dados? Solución. Si dejamos EN denotar el caso de que no aparezcan 5 o 7 en la primera N − 1 los ensayos y un 5 aparecen en el nprueba, entonces la probabilidad deseada es



P P(En) q n=1

Ahora, desde P{5 en cualquier ensayo} = por la independencia de los ensayos,

q =1

Y P{7 en cualquier prueba} =

, obtenemos,

Sección 3,4

Eventos independientes 108

P Así n−1

P

Este resultado también podría haber sido obtenido por el uso de probabilidades condicionales. Si dejamos Y sea el acontecimiento que un 5 ocurra antes de un 7, después podemos obtener la probabilidad deseada, P(E), condicionando el resultado del primer ensayo, de la siguiente manera: Let F ser el caso de que el primer ensayo resulte en un 5, que G ser el caso de que resulte en un 7, y dejar que H ser el caso de que el primer ensayo no sea un 5 ni un 7. Entonces, el condicionamiento en el cual uno de estos acontecimientos ocurre da P(E) = P(E|F)P(F) + P(E|G)P(G) + P(E|H)P(H) Sin embargo P(E|F) = 1 P(E|G) = 0 P(E|H) = P(E) Las dos primeras igualdades son obvias. El tercero sigue porque si el primer resultado no resulta en un 5 ni un 7, entonces la situación es exactamente como era cuando el problema comenzó por primera vez, es decir, el experimentador continuará rodando un par de dados justos hasta que aparezca un 5 o 7. Además, los ensayos son independientes; por lo tanto, el resultado del primer ensayo no tendrá ningún efecto sobre los rollos subsecuentes de los dados. Desde P

YP

, sigue que P

O P El lector debe tener en cuenta que la respuesta es bastante intuitiva. Esto es, porque un 5 ocurre en cualquier rollo con probabilidad y un 7 con probabilidad , parece intuitivo que las probabilidades de que un 5 aparezca antes de un 7 deben ser 6 a 4 contra. La probabilidad debe entonces ser

, como de hecho lo es.

Sección 3,4

Eventos independientes 109

El mismo argumento muestra que si Y Y F son eventos mutuamente exclusivos de un experimento, entonces, cuando se realizan ensayos independientes del experimento, el evento Y ocurrirá antes del evento F con probabilidad P(E) P(E) + P(F) . EJEMPLO 4i Hay N los tipos de cupones, y cada uno nuevo recolectado es independientemente del tipo me con probabilidad pi, 1. suponga K los cupones deben ser recolectados. Si Ame es el caso de que haya al menos un tipo me cupón entre los recogidos, entonces, para me Z jEncontrar (a) P(Ai) (b) P(Ame ∪ Aj) (c) P(Ai|Aj) Solución. P = 1 − P{ningún cupón es tipo i} = 1 −1 − pi)k donde el anterior utilizado que cada cupón es, independientemente, no de tipo me con probabilidad 1 − pi. Semejantemente P = 1 − P{ningún cupón es cualquiera de los tipos me o tipo j} = 1 −1 − pme − pj)k donde el anterior utilizado que cada cupón es, independientemente, ninguno de los tipos me ni tipo J con probabilidad 1 − pme − pj. Para determinar P(Ai|Aj), vamos a utilizar la identidad P(Ame ∪ Aj) = P(Ai) + P(Aj) − P(AiAj) que, en conjunción con las partes (a) y (b), rinde P(AiAj) = 1 −1 − pi)K + 1 −1 − pj)K − [1 −1 − pme − pj)k] = 1 −1 − pi)K −1 − pj)K + (1 − pme − pj)k Por consiguiente |

= P(AiAj)

=

1 −1 − pi)K − (−1 − p−j)K + (1 − pme − pj)k

Sección 3,4

P(Ame Aj)

P(Aj)

1

(1

Eventos independientes 110

pj)k

.

El siguiente ejemplo presenta un problema que ocupa un lugar de honor en la historia de la teoría de la probabilidad. Este es el famoso problema de los puntos. En términos generales, el problema es este: dos jugadores ponen estacas y juegan algún juego, con las apuestas para ir al ganador del juego. Una interrupción requiere que ellos se detengan antes de haber ganado y cuando cada uno tiene algún tipo de "puntuación parcial". ¿Cómo deben dividirse las apuestas? Este problema fue planteado al matemático francés Blaise Pascal en 1654 por el Chevalier de Mer ´ e, que era un jugador profesional en ese momento. Al atacar a ´ el problema, Pascal introdujo la importante idea de que la proporción del Premio merecido por los competidores debería depender de sus respectivas probabilidades de ganar si el juego iba a ser continuado en ese momento. Pascal elaboró algunos casos especiales y, lo que es más importante, inició una correspondencia con el famoso francés Pierre de Fermat, que tenía una gran reputación como matemático. El intercambio de letras resultante no sólo condujo a una solución completa al problema de los puntos, sino que también sentó el marco para la solución a muchos otros problemas relacionados con juegos de azar. Esta correspondencia celebrada, fechada por algunos como la fecha de nacimiento de la teoría de la probabilidad, era también importante en estimular interés en la probabilidad entre los matemáticos en Europa, para Pascal y Fermat eran ambos reconocidos como siendo entre los primeros matemáticos de la época. Por ejemplo, en poco tiempo de su correspondencia, el joven matemático holandés Christiaan Huygens vino a París para discutir estos problemas y soluciones, y el interés y la actividad en este nuevo campo crecieron rápidamente. EJEMPLO 4J el problema de los puntos Ensayos independientes que resulten en un éxito con probabilidad P y un fracaso con probabilidad 1 − P se realizan. ¿Cuál es la probabilidad de que N los éxitos se producen antes M ¿Fallas? Si pensamos en Un Y B como jugar un juego tal que Un gana 1 punto cuando se produce un éxito y B Obtiene 1 punto cuando se produce un fallo, entonces la probabilidad deseada es la probabilidad de que Un ganaría si el juego fuera a ser continuado en una posición donde Un Necesario N Y B Necesario M más puntos para ganar. Solución. Presentaremos dos soluciones. La primera se debe a Pascal y la segunda a Fermat. Vamos a denotar por Pn,M la probabilidad de que N los éxitos se producen antes M Fallas. Al condicionar el resultado del primer ensayo, obtenemos Pn,M = Ppn−1,M + (1 − p)Pn,m−1

N Efectos 1M Efectos 1

Por? Razonarlo.) Uso de las condiciones de límite obvias Pn,

0

= 0P0M = 1, podemos

solucionar estas ecuaciones para Pn,m. En lugar de pasar por los tediosos detalles, consideremos la solución de Fermat. Fermat argumentó que, con el fin de N éxitos que ocurren antes M los fracasos, es necesario y suficiente que haya por lo menos N éxitos en la primera M + N − 1 ensayos. (Incluso si el juego fuera a terminar antes de un total de M + N − se concluyeron 1 ensayos, todavía podíamos imaginar que se realizaban los ensayos adicionales necesarios.) Esto es cierto, porque si hay por lo menos N éxitos en la primera M + N − 1 ensayos, podría haber a lo sumo M − 1 fallos en los M + N − 1 ensayos; Así N los éxitos ocurrirían antes M Fallas.

Sección 3,4

Eventos independientes 111

Si, sin embargo, había menos de N éxitos en la primera M + N − 1 ensayos, tendría que haber por lo menos M fallas en ese mismo número de ensayos; Así N los éxitos no se producirían antes M Fallas. Por lo tanto, ya que, como se muestra en el ejemplo 4F, la probabilidad de exactamente K éxitos en M + N − 1 los ensayos se probabilidad deseada de N éxitos antes M fallas es

k

, se sigue que la

+ m k

Pn,M

=P (1 − p)m+n−1−K para=n.

Nuestros próximos dos ejemplos tratan de los problemas de juego, con el primero de tener un surun análisis muy elegante.∗ EJEMPLO 4k Suponga que inicialmente hay R jugadores, con el jugador me Tener nme Unidades nme > 0 me = 1...,r. En cada etapa, dos de los jugadores son elegidos para jugar un juego, con el ganador ∗El resto de esta sección debe considerarse opcional.

del juego recibiendo 1 unidad del perdedor. Cualquier jugador cuya fortuna caiga a 0 se elimina, y esto continúa hasta que un solo jugador tiene todo N K Nme unidades, con ese jugador designado como el vencedor. Asumiendo que los resultados de los juegos sucesivos son independientes y que cada juego es igualmente probable que sea ganado por cualquiera de sus dos jugadores, encontrar Pi, la probabilidad de que el jugador me ¿el vencedor? Solución. Para empezar, suponga que hay N jugadores, con cada jugador inicialmente teniendo 1 unidad. Considerar jugador i. Cada etapa que juega será igualmente probable que resulte en ganar o perder 1 unidad, con los resultados de cada etapa siendo independiente. Además, ella continuará jugando etapas hasta que su fortuna se convierte en 0 o n. Porque esto es lo mismo para todos N jugadores, se deduce que cada jugador tiene la misma oportunidad de ser el vencedor, lo que implica que cada jugador tiene probabilidad 1/N de ser el vencedor. Ahora, supongamos que estos N los jugadores se dividen en R equipos, con equipo me Contiene nme Jugadores me = 1...,r. Entonces la probabilidad de que el vencedor sea un miembro del equipo me Es ni/n. Sino porque (a) Equipo me Inicialmente tiene una fortuna total de nme Unidades me = 1...,rY (b) cada juego jugado por los miembros de los equipos diferentes es igualmente probable que se ganó byeither jugador y los resultados en la fortuna de los miembros del equipo ganador aumentando en 1 y la fortuna de los miembros del equipo perdedor disminuyendo por 1,

Sección 3,4

Eventos independientes 112

es fácil ver que la probabilidad de que el vencedor es del equipo me es exactamente la probabilidad que deseamos. Así Pme = ni/n. Curiosamente, nuestro argumento muestra que este resultado No dependa de cómo los jugadores en cada etapa se eligen. . En problema de la ruina del jugador, sólo hay 2 jugadores, pero no se supone que sean de igual habilidad. EJEMPLO 4L el problema de la ruina del apostador Dos jugadores, Un Y B, apueste por los resultados de las sucesivas volteretas de una moneda. En cada tirón, si la moneda sube cabezas, Un recoge 1 unidad de B, mientras que si se trata de colas, Un paga 1 unidad a B. Continúan haciendo esto hasta que uno de ellos se queda sin dinero. Si se supone que las volteretas sucesivas de la moneda son independientes y cada flip da como resultado una cabeza con probabilidad p, ¿cuál es la probabilidad de que Un termina con todo el dinero si comienza con me unidades y B comienza con N − me ¿Unidades? Solución. Dejar Y denotar el evento que Un termina con todo el dinero cuando empieza con me Y B comienza con N − i, y para dejar claro la dependencia de la fortuna inicial de ADejar Pme = P(E). Obtendremos una expresión para P (e) por condicionamiento en el resultado de la primera Flip como sigue: Let H denotan el acontecimiento que el primer tirón aterriza en cabezas; Entonces Pme = P(E) = P(E|H)P(H) + P(E|Hc)P(Hc) = Pp(E|H) + (1 − p)P(E|Hc) Ahora, dado que el primer tirón aterriza en cabezas, la situación después de la primera apuesta es que Un Hsa me + 1 unidades y B Hsa N −me + 1). Dado que se supone que las volteretas sucesivas son independientes con una probabilidad común P de los jefes, se sigue que, a partir de ese momento, Ala probabilidad de ganar todo el dinero es exactamente lo mismo que si el juego acabara de empezar con Un tener una fortuna inicial de me + 1 y B tener una fortuna inicial de N −me + 1). Por P(E|H) = Pi+1 y del mismo modo, P(E|Hc) = Pi−1 Por lo tanto, dejar Q = 1 − p, obtenemos Pme = Ppi+1 + Qpi−1

me = 1, 2,...,N − 1

(4,2)

Al hacer uso de las condiciones de límite obvias P0 = 0 y PN = 1, ahora resolveremos la ecuación (4,2). Desde P + Q = 1, estas ecuaciones son equivalentes a

Sección 3,4

Eventos independientes 113

Ppme + Qpme = Ppi+1 + Qpi−1 O q

Pi+1 − Pme = p (Pme − Pi−1)

(4,3)

me = 1, 2,...,N − 1

Por lo tanto, desde P0 = 0, obtenemos, de la ecuación (4,3), q P2 − P1 =

(P1 − P0) = p Pp1

q P1 p

(4,4) qi−1 Pi (Pi

P1 p

N−1

PNP1 Agregar el primer me − 1 ecuaciones de (4,4) rendimientos

Pme − P O

Sección 3,4

Eventos independientes 114

⎧ ⎪ 1 (q/p) P1 Si Q Z 1 p Pi q Si= 1 p Utilizando el hecho de que PN = 1, obtenemos

⎧⎪

1 (q/p)N Si P Z

P Si p N

Ahí i N

Pme

Si P Z

(4,5)

= ⎪ ⎪ ⎩ 1Nme −q/p)Si p

Dejar Qme denota la probabilidad de que B termina con todo el dinero cuando Un inicia withreplacingme Y B comienza con N − i. Entonces, por la simetría a la situación descrita, y eni, sigue que P Por Q Y me Por N −

⎧ ⎪ ⎪ ⎪ 1 −p/q)Nn−iSi Q Z

Qme =N1 − − i(p/q) Si Q ⎪ ⎪ ⎪ ⎩ N

Además, desde q equivale a p , tenemos, cuando Q Z Pme + Qme = N + 1− − (p(p//Qq)N)N−me 1 −q/p)me 1 1 −q/p)

,

pN = p−N p−N(QqN/p)me + qN −qNqN−Pp/Nq)N−i

Sección 3,4

Eventos independientes 115

− = pN − pN−piqNi − qqNn + qipN−i

=1 Este resultado también se mantiene cuando p

Así

Pme + Qme = 1 En palabras, esta ecuación establece que, con la probabilidad 1, ya sea Un O B terminará con todo el dinero; en otras palabras, la probabilidad de que el juego continúe indefinidamente con Ala fortuna siempre está entre 1 y N − 1 es cero. (El lector debe tener cuidado porque, a priori, hay tres posibles resultados de este juego de azar, no dos: ya sea Un WINS, o B gana, o el juego continúa para siempre sin que nadie gane. Acabamos de demostrar que este último evento tiene probabilidad 0.) Como ilustración numérica del resultado anterior, si Un empezar con 5 unidades y B con 10, entonces la probabilidad de Aes ganar sería Si P Fueron , mientras que saltaría a

Si P eran. 6. UN caso especial del problema de la ruina del apostador, que también se conoce como el problema de duración del juego, fue propuesto a Huygens por Fermat en 1657. La versión Huygens propuso, que él mismo resolvió, era que Un Y B tienen 12 monedas cada una. Juegan para estas monedas en un juego con 3 dados de la siguiente manera: cada vez que 11 se lanza (por cualquiera de los dos, no hace ninguna diferencia que rueda los dados), Un da una moneda a B. Cada vez que se lanza 14, B da una moneda a A. La persona que primero gana todas las monedas gana el juego. Desde P{Roll 11} =

Y P{Roll 14} =

, vemos

por ejemplo 4H que, para A, esto es sólo el problema de la ruina del jugador con P 12, y N = 24. la forma general del problema de la ruina del jugador fue solucionada por el matemático James Bernoulli y publicado 8 años después de su muerte en 1713. Para una aplicación del problema de la ruina del jugador a las pruebas de drogas, supongamos que dos nuevos fármacos se han desarrollado para el tratamiento de una determinada enfermedad. Droga me tiene una tasa de curación Pi,me = 1,2, en el sentido de que cada paciente trató con fármacos me se curará con probabilidad Pi. Sin embargo, estas tasas de curación no se conocen, y estamos interesados en encontrar un método para decidir si P1 > P2 O P2 > P1. Para decidir sobre una de estas alternativas, considere la siguiente prueba: los pares de pacientes deben ser tratados secuencialmente, con un miembro de la pareja que recibe el fármaco 1 y el otro fármaco 2. Los resultados de cada par se determinan, y la prueba se detiene cuando el número acumulativo de curaciones de uno de los fármacos excede el número acumulativo de curaciones del otro por un número fijo y predeterminado. Más formalmente, deje 1Si el paciente en el jel par del TH que recibe el fármaco 1 se cura XJ %

=0 de lo contrario 1Si el paciente en el jel par del TH que recibe el fármaco 2 se cura

Sección 3,4

YJ

Eventos independientes 116

= % 0 de lo contrario

Para un entero positivo predeterminado M, la prueba para después de par NDonde N es el primer valor de N tal que cualquiera X1 + ··· + XN −Y1 + ··· + Yn) = M O X1 + ··· + XN −Y1 + ··· + Yn) = −M En el caso anterior, afirmamos que P1 > P2 y en este último que P2 > P1. Con el fin de ayudar a determinar si lo anterior es una buena prueba, una cosa que nos gustaría saber es la probabilidad de que conduzca a una decisión incorrecta. Esto es, dado P1 Y P2Donde P1 > P2, ¿cuál es la probabilidad de que la prueba incorrectamente afirme que P2 > P1? Para determinar esta probabilidad, tenga en cuenta que después de que cada par se comprueba, la diferencia acumulativa de las curaciones usando el fármaco 1 versus el fármaco 2 subirá por 1 con probabilidad P1(1 − P2)— ya que esta es la probabilidad de que el fármaco 1 conduzca a una cura y el fármaco 2 no — o bajar por 1 con probabilidad (1 − P1)P2, o permanecen igual con la probabilidad P1P2 + (1 − P1)(1 − P2). Por lo tanto, si consideramos sólo aquellos pares en los cuales la diferencia acumulativa cambia, entonces la diferencia subirá por 1 con probabilidad P = P{up 1|arriba 1 o abajo 1} − P1(1 − P2)

=

P2) + (1 − P1)P2

P1(1 y abajo por 1 con probabilidad

Así, la probabilidad de que la prueba afirme que P2 > P1 es igual a la probabilidad de que un jugador que gane cada apuesta (una unidad) con probabilidad P va a bajar M antes de subir M. Pero la ecuación (4,5), con me = M,N = 2M, muestra que esta probabilidad es dada por P testassertsthat 1 1

P2

1

P

M

P

2M

P 1

1

P1

P 1

1

1

1

P P

1 1

M M

Sección 3,4

Eventos independientes 117

Donde =

= P1(1 − − P2)

P

γ 1−P

P2(1

P1)

Por ejemplo, si P1 = .6 y P2 = .4, entonces la probabilidad de una decisión incorrecta es .017 cuando M = 5 y reduce a. 0003 cuando M = 10.

.

Suponga que se nos presenta un conjunto de elementos y queremos determinar si al menos un miembro del conjunto tiene cierta propiedad. Podemos atacar esta pregunta probabilísticamente eligiendo aleatoriamente un elemento del conjunto de forma que cada elemento tenga una probabilidad positiva de ser seleccionado. Entonces la pregunta original puede ser contestada por una consideración de la probabilidad que el elemento seleccionado aleatoriamente no tiene la propiedad de interés. Si esta probabilidad es igual a 1, entonces ninguno de los elementos del conjunto tiene la propiedad; Si es menor que 1, entonces al menos un elemento del conjunto tiene la propiedad. El ejemplo final de esta sección ilustra esta técnica. EJEMPLO 4m El gráfico completo que tiene N vértices se define como un conjunto de N puntos (llamados vértices) en el plano y el líneas (llamadas aristas) que conectan cada par de vértices. El gráfico completo con 3 vértices se muestra en la figura 3,3. Suponga que ahora que cada borde en un gráfico completo que tiene N los vértices deben ser coloreados rojo o azul. Para un entero fijo k, una cuestión de interés es, hay una manera de colorear los bordes de modo que ningún conjunto de K vértices tiene todo su ¿los bordes de conexión del mismo color? Puede ser demostrado por un argumento probabilístico que si N no es demasiado grande, entonces la respuesta es sí.

Figura 3,3

El argumento se ejecuta de la siguiente manera: suponga que cada borde es, independientemente, igualmente probable que sea de color rojo o azul. Es que, cada borde es rojo con probabilidad . Número de la como sigue:

conjuntos de K vértices y definir los eventos Ei,me

Sección 3,4

Eventos independientes 118

Eme = {todos los bordes de conexión de la iTH conjunto de K los vértices son del mismo color}

Ahora, ya que cada uno de los los bordes de conexión de un conjunto de K vértices es igualmente probable que sea rojo o azul, se sigue que la probabilidad de que son todos del mismo color es

P Por lo tanto, porque

P

...

)

(Desigualdad de

Boole) i

encontramos que P , la probabilidad de que haya un conjunto de K vértices de cuya los bordes de conexión se colorean semejantemente, satisfacen k(k−1)/2−1

P Por lo tanto, si k(k−1)/2−1

<1 o, equivalentemente, si

entonces la probabilidad de que al menos uno de los conjuntos de K vértices tiene todos sus bordes de conexión el mismo color es menor que 1. Consecuentemente, bajo la condición anterior en N Y k, se deduce que hay una probabilidad positiva de que ningún conjunto de K vértices tiene todos sus bordes de conexión del mismo color. Pero esta conclusión implica que hay por lo menos una forma de colorear los bordes para los que no hay un conjunto de K vértices tiene todos sus bordes de conexión del mismo color. . Observaciones. a Considerando que el argumento anterior establecía una condición N Y K que garantiza la existencia de un esquema de coloración que satisface la propiedad

Sección 3,4

Eventos independientes 119

deseada, no da ninguna información acerca de cómo obtener tal esquema (aunque una posibilidad sería simplemente para elegir los colores al azar, comprobar si el color resultante satisface la propiedad, y repita el procedimiento hasta que lo haga).

Sección 3,5

P(·|F ) Es una probabilidad 120

b el método de introducir la probabilidad en un problema cuya declaración es puramente determinista se ha denominado método probabilístico.1 Otros ejemplos de este método se dan en el ejercicio teórico 24 y en los ejemplos 2T y 2U del capítulo 7. 3,5

P(·| F) Es una probabilidad Las probabilidades condicionales satisfacen todas las propiedades de las probabilidades ordinarias, como se demuestra en la proPosición 5,1, que muestra que P(E|F) satisface los tres axiomas de una probabilidad. Propuesta 5,1.

(c) si E

, son eventos mutuamente exclusivos, q

q



P



Prueba. Para probar parte (a), debemos demostrar que 0 ... P(Si)/P(F) ... 1. la desigualdad del lado izquierdo es obvia, mientras que el lado derecho sigue porque Si ( F, lo que implica que P(Si) ... P(F). La parte (b) sigue porque P(Sf) P(F) P(S|F) = = = 1 P(F) P(F) La parte (c) sigue de F⎞

P⎛ ⎠q P(F) i=1



P Desde

1

EiF

Ver N. Alon, J. Spencer, y P. Erdos, El método probabilístico (Nueva York: John Wiley & Sons, Inc., 1992).

Sección 3,5

P(·|F ) Es una probabilidad 121

P(F) q P(EiF) 1

=P(F) q

donde sigue la siguiente igualdad, porque EiEJ = Ø implica que EiFEjF = Isla. Si definimos Q(E) = P(E|F), entonces, de la proPosición 5,1, Q (E) puede ser considerado como una función de probabilidad en los eventos de S. Por lo tanto, todas las proposiciones probadas previamente para las probabilidades se aplican a Q(E). Por ejemplo, tenemos Q(E1 ∪ E2) = Q(E1) + Q(E2) − Q(E1E2) o, equivalentemente, P(E1 ∪ E2|F) = P(E1|F) + P(E2|F) − P(E1E2|F) También, si definimos la probabilidad condicional Q(E1|E2) Por Q(E1|E2) = Q(E1E2)/ Q(E2), entonces, de la ecuación (3,1), tenemos Q

(5,1)

Desde Q(E1E2) Q(E1|E2) = Q(E2) = P(E1E2|F) P(E2|F) P(E1E2F) P(F) =

P(E2F)

P(F) = P(E1|E2F) La ecuación (5,1) equivale a P EJEMPLO 5A Consideremos el ejemplo 3A, que se refiere a una compañía de seguros que cree que la gente puede ser dividida en dos clases distintas: aquellos que son propensos a accidentes y aquellos que no lo son. Durante un año determinado, una persona propensa a accidentes tendrá un accidente con probabilidad .4, mientras que la cifra correspondiente para una persona que no es propensa a accidentes es. 2. ¿Cuál es la probabilidad condicional de que un nuevo

Sección 3,5

P(·|F ) Es una probabilidad 122

asegurado tendrá un accidente en su ¿o su segundo año de propiedad de la póliza, dado que el asegurado ha tenido un accidente en el primer año? Solución. Si dejamos Un ser el caso de que el tomador de póliza es propenso a accidentes y dejamos Ai,me = 1, 2, sea el acontecimiento que él o ella ha tenido un accidente en el iTH año, entonces la probabilidad deseada P(A2|A1) puede obtenerse condicionando si el tomador de póliza es o no propenso a accidentes, de la siguiente manera: P(A2|A1) = P(A2|AA1)P(A|A1) + P(A2|AcA1)P(Ac|A1) Nwo P(A|A1) = P(A1A) = P(A1|A)P(A) P(A1) Sin embargo P(A) se supone que es igual a .26. por lo tanto,

P(A1) , y se mostró en el ejemplo 3A que P(A1) =

P Así P Desde P(A2|AA1) = .4 y P(A2|AcA1) = .2, sigue que P . EJEMPLO 5B UN chimpancé femenino ha dado A luz. No es seguro, sin embargo, cuál de dos chimpancés masculinos es el padre. Antes de realizar cualquier análisis genético, se siente que la probabilidad de que el varón número 1 es el padre es P y la probabilidad de que el hombre número 2 es el padre es 1 − p. La DNA obtenida de la madre, del varón número 1, y del varón número 2 indican que, en una localización específica del genoma, la madre tiene el par del gene (A,A), el número masculino 1 tiene el par de genes (a,a), y el macho número 2 tiene el par de genes (A,a). Si una prueba de ADN muestra que el chimpancé bebé tiene el par de genes (A,a), ¿cuál es la probabilidad de que el hombre número 1 sea el padre? Solución. Que todas las probabilidades sean condicionales en el caso de que la madre tenga el par de genes (A,A), el número masculino 1 tiene el par de genes (a,a), y el macho número 2 tiene el par de genes (A,a). Ahora, vamos Mme ser el caso de que el número masculino i, me = 1, 2, es el padre, y dejar que BA,Un ser el caso de que el chimpancé bebé tiene el par de genes (A,a). Entonces P(M1|BA,a) se obtiene de la siguiente manera:

Sección 3,5

P(·|F ) Es una probabilidad 123

1 B A ,a

P M 1 B A ,a

P(M

)

P B A ,a P B A ,a 1

p 2p

P B A ,a M 1 P M 1 M1 P M1 P B A ,a M 2 P M 2 1 p 1 2 1 p 1+p

Becauseincreases la probabilidad de que el varón número 1 sea el padre. Este resultado es intuitivo12+pP > P Cuando P < 1, la información que el par del gene del bebé es (A,a) porque es más probable que el bebé tenga par de genes (A,a) Si M1 es cierto que si M2 es cierto (las probabilidades condicionales respectivas son 1 y 1/2). . El siguiente ejemplo trata de un problema en la teoría de las ejecuciones. EJEMPLO 5C Ensayos independientes, cada uno resultando en un éxito con probabilidad P o un fallo con probabilidad Q = 1 − p, se realizan. Estamos interesados en calcular la probabilidad de que una carrera de N los éxitos consecutivos se producen antes de M fallos consecutivos. Solución. Dejar Y ser el caso de que una carrera de N los éxitos consecutivos se producen antes de M fallos consecutivos. Para obtener P(E), empezamos por condicionar el resultado del primer juicio. Esto es, dejar que H denotar el caso de que el primer ensayo resulte en un éxito, obtenemos P(E) = Pp(E|H) + Qp(E|Hc) (5,2) Ahora, dado que el primer juicio fue exitoso, una forma en que podemos conseguir una carrera de N éxitos antes de una carrera de M los fracasos sería tener la siguiente N − 1 los ensayos resultan en éxitos. Por lo tanto, vamos a condicionar si eso ocurre o no. Esto es, dejar que F sea el caso de que los ensayos 2 N todos son éxitos, obtenemos P(E|H) = P(E|Fh)P(F|H) + P(E|FcH)P(Fc|H)

(5,3)

Por un lado, claramente, P(E|Fh) = 1 por otro lado, si el evento FcH ocurre, entonces el primer juicio daría lugar a un éxito, pero habría un fracaso algún tiempo durante el siguiente N − 1 ensayos. Sin embargo, cuando ocurre este fracaso, aniquilaría todos los éxitos anteriores, y la situación sería exactamente como si empezamos con un fracaso. Ahí P(E|FcH) = P(E|Hc) Porque la independencia de los juicios implica que F Y H son independientes, y porque P(F) = pn−1, sigue de la ecuación (5,3) que

Sección 3,5

P(·|F ) Es una probabilidad 124

P(E|H) = pn−1 + (1 − pn−1)P(E|Hc)

(5,4)

Ahora obtenemos una expresión para P(E|Hc) de una manera similar. Esto es, dejamos G denotar el evento de que los ensayos 2 M son todos Fallas. Entonces P(E|Hc) = P(E|Ghc)P(G|Hc) + P(E|GcHc)P(Gc|Hc)

(5,5)

Nwo GhC es el caso de que el primer M todos los juicios resultan en fracasos, P(E|Ghc) = 0. también, si GcHC ocurre, entonces el primer ensayo es un fracaso, pero hay al menos un éxito en el siguiente M − 1 ensayos. Por lo tanto, dado que este éxito elimina todos los fracasos anteriores, vemos que P(E|GcHc) = P(E|H) Así, porque P(Gc|Hc) = P(Gc) = 1 − qm−1, obtenemos, de (5,5),

P(E|Hc) = (1 − qm−1)P(E|H)

(5,6)

Resolución de ecuaciones (5,4) y (5,6) rendimientos Sección 3,5

P(·|F ) Es una probabilidad 125

pn−1 P(E|H) =

pn−1 + qm−1 − pn−1qm−1

Y | C = (1 − qm−1)pn−1 P(y H ) pn−1 + qm−1 − pn−1qm−1 Así P(E) = Pp(E|H) + Qp(E|Hc) =

pN + Qpn−1(1 − qm−1) pn−1 + qm−1 − pn−1qm−1

=

pn−1(1 − qm)

(5,7)

pn−1 + qm−1 − pn−1qm−1 Es interesante tener en cuenta que, por la simetría del problema, la probabilidad de obtener una carrera de M fallas antes de una corrida de N los éxitos serían dados por la ecuación (5,7) con P Y Q intercambiado y N Y M Intercambiar. Por lo tanto, esta probabilidad sería igual P{funcionamiento de M fallas antes de una corrida de N Éxitos} qm−1(1 − pn)

=

(5,8) qm−1 + pn−1 − qm−1pn−1 Puesto que las ecuaciones (5,7) y (5,8) suman a 1, sigue eso, con la probabilidad 1, o un funcionamiento de N éxitos o una carrera de M eventualmente se producirán fallas. Como ejemplo de la ecuación (5,7), observamos que, al lanzar una moneda justa, la probabilidad de que una carrera de 2 cabezas preceda una corrida de 3 colas es cabezas consecutivas antes 4 colas consecutivas, la probabilidad sube a .

. Para 2 .

En nuestro siguiente ejemplo, volvemos al problema coincidente (ejemplo 5m, Chapter 2) y esta vez obtenemos una solución usando probabilidades condicionales. EJEMPLO 5D En una fiesta, N los hombres se quitan el sombrero. Los sombreros se mezclan, y cada hombre selecciona al azar uno. Decimos que una coincidencia ocurre si un hombre selecciona su propio sombrero. ¿Cuál es la probabilidad de (a) ¿no hay cerillas? (b) Exactamente K ¿Partidos?

Sección 3,5

P(·|F ) Es una probabilidad 126

Solución. (a) deje Y denotan el acontecimiento que no ocurren los fósforos, y hacer explícito la dependencia de nEscribir PN = P(E). Empezamos por condicionar si el primer hombre selecciona su propio sombrero — llama a estos eventos M Y McRespectivamente. Entonces PN = P(E) = P(E|M)P(M) + P(E|Mc)P(Mc) Claramente P(E|M) = 0, así N 1 PN = P(E|Mc) − (5,9) n Nwo P(E|Mc) es la probabilidad de que no haya fósforos cuando N − 1 los hombres seleccionan de un sistema de N − 1 sombreros que no contengan el sombrero de uno de estos hombres. Esto puede suceder en cualquiera de dos maneras mutuamente exclusivas: o no hay fósforos y el hombre adicional no selecciona el sombrero adicional (este ser el sombrero del hombre que eligió primero), o no hay fósforos y el hombre adicional selecciona el sombrero adicional. La probabilidad del primero de estos eventos es sólo Pn−1, que se ve con respecto al sombrero extra como "pertenencia" al hombre extra. Porque el segundo evento tiene probabilidad [1/(N − 1)]Pn−2Tenemos

P(E Así, de la ecuación (5,9), PN = −n Pn−1 + n Pn−2 N 1 1 o, equivalentemente, PN (5,10) Sin embargo, desde PN es la probabilidad de que no haya fósforos cuando N los hombres seleccionan entre sus propios sombreros, tenemos P1 = 0

P

Por lo tanto, de la ecuación (5,10), PO

P PO

P y, en general, 1 PN

1 −

= 2!

−···+

+ 3!

− ( 1)n

1 4!

n!

Sección 3,5

P(·|F ) Es una probabilidad 127

(b) para obtener la probabilidad de exactamente K los fósforos, consideramos cualquier grupo fijo de K Hombres. La probabilidad de que ellos, y sólo ellos, seleccionar sus propios sombreros es 1

1

(N − k)!

1

n n − 1 ··· N −K − 1)Pn−K =

n!

Pn−k

otro N − K hombres, la

Donde PN a es la probabilidad condicional de que el selección de entre − sus propios sombreros, no tienen cerillas. Puesto que hay

probabilidad deseada de exactamente K partidos es = 1 − 1 + ··· + (−1−n−k Pn−k

2!

3!

(n

k)!

Opciones de un conjunto de K hombres, los

k!

k!

Un concepto importante en teoría de la probabilidad es el de la independencia condicional de acontecimientos. Decimos que los eventos E1 Y E2 Son condicional independiente Dado F Si, dado que F ocurre, la probabilidad condicional de que E1 se produce no cambia por la información en cuanto a si o no E2 Ocurre. Más formalmente, E1 Y E2 se dice que son condicionalmente independientes dado F Si P(E1|E2F) = P(E1|F)

(5,11)

P(E1E2|F) = P(E1|F)P(E2|F)

(5,12)

o, equivalentemente,

La noción de independencia condicional puede extenderse fácilmente a más de dos eventos, y esta extensión se deja como un ejercicio. El lector debe tener en cuenta que el concepto de independencia condicional se empleó implícitamente en el ejemplo 5A, donde se supuso que los acontecimientos que un asegurado tuvo un accidente en su iTH año, me = 1, 2,..., fueron condicionalmente independientes dado si la persona era o no propenso al accidente. El ejemplo siguiente, referido a veces como regla de la sucesión de Laplace, ilustra más lejos el concepto de la independencia condicional. EJEMPLO 5e Laplace regla de sucesión

Sección 3,5 128

Es una probabilidad

P(·|F )

Hay K + 1 monedas en una caja. Cuando se voltea, el ila moneda va a subir cabezas con probabilidad i/k,me = 0, 1,...,k. UNA moneda se selecciona aleatoriamente de la caja y luego se voltea repetidamente. Si la primera N voltea todos los resultados en los jefes, ¿cuál es la probabilidad condicional de que el (N + 1)¿St Flip hará lo mismo? Solución. Dejar Cme denotar el evento de que el iTH Coin, me = 0, 1,...,k, se selecciona inicialmente; Dejar FN denotar el evento de que el primer N voltea todos los resultados en las cabezas; y que H sea el caso de que el (N + 1)St Flip es una cabeza. La probabilidad deseada, P(H|Fn), se obtiene ahora de la siguiente manera: k

P(H

P(H|FnCi)P(Ci|Fn) i=0

Ahora, dado que el ila moneda se selecciona, es razonable suponer que los resultados serán condicionalmente independientes, con cada uno resultando en una cabeza con probabilidad I/K. Ahí i P(H|FnCi) = P(H|Ci) = k También P(CiFn) P(Ci|Fn) =

P(Fn|Ci)P(Ci)

(i/k)n[1/(K + 1)]

=

= P(Fn)

k

k

(Fn|Cj) j=0

Así k

P(Hfn)i=0 k n

Pero si K es grande, podemos usar las aproximaciones integrales

1 n+1Dx

Kn

= +1 x 2

Sección 3,5 129

Es una probabilidad n

1

Lla n

0

P(·|F )

xnDx +k 1 j=0

k

Así, por K Grande P(H|Fn) L Nn ++ 12

.

EJEMPLO 5F actualizando la información secuencialmente SuPongamos que hay N hipótesis posibles mutuamente excluyentes y exhaustivas, con iniciales (a veces referidos como Antes) probabilidades P 1. ahora, si la información que el evento Y ha ocurrido se recibe, entonces la probabilidad condicional que Hme es la verdadera hipótesis (a veces conocida como la Actualizado O posterior probabilidad de Hi) se P(y Hi)P(Hi) P(Hi|E) =

|

(5,13)

130

SuPongamos que ahora que aprendemos primero que E1 ha ocurrido y luego que E2 ha ocurrido. Entonces, dado sólo la primera pieza de información, la probabilidad condicional de que Hme es la verdadera hipótesis es P(Hi|E1) = P(E1|Hi)P(Hi)

P(E1|Hi)P(Hi) =

Considerando que, dadas ambas informaciones, la probabilidad condicional de que Hme es la verdadera hipótesis es P(Hi|E1E2), que se puede calcular por (

H )P(

i)

P(Hi Hj) Uno podría preguntarse, sin embargo, cuando se puede calcular P(Hi|E1E2) usando el lado derecho de la ecuación (5,13) con Y = E2 y con P(Hj) sustituido por P(Hj|E1), J = 1...,n. Es decir, ¿Cuándo es legítimo considerar P(Hj|E1), J Efectos 1, como las probabilidades anteriores y luego utilizar (5,13) para calcular las probabilidades posteriores? Solución. La respuesta es que lo anterior es legítimo, siempre que, para cada J = 1...,n, los acontecimientos E1 Y E2 son condicionalmente independientes, dado Hj. Pues si este es el caso, entonces P(E1E2|Hj) = P(E2|Hj)P(E1|Hj),

J = 1...,n

Por P(Hi|E1E2) = P(E2|Hi)P(E1|Hi)P(Hi) P(E1E2) = P(E2|Hi)P(E1Hi) P(E1E2) P(E2|HPi)P(H E 1 Ei|E2 1)P(E1) = P(E2|Hi)P(Hi|E1) Q(1, 2) Donde Q al sumar,

. Dado que la ecuación anterior es válida para todos i, obtenemos, n

n

E1 ) (Hi|E

131

Q(1, 2) i=1

i=1

mostrando que n

Q

(Hi|E1)

y dando el resultado ) P(Hi E1) Por ejemplo, suponga que una de las dos monedas es elegida para ser volteada. Dejar Hme sea el acontecimiento que la moneda i, me = 1, 2, se elige, y Supongamos que cuando la moneda me se voltea, aterriza sobre cabezas con probabilidad pi, me = 1, 2. a continuación, las ecuaciones anteriores muestran que, secuencialmente Resumen

actualizar la probabilidad de que la moneda 1 es la que se está volteando, dados los resultados de los flips anteriores, todo lo que debe ser guardado después de cada nueva Flip es la probabilidad condicional de que la moneda 1 es la moneda que se utiliza. Es decir, no es necesario hacer un seguimiento de todos los resultados anteriores. . Resumen Para eventos Y Y F, la probabilidad condicional de Y Dado que F ha ocurrido se denota por P(E|F) y se define por P(Si) P(E|F) = P(F) La identidad P(E1E2 ···En) = P(E1)P(E2|E1)···P(En|E1 ···En−1) se conoce como el regla de multiplicación de probabilidad. UNA identidad valiosa es P(E) = P(E|F)P(F) + P(E|Fc)P(Fc) que se puede utilizar para calcular P(E) por "condicionamiento" en si F Ocurre. P(H)/P(Hc) se llama el Probabilidades del evento H. La identidad

132

P(H||E) = P(H) P(E||H) P(HC E) P(Hc)P(y Hc) muestra que cuando nuevas pruebas Y se obtiene, el valor de las probabilidades de H se convierte en su valor antiguo multiplicado por el cociente de la probabilidad condicional de la nueva evidencia cuando H es fiel a la probabilidad condicional cuando H no es cierto. Dejar Fi, me = 1...,n, ser eventos mutuamente exclusivos cuya unión es todo el espacio de la muestra. La identidad P(E|Fj)P(Fj) P(Fj|E) =

n

P(E|Fi)P(Fi) se conoce como Fórmula de Bayes. Si los eventos Fi, me = 1...,n, son hipótesis que compiten, entonces la fórmula de Bayes muestra cómo calcular las probabilidades condicionales de estas hipótesis cuando hay evidencia adicional Y esté disponible. Si P(Si) = P(E)P(F), entonces decimos que los eventos Y Y F Son Independiente. Esta condición equivale a P(E|F) = P(E) y para P(F|E) = P(F). Así, los eventos Y Y F son independientes si el conocimiento de la ocurrencia de uno de ellos no afecta a la probabilidad del otro. Los eventos E1,...,EN se dice que son independientes si, para cualquier subconjunto Ei1,...,EY de ellos, P(Ei1 ···EY) = P(Ei1)···P(EY) Para un evento fijo F, P(E|F) puede ser considerado como una función de probabilidad en los eventos Y del espacio de la muestra. Problemas 3,1. Dos dados justos se ruedan. ¿Cuál es la probabilidad condicional de que al menos una aterrice en el 6 dado que los dados aterrizan en números diferentes? 3,2. Si se ruedan dos dados justos, ¿cuál es la probabilidad condicional de que el primero aterrice en 6 dado que la suma de los dados es i? Calcular para todos los valores de me entre 2 y 12. 3,3. Utilizar la ecuación (2,1) para calcular, en una mano de puente, la probabilidad condicional de que este tenga 3 picas dado que el norte y el sur tienen un total combinado de 8 picas.

3,4. ¿Cuál es la probabilidad de que al menos uno de un par de dados justos aterrice en el 6, dado que la suma de los dados es i, me = 2, 3,...12? 3,5. Una urna contiene 6 bolas blancas y 9 negras. Si 4 bolas se seleccionan aleatoriamente sin reemplazo, ¿cuál es la probabilidad de que los 2 primeros seleccionados sean blancos y los últimos 2 negros? 3,6. Considere una urna que contenga 12 bolas, de las cuales 8 son blancas. UNA muestra del tamaño 4 debe ser dibujada con el reemplazo (sin el reemplazo). ¿Cuál es la probabilidad condicional (en cada caso) que la primera y las terceras bolas dibujadas serán blancas

133

teniendo en cuenta que la muestra dibujada contiene exactamente 3 bolas blancas? 3,7. El rey proviene de una familia de 2 hijos. ¿Cuál es la probabilidad de que el otro niño sea su hermana? 3,8. UNA pareja tiene 2 hijos. ¿Cuál es la probabilidad de que ambas sean chicas si la mayor de las dos es una chica? 3,9. Considere 3 urnas. Urna Un contiene 2 bolas blancas y 4 rojas, urna B contiene 8 bolas blancas y 4 rojas, y la urna C contiene 1 bolas blancas y 3 rojas. Si se selecciona 1 bola de cada urna, ¿cuál es la probabilidad de que la bola elegida de la urna Un era blanco dado que exactamente 2 bolas blancas fueron seleccionadas? 3,10. Tres cartas son seleccionadas aleatoriamente, sin reemplazo, de una baraja ordinaria de 52 naipes. Calcule la probabilidad condicional que la primera tarjeta seleccionada es una pala dado que la segunda y tercera cartas son picas. 3,11. Dos cartas son escogidas aleatoriamente sin reemplazo de una baraja ordinaria de 52 tarjetas. Dejar B sea el caso de que ambas cartas sean ases, que As ser el caso de que el as de espadas se elige, y dejar que Un sea el caso de que se elija al menos un as. Encontrar un P(B|As) b P(B|A) 3,12. UN graduado reciente de la Universidad está planeando tomar los primeros tres exámenes actuariales en el verano que viene. Ella tomará el primer examen actuarial en junio. Si ella aprueba ese examen, entonces ella tomará el segundo examen en julio, y si ella también lo aprueba, entonces ella tomará el tercer examen en septiembre. Si ella falla un examen, entonces no se le permite para tomar cualquier otro. La probabilidad de que pase el primer examen es. 9. Si ella pasa el primer examen, entonces la probabilidad condicional que ella pasa el segundo es .8, y si ella pasa el primer y los segundos exámenes, entonces la probabilidad condicional que ella pasa el tercer examen es. 7. (a) ¿Cuál es la probabilidad de que pase los tres exámenes? (b) Dado que ella no pasó los tres exámenes, ¿cuál es la probabilidad condicional de que ella falló el segundo examen? 3.13. SuPongamos que una baraja ordinaria de 52 tarjetas (que contiene 4 Ases) se divide al azar en 4 manos de 13 cartas cada una. Estamos interesados en determinar

p, la probabilidad de que cada mano tenga un as. Dejar Eme sea el caso de que el ila mano del th tiene P exactamente un as. Determinar = P(E1E2E3E4) utilizando la regla de multiplicación. 3.14. Una urna contiene inicialmente 5 bolas blancas y 7 negras. Cada vez que una bola es seleccionada, su color es observado y se substituye en la urna junto con 2 otras bolas del mismo color. Calcular la probabilidad de que un las 2 primeras bolas seleccionadas son negras y las 2 siguientes son blancas; b de las primeras 4 bolas seleccionadas, exactamente 2 son negras. 3,15. Un embarazo ectópico es el doble de probabilidades de desarrollarse cuando la mujer embarazada es un fumador como lo es cuando es un no fumador. Si el 32 por ciento de las mujeres en edad fértil son fumadoras, ¿qué porcentaje de mujeres que tienen embarazos ectópicos son fumadores? 3,16. 98 por ciento de todos los bebés sobrevive a la entrega. Sin embargo, el 15 por ciento de todos los nacimientos involucran cesáreas (C), y cuando se realiza una sección C, el bebé sobrevive 96 por ciento del tiempo. Si una mujer embarazada escogida al azar no tiene una sección C, ¿cuál es la probabilidad de que su bebé sobreviva? 3,17. En una comunidad determinada, el 36 por ciento de las familias posee un perro y el 22 por ciento de las familias que poseen un perro también poseen un gato. Además, el 30 por ciento de las familias tienen un gato. Qué es (a) ¿la probabilidad de que una familia seleccionada aleatoriamente sea propietaria de un perro y un gato? (b) ¿la probabilidad condicional de que una familia seleccionada aleatoriamente posea un perro dado que posee un gato? 3,18. UN total de 46 por ciento de los votantes en una cierta ciudad se clasifican como independientes, mientras que el 30 por ciento se clasifican como liberales y el 24 por ciento dicen que son conservadores. En una reciente elección local, el 35 por ciento de los independientes, el 62 por ciento de los liberales, y el 58 por ciento de los conservadores votaron. UN votante es elegido al azar.

Problemas Dado que esta persona votó en las elecciones locales, ¿cuál es la probabilidad de que un ¿un independiente? (b) ¿un liberal? (c) ¿un conservador? (d) ¿Qué fracción de votantes participaron en las elecciones locales? 3,19. UN total de 48 por ciento de las mujeres y 37 por ciento de los hombres que tomaron cierta clase de "dejar de fumar" permanecieron como no fumadores durante al menos un año después de completar la clase. Estas personas asistieron a una fiesta de éxito al final de un año. Si el 62 por ciento de la clase original era varón, (a) ¿Qué porcentaje de los asistentes a la fiesta fueron mujeres? (b) ¿Qué porcentaje de la clase original asistió a la fiesta? 3,20. 52 por ciento de los estudiantes en una universidad determinada son mujeres. Cinco por ciento de los estudiantes en esta universidad están especializando en la informática. El dos por ciento de los estudiantes son mujeres que se especializan en informática. Si un estudiante es seleccionado al azar, encuentre la probabilidad condicional que (a) el estudiante es hembra dado que el estudiante está especializando en informática; (b) este estudiante se especializa en informática, dado que el estudiante es una mujer. 3,21. Se encuestaron un total de 500 parejas de trabajo casadas sobre sus salarios anuales, con la siguiente información resultante:

Esposa

Menos de $25.000 Más de $25.000

Marido Menos de Más que $25.000

$25.000

212

198

36

54

Por ejemplo, en 36 de las parejas, la esposa ganaba más y el marido ganaba menos de $25.000. Si una de las parejas es escogida al azar, (a) ¿la probabilidad de que el marido gane menos de $25.000? (b) ¿la probabilidad condicional de que la esposa gane más de $25.000 dado que el marido gana más que esta cantidad? (c) ¿la probabilidad condicional de que la esposa gane más de $25.000 dado que el marido gana menos que esta cantidad? 3,22. UN dado rojo, un dado azul, y un dado amarillo (los seis echados a un lado) se ruedan. Nos interesa la

134

probabilidad de que el el número que aparece en el dado azul es menor que el que aparece en el dado amarillo, que es menor que el que aparece en el dado rojo. Es decir Con B, YY R denota, respectivamente, el número que aparece en el dado azul, amarillo, y rojo, estamos interesados en P(B < Y < R). (a) ¿Cuál es la probabilidad de que no dos de los dados aterricen en el mismo número? (b) Dado que no dos de los dados aterrizan en el mismo número, ¿cuál es la probabilidad condicional de que B < Y < R? (c) Qué es P(B < Y < R)? 3,23. La urna I contiene 2 bolas blancas y 4 rojas, mientras que la urna II contiene 1 bola blanca y 1 roja. UNA bola se escoge aleatoriamente de la urna I y se coloca en la urna II, y luego se selecciona aleatoriamente una bola de la urna II. Qué es (a) ¿la probabilidad de que la bola seleccionada de la urna II sea blanca? (b) ¿la probabilidad condicional de que la bola transferida era blanca dado que una bola blanca es seleccionada de la urna II? 3,24. Cada una de las 2 bolas se pinta de negro o de oro y luego se coloca en una urna. SuPongamos que cada bola es de color negro con probabilidad y que estos eventos son independientes. (a) Suponga que usted obtiene la información que la pintura del oro se ha utilizado (y así por lo menos una de las bolas es oro pintado). Calcule la probabilidad condicional de que ambas bolas estén pintadas de oro. (b) Suponga ahora que la urna se inclina y 1 bola se cae. Está pintado de oro. ¿Cuál es la probabilidad de que ambas bolas sean doradas en este caso? Explicar. 3.25. Se propuso el siguiente método para estimar el número de personas mayores de 50 años de edad que residen en un pueblo de población conocida 100.000: "al caminar por las calles, mantener una cuenta corriente del porcentaje de personas que se encuentran con más de 50. Hacer esto durante unos días; luego multiplique el porcentaje que obtiene por 100.000 para obtener la estimación ". Comentar sobre este método. Pista: Let P denotan la proporción de personas en la ciudad que son más de 50. Además, deje que α1 denotan la proporción de tiempo que una persona menor de 50 de edad gasta en las calles, y deje que α2 ser el valor correspondiente para aquellos de más de 50. ¿Qué cantidad sugiere el método Estimado? ¿Cuándo es la estimación aproximadamente igual a p?

Problemas 3.26. Suponga que el 5 por ciento de hombres y el .25 por ciento de mujeres son color Blind. UNA persona ciega al color es escogida al azar. ¿Cuál es la probabilidad de que esta persona sea masculina? SuPongamos que hay un número igual de machos y las mujeres. ¿Qué pasa si la población consistía en el doble de machos que mujeres? 3.27. Todos los trabajadores de cierta empresa conducen a trabajar y estacionar en el lote de la compañía. La empresa está interesada en estimar el número promedio de trabajadores en un automóvil. ¿Cuál de los siguientes métodos permitirá a la empresa estimar esta cantidad? Explique su respuesta. 1. Elija aleatoriamente N los trabajadores, averiguar cuántos estaban en los coches en los que fueron impulsados, y tomar el promedio de la N Valores. 2. Elija aleatoriamente N coches en el lote, averiguar cuántos fueron conducidos en esos coches, y tomar el promedio de la N Valores. 3.28. SuPongamos que una baraja ordinaria de 52 cartas es barajada y las cartas se giran una a la vez hasta que aparezca el primer as. Dado que el primer ACE es la vigésima tarjeta para aparecer, ¿cuál es la probabilidad condicional de que la tarjeta que lo sigue es el un ¿Ace of Spades? b ¿dos de tréboles? 3.29. Hay 15 pelotas de tenis en una caja, de las cuales 9 no se han utilizado previamente. Tres de las bolas son escogidas aleatoriamente, jugadas con, y después devueltas a la caja. Más tarde, otras 3 bolas son escogidas aleatoriamente de la caja. Encontrar la probabilidad de que ninguna de estas bolas se ha utilizado nunca. 3.30. Considere dos cajas, una que contenga 1 mármol negro y 1 blanco, los otros 2 de mármol negro y 1 blanco. UNA caja se selecciona al azar, y una canica se extrae de ella al azar. ¿Cuál es la probabilidad de que el mármol sea negro? ¿Cuál es la probabilidad de que la primera caja fuera la seleccionada teniendo en cuenta que el mármol es blanco? 3.31. La Sra. Aquina acaba de hacer una biopsia de un tumor posiblemente canceroso. No querer estropear un evento familiar de fin de semana, ella no quiere oír ninguna mala noticia en los próximos días. Pero si le dice al médico que llame sólo si la noticia es buena, entonces si el médico no llama, la Sra. Aquina puede concluir que la noticia es mala. Por lo tanto, siendo un estudiante de probabilidad, la Sra. Aquina instruye al doctor que voltee una moneda. Si llega a las cabezas, el médico debe llamar si la noticia es buena y no llamar si la noticia es mala. Si la moneda llega hasta las colas,

135

el médico no debe llamar. De esta manera, incluso si el doctor no llama, las noticias no son necesariamente malas. Dejar Un ser la probabilidad de que el tumor sea canceroso; Dejar B ser la probabilidad condicional de que el tumor sea canceroso dado que el médico no llama. (a) Que debería ser más grande, Un O β? (b) Encontrar B en términos de α, y demostrar su respuesta en parte (a). 3,32. UNA familia tiene J niños con probabilidad pjDonde p1 = .1p2 = .25p3 = .35,p4 = .3. un niño de esta familia es elegido al azar. Dado que este niño es el hijo mayor de la familia, encontrar la probabilidad condicional de que la familia tiene un solamente 1 niño; b 4 niños. Rehacer (a) y (b) cuando el niño seleccionado al azar sea el hijo menor de la familia. 3,33. En los días lluviosos, Joe llega tarde a trabajar con probabilidad. 3; en días no lluviosos, él es atrasado con probabilidad. 1. Con probabilidad .7, lloverá mañana. (a) Encontrar la probabilidad de que Joe es temprano mañana. (b) Dado que Joe era temprano, ¿cuál es la probabilidad condicional de que lloviera? 3.34. En el ejemplo 3F, supongamos que la nueva evidencia está sujeta a diferentes interpretaciones posibles y de hecho muestra sólo que es 90 por ciento probable que el delincuente posea la característica en cuestión. En este caso, ¿qué tan probable sería que el sospechoso es culpable (asumiendo, como antes, que él tiene la característica)? 3.35. Con probabilidad .6, el presente fue escondido por mamá; con probabilidad .4, fue escondido por papá. Cuando mamá esconde el regalo, lo esconde arriba 70 por ciento del tiempo y abajo 30 por ciento del tiempo. Papá tiene la misma probabilidad de esconderlo arriba o abajo. (a) ¿Cuál es la probabilidad de que el presente esté arriba? (b) Teniendo en cuenta que está abajo, ¿cuál es la probabilidad de que fue escondido por papá? 3.36. Tiendas A, BY C tienen 50, 75, y 100 empleados, respectivamente, y 50, 60, y el 70 por ciento de ellos, respectivamente, son mujeres. Las renuncias son igualmente probables entre todos los empleados, independientemente del sexo. Una mujer empleada renuncia. ¿Cuál es la probabilidad de que ella trabaja en la tienda C? 3.37. un UN jugador tiene una moneda justa y una moneda de dos cabezas en el bolsillo. Selecciona una de las

Problemas

3.38.

3.39.

3.40.

3.41.

3.42.

3.43.

monedas al azar; cuando lo voltea, muestra cabezas. ¿Cuál es la probabilidad de que sea la moneda justa? (b) Suponga que él voltea la misma moneda por segunda vez y, de nuevo, muestra cabezas. Ahora, ¿cuál es la probabilidad de que sea la moneda justa? (c) Suponga que él voltea la misma moneda por tercera vez y muestra colas. Ahora, ¿cuál es la probabilidad de que sea la moneda justa? Urna Un tiene 5 bolas blancas y 7 negras. Urna B tiene 3 bolas blancas y 12 negras. Volteamos una moneda justa. Si el resultado es la cabeza, entonces una bola de urna Un se selecciona, mientras que si el resultado es Tails, entonces una bola de urna B está seleccionado. Suponga que se selecciona una bola blanca. ¿Cuál es la probabilidad de que la moneda desembarque colas? En el ejemplo 3A, ¿cuál es la probabilidad de que alguien tenga un accidente en el segundo año teniendo en cuenta que no tuvo accidentes en el primer año? Considere una muestra del tamaño 3 dibujado de la siguiente manera: empezamos con una urna que contiene 5 blanco y 7 bolas rojas. En cada etapa, se dibuja una bola y se observa su color. La bola es entonces vuelta a la urna, junto con una bola adicional del mismo color. Encontrar la probabilidad de que la muestra contendrá exactamente un 0 bolas blancas; (b) 1 bola blanca; (c) 3 bolas blancas; De 2 bolas blancas. UNA baraja de cartas es barajada y luego dividida en dos mitades de 26 cartas cada una. UNA tarjeta se extrae de una de las mitades; resulta ser un as. El as entonces se coloca en la segunda mitad-cubierta. La mitad es entonces barajada, y una carta se extrae de ella. Calcule la probabilidad de que esta tarjeta dibujada sea un as. Pista: Condición sobre si se ha seleccionado o no la tarjeta intercambiada. Tres cocineros, A, BY C, cuecen al horno una clase especial de torta, y con las probabilidades respectivas .02, .03, y .05, no puede levantarse. En el restaurante donde trabajan, Un hornea 50 por ciento de estos pasteles, B 30 por ciento, y C 20 por ciento. ¿Qué proporción de "fallas" es causada por A? Hay 3 monedas en una caja. Una es una moneda de dos cabezas, otra es una moneda justa, y la tercera es una moneda sesgada que sube cabezas 75 por ciento del tiempo. Cuando una de las 3 monedas se selecciona al azar y se voltea, se muestra la cabeza. ¿Cuál es la probabilidad de que fuera la moneda de dos cabezas?

136

3.44. Su carcelero informa a tres presos que uno de ellos ha sido elegido al azar para ser ejecutado y los otros dos deben ser liberados. Prisionero Un pide al carcelero que le diga en privado cuál de sus compañeros prisioneros será liberado, alegando que no habría ningún daño en divulgar esta información porque él ya sabe que al menos uno de los dos quedará libre. El carcelero se niega a responder a la pregunta, señalando que si Un sabía que de sus compañeros prisioneros iban a ser liberado, entonces su propia probabilidad de ser ejecutado se elevaría de Para porque entonces sería uno de los dos prisioneros. ¿Qué opinas del razonamiento del carcelero? 3.45. SuPongamos que tenemos 10 monedas de tal manera que si el ila moneda del TH se voltea, las cabezas aparecerán con probabilidad i/10me = 1, 2,...10. Cuando una de las monedas se selecciona aleatoriamente y se voltea, se muestra la cabeza. ¿Cuál es la probabilidad condicional de que fue la quinta moneda? 3.46. En un año dado, un asegurado de automóviles masculino hará una reclamación con probabilidad pM y una mujer el titular de la póliza hará una reclamación con probabilidad pF Donde pF Z pm. La fracción de los asegurados que son varones es α, 0 < A < 1. un tomador de póliza es elegido al azar. Si Ame denota el evento de que este tomador de póliza hará una reclamación en el año i, demuestran que P(A2|A1) > P(A1) Dar una explicación intuitiva de por qué la desigualdad anterior es verdadera. 3.47. Una urna contiene 5 bolas blancas y 10 negras. UN dado justo se rueda y ese número de bolas se elige al azar de la urna. ¿Cuál es la probabilidad de que todas las bolas seleccionadas sean blancas? ¿Cuál es la probabilidad condicional de que el dado aterrizó en 3 si todas las bolas seleccionadas son blancas? 3.48. Cada uno de los 2 gabinetes idénticos en apariencia tiene 2 cajones. Gabinete Un contiene una moneda de plata en cada cajón, y el gabinete B contiene una moneda de plata en uno de sus cajones y una moneda de oro en la otra. Se selecciona un mueble al azar, se abre uno de sus cajones y se encuentra una moneda de plata. ¿Cuál es la probabilidad de que haya una moneda de plata en el otro cajón? 3.49. El cáncer de próstata es el tipo más común de cáncer que se encuentra en los varones. Como un indicador de si un varón tiene cáncer de próstata, los doctores realizan a menudo una prueba que mida el nivel del antígeno prostatespecific (PSA) que es producido

Problemas solamente por la glándula de próstata. Aunque los niveles de PSA son indicativos de cáncer, la prueba es notoriamente poco fiable. De hecho, la probabilidad de que un hombre no canceroso tendrá un nivel elevado de PSA es aproximadamente .135, aumentando a aproximadamente .268 si el hombre tiene cáncer. Si, sobre la base de otros factores, un médico es 70 por ciento seguro que un varón tiene cáncer de próstata, cuál es la probabilidad condicional que él tiene el cáncer dado que un ¿la prueba indicó un nivel elevado del PSA? b ¿la prueba no indicó un nivel elevado del PSA? Repita el cálculo anterior, esta vez asumiendo que el médico inicialmente cree que hay un 30 por ciento de probabilidades de que el hombre tiene cáncer de próstata. 3,50. Suponga que una compañía de seguros clasifica a la gente en una de tres clases: buenos riesgos, riesgos medios y riesgos malos. Los expedientes de la compañía indican que las probabilidades que las personas buenas, medias, y del malo-riesgo estarán implicadas en un accidente sobre un palmo de un año son, respectivamente, .05,. 15, y. 30. Si el 20 por ciento de la población es un buen riesgo, 50 por ciento un riesgo promedio, y 30 por ciento un riesgo malo, ¿qué proporción de personas tienen accidentes en un año fijo? Si el asegurado Un no tuvo accidentes en 1997, ¿cuál es la probabilidad de que él o ella sea un riesgo bueno o medio? 3,51. UN trabajador le ha pedido a su supervisor una carta de recomendación para un nuevo trabajo. Ella estima que hay un 80 por ciento de probabilidades de que ella obtendrá la trabajo si recibe una recomendación fuerte, un 40 por ciento de probabilidades si recibe una recomendación moderadamente buena, y un 10 por ciento de probabilidades si recibe una recomendación débil. Estima además que las probabilidades de que la recomendación sea fuerte, moderada y débil son .7, .2 y. 1, respectivamente. (a) ¿Está seguro de que recibirá la nueva oferta de empleo? (b) Dado que ella recibe la oferta, ¿qué probabilidades tiene de que ella sienta que ha recibido una recomendación fuerte? ¿una recomendación moderada? ¿una recomendación débil? (c) Dado que no recibe la oferta de empleo, ¿qué probabilidades tiene de que ella sienta que ha recibido una recomendación fuerte? ¿una recomendación moderada? ¿una recomendación débil?

137

3,52. UN estudiante de secundaria está esperando ansiosamente recibir correo diciéndole si ella ha sido aceptada en cierta Universidad. Estima que las probabilidades condicionales de recibir la notificación en cada día de la semana que viene, dado que es aceptada y que es rechazada, son las siguientes: ) Día

P(Correo|Aceptado) P(Correo|Rechazado

Lunes

.15

.05

Martes Miércoles Jueves Viernes

.20 .25 .15 .10

.10 .10 .15 .20

Estima que su probabilidad de ser aceptada es. 6. (a) ¿Cuál es la probabilidad de que reciba el correo el lunes? (b) ¿Cuál es la probabilidad condicional de que ella recibió el correo el martes, dado que ella no recibe el correo el lunes? (c) Si no hay correo hasta el miércoles, ¿cuál es la probabilidad condicional de que será aceptada? (d) ¿Cuál es la probabilidad condicional de que será aceptada si el correo viene el jueves? (e) ¿Cuál es la probabilidad condicional de que sea aceptada si no llega el correo esa semana? 3.53. UN sistema paralelo funciona siempre que al menos uno de sus componentes funcione. Consideremos un sistema paralelo de N componentes, y suponga que cada componente trabaja independientemente con probabilidad . Encontrar el condicional probabilidad de que el componente 1 funcione dado que el sistema está funcionando. 3.54. Si tuvieras que construir un modelo matemático para eventos Y Y F, como se describe en las partes (a) a través de (e), ¿supones que son eventos independientes? Explique su razonamiento. (a) Y es el evento que una empresaria tiene ojos azules, y F es el evento que su secretaria tiene ojos azules. (b) Y es el caso de que un profesor tiene un coche, y F es el evento que aparece en la guía telefónica. (c) Y es el caso de que un hombre es menor de 6 pies de alto, y F es el caso de que pesa más de 200 libras. (d) Y es el acontecimiento que una mujer vive en los Estados Unidos, y F es el acontecimiento que ella vive en el hemisferio occidental.

Problemas

3.55.

3.56.

3.57.

3,58.

(e) Y es el evento que va a llover mañana, y F es el evento que lloverá pasado mañana. En una clase, hay 4 estudiantes de primer año, 6 niñas de primer año y 6 niños de segundo. ¿Cuántas niñas de segundo año deben estar presentes si el sexo y la clase son independientes cuando un estudiante es seleccionado al azar? Suponga que usted recoge continuamente cupones y que hay M diferentes tipos. Suponga también que cada vez que se obtiene un nuevo cupón, es un tipo me cupón con probabilidad pi,me = 1...,m. Suponga que acaba de recoger su ncupón de TH. ¿Cuál es la probabilidad de que se trata de un nuevo tipo? Pista: Condición en el tipo de este cupón. UN modelo simplificado para el movimiento del precio de una acción supone que en cada día el precio de la acción o sube 1 unidad con probabilidad P o se mueve hacia abajo 1 unidad con probabilidad 1 − p. Se supone que los cambios en días diferentes son independientes. (a) ¿Cuál es la probabilidad de que después de 2 días la acción será a su precio original? (b) ¿Cuál es la probabilidad de que después de 3 días el precio de la acción habrá aumentado en 1 unidad? (c) Teniendo en cuenta que después de 3 días el precio de la acción ha aumentado en 1 unidad, ¿cuál es la probabilidad de que subió en el primer día? SuPongamos que queremos generar el resultado de la FLIP de una moneda justa, pero que todo lo que tenemos a nuestra disposición es una moneda sesgada que aterriza sobre cabezas con cierta probabilidad desconocida P que no necesitan ser iguales a . Considere el siguiente procedimiento para cumplir con nuestra tarea: 1. Voltea la moneda. 2. Voltea la moneda otra vez. 3. Si ambos voltean la tierra sobre las cabezas o ambas tierras en las colas, vuelva al paso 1. 4. Que el resultado de la última vuelta sea el resultado del experimento.

138

Problemas (a) Demostrar que el resultado es igualmente probable que sea cara o Cruz. (b) ¿Podríamos utilizar un procedimiento más sencillo que sigue volteando la moneda hasta que las dos últimas volteretas son diferentes y luego deja que el resultado sea el resultado de la vuelta final? 3,59. Flips independientes de una moneda que aterriza en las cabezas con probabilidad P se hacen. ¿Cuál es la probabilidad de que los cuatro primeros resultados sean (a) H, H, H, H? (b) T, H, H, H? (c) ¿Cuál es la probabilidad de que el patrón T, H, H, H ocurre antes de que el patrón H, H, H, H? Sugerencia para la parte (c): ¿Cómo puede el patrón H, H, H, H ocurrir primero? 3,60. El color de los ojos de una persona está determinado por un solo par de genes. Si ambos son genes de ojos azules, entonces la persona tendrá ojos azules; Si ambos son genes de ojos marrones, entonces la persona tendrá ojos marrones; y si uno de ellos es un gen de ojos azules y el otro un gen de ojos marrones, entonces la persona tendrá ojos marrones. (Debido a este último hecho, decimos que el gen de ojos marrones es Dominante sobre la de ojos azules.) UN niño recién nacido recibe de forma independiente un gen ocular de cada uno de sus progenitores, y el gen que recibe de un progenitor es igualmente probable que sea cualquiera de los dos genes oculares de ese progenitor. SuPongamos que Smith y sus dos padres tienen ojos marrones, pero la hermana de Smith tiene ojos azules. (a) ¿Cuál es la probabilidad de que Smith posea un gen de ojos azules? (b) Supón que la esposa de Smith tiene ojos azules. ¿Cuál es la probabilidad de que su primer hijo tenga ojos azules? (c) Si su primer hijo tiene ojos marrones, ¿cuál es la probabilidad de que su próximo hijo también tenga ojos marrones? 3,61. Los genes relacionados con el albinismo se denotan Un Y a. Sólo las personas que reciben la Un gene de ambos padres será Albino. Las personas que tienen el par de genes A, Un son normales en apariencia y, debido a que pueden transmitir el rasgo a su descendencia, se llaman portadores. SuPongamos que una pareja normal tiene dos hijos, exactamente uno de los cuales es un albino. Suponga que el niño no Albino se aparea con una persona que se sabe que es portadora de albinismo.

139

(a) ¿Cuál es la probabilidad de que su primera descendencia sea un albino? (b) ¿Cuál es la probabilidad condicional de que su segunda descendencia sea un albino dado que su primogénito no lo es? 3,62. Barbara y Dianne van a tiro al blanco. SuPongamos que cada uno de los disparos de Barbara golpea un blanco de pato de madera con Probabilidad p1, mientras que cada toma de Dianne lo golpea con probabilidad p2. SuPongamos que disparan simultáneamente en el mismo objetivo. Si el pato de madera es derribado (lo que indica que fue golpeado), ¿cuál es la probabilidad de que un ¿ambos tiros golpearon al pato? b ¿El disparo de Barbara golpeó al pato? ¿Qué supuestos de independencia has hecho? 3,63. Un Y B están involucrados en un duelo. Las reglas del duelo son que deben recoger sus armas y disparar el uno al otro simultáneamente. Si uno o ambos son golpeados, entonces el duelo ha terminado. Si ambos tiros fallan, entonces ellos repiten el proceso. SuPongamos que los resultados de los disparos son independientes y que cada toma de Un va a golpear B con probabilidad pA, y cada toma de B va a golpear Un con probabilidad pB. Qué es un la probabilidad de que Un ¿no está golpeado? (b) ¿la probabilidad de que ambos duelistas sean golpeados? (c) la probabilidad de que el duelo termine después de la n¿la ronda de tiros? (d) la probabilidad condicional de que el duelo termine después de la nTH ronda de disparos teniendo en cuenta que Un ¿no está golpeado? (e) la probabilidad condicional de que el duelo termine después de la nronda de disparos dado que ambos duelistas son golpeados? 3,64. UNA pregunta verdadera-falsa debe ser planteada a un equipo de la marido-esposa en una demostración del concurso. Tanto el marido como la esposa darán de forma independiente la respuesta correcta con probabilidad p. ¿Cuál de las siguientes es una mejor estrategia para la pareja? (a) Escoge uno de ellos y deja que esa persona responda a la pregunta. (b) Haga que ambos consideren la pregunta, y luego den la respuesta común si están de acuerdo o, si no están de acuerdo, voltear una moneda para determinar qué respuesta dar. 3.65. En el problema 3,5, si P = .6 y la pareja utiliza la estrategia en parte (b), ¿cuál es la probabilidad condicional de que la pareja dé la respuesta correcta teniendo en cuenta que el esposo y la esposa (a) están de acuerdo? (b) ¿discrepar?

Problemas 3.66. La probabilidad del cierre de la iel relé del TH en los circuitos mostrados en la figura 3,4 se da por pi,me = 1, 2, 3, 4, 5. Si todos los relés funcionan de forma independiente, ¿cuál es la probabilidad de que una corriente fluya entre Un Y B para los circuitos respectivos? Sugerencia para (b): Condición en si el Relais 3 se cierra. 3.67. Un sistema de ingeniería compuesto por N componentes se dice que es un k-fuera deN Sistema (K ... n) Si el sistema funciona si y sólo si al menos K Dela N función de los componentes. Suponga que todos los componentes funcionan independientemente el uno del otro. (a) Si el ifunciones del componente TH con

140

Xx tendrá ojos marrones, mientras que uno que tiene par de genes Xx tendrá ojos azules. El aspecto característico de un organismo se llama su fenotipo, mientras que su constitución genética se llama su genotipo. (Así, 2 organismos con genotipos respectivos aA, bB, CC, dD, EE Y AA, BB, CC, DD, EE tendría diferentes genotipos pero el mismo fenotipo.) En un apareamiento entre 2 organismos, cada uno contribuye, al azar, uno de sus pares de genes de cada tipo. Se supone que las 5 contribuciones de un organismo (uno de cada uno de los 5 tipos) son independientes y también son independientes de las contribuciones del compañero del organismo. En un apareamiento entre los organismos que tienen genotipos aA, bB, cC, dD, eE Y AA, bB, CC, DD, EE ¿Cuál es la probabilidad de que la progenie (i) fenotípicamente y (II) genotípicamente Parecen (a) ¿el primer padre?

probabilidad Pi,me = 1, 2, 3, 4, calculan la probabilidad de que un sistema de 2-out-of-4 funciona.

( a) 1

2

A

5 3

B

4

( b) 1

4 3

A 2

B 5

Figura 3,4: Circuitos para el problema 3,66

(b) Repita la parte (a) para un sistema de 3-out-of-5. (c) Repita para un k-fuera deN sistema cuando todos los Pme Igual P (esto es, Pme = p,me = 1, 2,...,n). 3.68. En el problema 3.65 a, busque la probabilidad condicional de que los relés 1 y 2 estén cerrados, dado que una corriente fluye desde Un Para B. 3.69. UN determinado organismo posee un par de cada uno de 5 genes diferentes (que designaremos por las primeras 5 Letras del alfabeto inglés). Cada gen aparece en 2 formas (que designamos por minúsculas y mayúsculas). Se asumirá que la letra mayúscula es el gen dominante, en el sentido de que si un organismo posee el par de genes Xx, entonces exteriormente tendrá la apariencia de la X Gene. Por ejemplo, si X significa ojos marrones y X para los ojos azules, entonces un individuo que tiene ambos gene pair Xx O

(b) ¿el segundo padre? (c) ¿padre o madre? (d) ¿ninguno de los padres? 3.70. Hay 50 – 50 probabilidades de que la reina lleve el gen para la hemofilia. Si ella es portadora, entonces cada príncipe tiene 50 – 50 probabilidades de tener hemofilia. Si la Reina ha tenido tres príncipes sin la enfermedad, ¿cuál es la probabilidad de que la reina sea portadora? Si hay un cuarto Príncipe, ¿cuál es la probabilidad de que tenga hemofilia? 3.71. En la mañana del 30 de septiembre de 1982, los récords ganados-perdidos de los tres principales equipos de béisbol en la división occidental de la Liga nacional fueron los siguientes: Equipo Ganó Perdido

Problemas Atlanta Braves

87

72

Gigantes de San Francisco Los Angeles Dodgers

86 86

73 73

Cada equipo tenía 3 juegos restantes. Los 3 juegos de los gigantes fueron con los Dodgers, y los 3 juegos restantes de los Bravos fueron contra los padres de San Diego. Suponga que los resultados de todos los juegos restantes son independientes y cada juego es igualmente probable que sea ganado por cualquiera de los participantes. Para cada equipo, ¿cuál es la probabilidad de que gane el título de la división? Si dos equipos empatan en el primer lugar, tienen un juego de playoffs, que cada equipo tiene la misma oportunidad de ganar. 3.72. UN concejo municipal de 7 miembros contiene un Comité Directivo de la talla 3. Las nuevas ideas para la legislación van primero al Comité de dirección y después al Consejo como un todo si al menos 2 de los 3 miembros del Comité aprueban la legislación. Una vez en el pleno del Consejo, la legislación requiere un voto mayoritario

141

(de al menos 4) para pasar. Considere una nueva pieza legislativa, y suponga que cada miembro del Concejo Municipal lo aprobará, independientemente, con probabilidad p. ¿Cuál es la probabilidad de que el voto de un miembro del Comité de dirección sea decisivo en el sentido de que si se invierte el voto de esa persona, entonces el destino final de la legislación se revertiría? ¿Cuál es la probabilidad correspondiente para un determinado miembro del Consejo que no pertenece al Comité Directivo? 3.73. Suponga que cada niño nacido de una pareja es igualmente probable que sea un niño o una niña, independientemente de la distribución sexual de los otros niños en la familia. Para una pareja que tiene 5 hijos, calcule las probabilidades de los siguientes eventos: (a) Todos los niños son del mismo sexo. (b) Los tres mayores son chicos y las otras chicas. (c) Exactamente 3 son chicos. (d) Las dos mayores son chicas. (e) Hay al menos 1 chica. 3.74. Un Y B alternar rodar un par de dados, deteniéndose ya sea cuando Un rueda la suma 9 o cuando B rueda la suma 6. Asumiendo que Un primero, encuentra la probabilidad de que el rollo final sea hecho por A. 3.75. En un pueblo determinado, es tradicional para el hijo mayor (o el hijo mayor en una familia de dos hijos) y su esposa para ser responsable de cuidar de sus padres a medida que envejecen. En los últimos años, sin embargo, las mujeres de este pueblo, no queriendo esa responsabilidad, no han mirado favorablemente al casarse con un hijo mayor. (a) Si cada familia en el pueblo tiene dos hijos, ¿qué proporción de todos los hijos son hijos mayores? (b) Si cada familia en el pueblo tiene tres hijos, ¿qué proporción de todos los hijos son hijos mayores? SuPongamos que cada niño es, independientemente, igualmente probable que sea un niño o una niña. 3.76. Suponga que Y Y F son eventos mutuamente exclusivos de un experimento. Muestran que si se realizan ensayos independientes de este experimento, Y ocurrirá antes F con probabilidad P(E)/[P(E) + P(F)]. 3.77. Considere una secuencia interminable de ensayos independientes, donde cada ensayo es igualmente probable que resulte en cualquiera de los resultados 1, 2 o 3. Dado que el resultado 3 es el último de los tres resultados que se producen, probabilidad condicional de que un el primer ensayo resulta en el resultado 1; b los dos primeros ensayos resultaron en el resultado 1. 3,78. Un Y B juega una serie de juegos. Cada juego se gana independientemente por Un con probabilidad P y por B con probabilidad 1 − p. Se detienen cuando el número total de victorias de uno de los jugadores es dos mayores que el del otro jugador. El jugador con mayor número de victorias totales es declarado ganador de la serie. (a) Encuentra la probabilidad de que se reproduzca un total de 4 juegos. (b) Encuentra la probabilidad de que A sea el ganador de la serie. 3.79. En sucesivos rollos de un par de dados justos, ¿cuál es la probabilidad de obtener 2 sietes antes de 6 números pares? 3.80. En un determinado concurso, los jugadores son de igual habilidad y la probabilidad es que uno especificado de los dos concursantes será el vencedor. En un grupo de 2 N jugadores, los jugadores son emparejados entre sí al azar. Los 2n−1 los ganadores son emparejados otra vez apagado aleatoriamente, y así sucesivamente, hasta que un solo ganador permanezca. Considere dos concursantes especificados, Un Y B, y definir los eventos Ai,me ... n,Y Por Ame :Un Juega en exactamente me Concursos: E:

Un Y B nunca jueguen entre sí.

(a) Encontrar P(Ai),me = 1..., n. (b) Encontrar P(E). (c) Dejar PN = P(E). Demuestran que

PN = 2n

1 + Pn−1

2

2

1

y utilice esta fórmula para comprobar la respuesta obtenida en la parte (b).

143 Pista: Encontrar P(E) por condicionamiento en cuál de los acontecimientos Ai,me = 1...,N Ocurrir. En la simplificación de su respuesta, utilice la identidad algebraica n−1 Ixi

xn

i=1

Para otro enfoque para resolver este problema, tenga en cuenta que hay un total de 2 N − 1 juegos jugados. (d) Explique por qué 2N − se juegan 1 juegos. Número de estos juegos, y dejar que Bme denotar el evento que Un Y B jugar uno al otro en el juego i,me = 1..., a 2N − 1. (e) Qué es P(Bi)? (f) Utilice la parte (e) para encontrar P(E). 3.81. Un inversor posee acciones en un stock cuyo valor actual es 25. Ella ha decidido que debe vender su stock Si va o bien hasta 10 o hasta 40. Si cada cambio de precio es cualquiera arriba 1 punto con probabilidad. 55 o abajo 1 punto con probabilidad. 45, y los cambios sucesivos son independientes, ¿cuál es la probabilidad de que el inversor se jubile de un ganador? 3.82. Un Y B voltear monedas. Un comienza y continúa volteando hasta que se produce una cola, en cuyo momento B comienza a voltear y continúa hasta que haya una cola. Entonces Un Toma más, y así sucesivamente. Dejar P1 ser la probabilidad del aterrizaje de la moneda en las cabezas cuando Un voltea y P2 Cuando B Voltea. El ganador del juego es el primero para obtener (a) 2 cabezas seguidas; (b) un total de 2 cabezas; (c) 3 cabezas seguidas; (d) un total de 3 cabezas. En cada caso, encontrar la probabilidad de que Un Gana. 3,83. Lla Un tiene 4 caras rojas y 2 blancas, mientras que mueren B tiene 2 caras rojas y 4 blancas. UNA moneda justa se voltea una vez. Si aterriza en la cabeza, el juego continúa con Die A; Si aterriza en colas, entonces muere B se utilizará. (a) Demostrar que la probabilidad de rojo en cualquier tiro es . (b) Si los dos primeros tiros resultan en rojo, ¿cuál es la probabilidad de rojo en el tercer tiro? (c) Si el rojo aparece en los dos primeros tiros, ¿cuál es la probabilidad de que se muera Un que se está utilizando? 3.84. Una urna contiene 12 bolas, de las cuales 4 son blancas. Tres jugadores:A, BY C— sucesivamente sacar de la urna, Un primero, entonces BEntonces CEntonces A, y así sucesivamente. El ganador es el primero en dibujar una bola blanca. Encontrar la probabilidad de ganar por cada jugador si un cada bola se substituye después de que se dibuje; b las bolas que se retiran no se sustituyen. 3.85. Repita el problema 3,84 cuando cada uno de los 3 jugadores seleccione de su propia urna. Esto es, supongamos que hay 3 urnas diferentes de 12 bolas con 4 bolas blancas en cada urna. 3.86. Dejar S = {1, 2,...,n} y Supongamos que Un Y B son, independientemente, igualmente probable que sea cualquiera de los 2N subconjuntos (incluido el conjunto nulo y S sí mismo) de S. un Demuestran que 3 n P Pista: Let N(B) indicar el número de elementos en B. Uso n

P i=0

Demuestran que P

.

P{Un ( B|N(B) = i}P{N(B) = i}

144 3.87. En el ejemplo 5e, ¿cuál es la probabilidad condicional de que el ila moneda fue seleccionada dado que la primera N ¿todos los juicios resultan en cabezas? 3.88. En la regla de la sucesión de Laplace (ejemplo 5e), ¿los resultados de las volteretas sucesivas son independientes? Explicar. 3.89. UNA persona juzgada por un grupo de 3 jueces es declarada culpable si al menos 2 magistrados votan por los culpables. Suponga que cuando el demandado es de hecho culpable, cada juez votará independientemente culpable con la probabilidad .7, mientras que cuando el acusado es de hecho inocente, esta probabilidad cae a. 2. Si el 70 por ciento de los acusados son culpables, calcule la probabilidad condicional de que el juez número 3 vote culpable dado que un los jueces 1 y 2 votan culpable; (b) los jueces 1 y 2 han emitido 1 culpable y 1 voto no culpable; (c) los jueces 1 y 2 arrojan votos no culpables. Dejar Ei,me = 1, 2, 3 denotan el acontecimiento que el juez me lanza un voto de culpabilidad. Son estos eventos independientes. ¿Son condicionalmente independientes? Explicar. 3,90. Suponga que N ensayos independientes, cada uno de los cuales da como resultado cualquiera de los resultados 0, 1 o 2, con las probabilidades respectivas p0,p1Y P 1, se realizan. Encontrar la probabilidad de que los resultados 1 y 2 se produzcan al menos una vez. Para ello, multiplicar las sumas y mostrar que, para todos los pares i, j, el coeficiente del término ninJ es mayor en la expresión de la izquierda que en la de la derecha. 3,4. UNA pelota está en cualquiera de N cajas y se encuentra en el icaja TH con probabilidad Pi. Si la bola está en la caja i, una búsqueda de esa caja lo descubrirá con probabilidad α i. Mostrar que la probabilidad condicional de que la bola está

EJERCICIOS TEÓRICOs

3,1. Demostrar que si P(A) > 0, entonces P(Apagado|A) de la P(Apagado|Un ∪ B)

1. Elija uno de los M familias al azar y luego elegir al azar a un niño de esa familia. k

2. Elija uno de simplemente como sea posible: P(A|B),

c

P(A|B ),

P(B|A),

Mostrar que el método 1 es más probable que el método 2 para dar lugar a la elección de un hijo primogénito. Pista: En la solución de este problema, usted tendrá que demostrar que

c

P(B|A )

3,3. Considere una comunidad escolar de M familias, con ni k

Dejar Un ( B. Exprese las de ellos que tienen me

losEnme niños al azar. 3,2.

probabilidades siguientes como Niños i. k

k

k

k

nj Efectos

Considere los siguientes dos métodos para elegir un niño: en la caja j, dado que una búsqueda de caja me no descubrió Lo es Pj

i=1

j=1 j

Si J Z i 1 − AiPi (1 − Ai)Pi

= Si j

me 1 − AiPi

3,5. Un evento F se dice que llevar información negativa sobre un evento E, y escribimos F R ESi

i=1

nj j=1

145 P(E|F) ... P(E) Probar o dar contraejemplos a las siguientes afirmaciones: (a) Si F R EEntonces Y R F. (b) Si F R Y Y Y R GEntonces F R G. (c) Si F R Y Y G R EEntonces Fg R E. Repita las partes (a), (b) y (c) cuando R se sustituye por Q, donde decimos que F información positiva sobre la EEscrito F Q ECuando P(E|F) de la P(E). 3,6. Demostrar que si E1,E2,...,EN son eventos independientes, n

P

P(Ei)]

i=1

3,7. (a) Una urna contiene N blanco y M bolas negras. Las bolas se retiran una a la vez hasta que sólo las del mismo color se quedan. Demostrar que, con probabilidad n/(N + m), son todos blancos. Pista: Imagine que el experimento continúa hasta que se quiten todas las bolas, y considere la última bola retirada. b UN estanque contiene 3 especies distintas de peces, que llamaremos el pescado rojo, azul y verde. Hay R Rojo B Azul, y G Pescado verde. SuPongamos que los peces son removidos del estanque en orden aleatorio. (Es así, cada selección es igualmente probable que sea cualquiera de los peces restantes.) ¿Cuál es la probabilidad de que el pez rojo sea la primera especie en extinguirse en el estanque? Pista: Escriba P{R} = P{Rbg} + P{Rgb}, y calcule las probabilidades a la derecha por el primer condicionamiento en la última especie que se quitará. Ejercicios teóricos 3,8. Dejar A,BY C ser eventos relacionados con el experimento de rodar un par de dados. un Si P(A|C) > P(B|C)

Y

P(A|Cc) > P(B|Cc)

o bien demostrar que P(A) > P(B) o dar un contraejemplo definiendo eventos A,BY C para lo cual esa relación no es verdadera. b Si P(A|C) > P(A|Cc)

Y

P(B|C) > P(B|Cc)

o bien demostrar que P(Apagado|C) > P(Apagado|Cc) o dar un contraejemplo definiendo eventos A,BY C para lo cual esa relación no es verdadera. Pista: Let C ser el caso de que la suma de un par de dados sea 10; Dejar Un sea el acontecimiento que el primer dado aterrice en 6; Dejar B sea el acontecimiento que el segundo dado aterrice en 6. 3,9. Considere dos tiros independientes de una moneda justa. Dejar Un ser el caso de que el primer lanzamiento de los resultados en los jefes, que B ser el caso de que el segundo lanzamiento de los resultados en los jefes, y dejar que C sea el acontecimiento que en ambos lance la moneda aterriza en el mismo lado. Mostrar que los eventos A, BY C son Pairwise independientes, es decir, Un Y B son independientes, Un Y C son independientes, y B Y C son independientes, pero no independientes. 3,10. Considere una colección de N Individuos. Asuma que el cumpleaños de cada persona es igualmente probable que sea cualquiera de los 365 días del año y también que los cumpleaños son independientes. Dejar Ai,j, me Z j, denotan el acontecimiento que las personas me Y J tienen el mismo cumpleaños. DeMuestre que estos eventos son Pairwise independientes, pero no independientes. Esto es, mostrar que Ai,J Y Ar,s son independientes, pero la Eventos Ai,j,me Z J no son independientes. 3,11. En cada uno de N lanzas independientes de una moneda, la moneda aterriza en cabezas con probabilidad p. Lo grande que necesita N para que la probabilidad de obtener al menos una cabeza sea ? 3,12. Mostrar que 0 ... ame …1me = 1, 2,...Entonces

146 Q ⎡ i−1

⎤q a i) = 1

Pista: Suponga que un número infinito de monedas debe ser volteado. Dejar ame ser la probabilidad de que el ila moneda aterriza en las cabezas, y considerar cuando la primera cabeza ocurre. 3,13. La probabilidad de tener una cabeza en un solo lanzamiento de una moneda es p. Suponga que Un comienza y sigue dando la vuelta a la moneda hasta que aparece una cola, en cuyo momento B empieza a voltear. Entonces B sigue girando hasta que una cola sube, en cuyo momento Un toma el recargo, y así sucesivamente. Dejar Pn,M denota la probabilidad de que Un acumula un total de N cabezas antes B Acumula m. Demuestran que Pn,M = Ppn−1M + (1 − p)(1 − Pm,n) ∗3,14.

Suponga que usted está apostando contra un adversario infinitamente rico y en cada etapa usted gana o pierde 1 unidad con probabilidades respectivas P y 1 − p. Demostrar que la probabilidad de que finalmente se quiebra es 1

Si P ... (q/p)me Si P >

Donde Q = 1 − P y donde me es su fortuna inicial. 3,15. Ensayos independientes que dan lugar a un éxito con probabilidad P se realizan sucesivamente hasta un total de R se obtienen éxitos. Demostrar que la probabilidad de que exactamente N se requieren ensayos r

Utilice este resultado para resolver el problema de los puntos (ejemplo 4J). Pista: Para que tome N ensayos para obtener R éxitos, cuántos éxitos deben ocurrir en la primera N − 1 ensayos? 3,16. Ensayos independientes que dan lugar a un éxito con probabilidad P y un fracaso con probabilidad 1 − P se llaman Ensayos de Bernoulli. Dejar PN denota la probabilidad de que N Los ensayos de Bernoulli dan lugar a un número par de éxitos (0 siendo considerados un número par). Demuestran que PN = p(1 − Pn−1) + (1 − p)Pn−1

N Efectos 1

y usar esta fórmula para probar (por inducción) que 1 + (1 − 2p)N PN = 2 3,17. Suponga que N se realizan ensayos independientes, con pruebas me ser un éxito con probabilidad 1/(2me + 1). Dejar PN denota la probabilidad de que el número total de éxitos que resultan sea un número impar. (a) Encontrar PN Para N = 1, 2, 3, 4, 5. (b) Conjetura una fórmula general para Pn. (c) Derivar una fórmula para PN en términos de Pn−1. (d) Verifique que su conjetura en parte (b) satisfaga la fórmula recursiva en la parte (d). Debido a que la fórmula recursiva tiene una solución única, esto demuestra entonces que su conjetura es correcta. 3.18. Dejar QN denota la probabilidad de que no se ejecuten 3 cabezas consecutivas en N tiros de una moneda justa. Demuestran que QN Q0 = Q1 = Q2 = 1

147 Encontrar Q8. Pista: Condición en la primera cola. 3.19. Considerar el problema de la ruina del jugador, con la excepción de que Un Y B aceptar no jugar más de N Juegos. Dejar Pn,me denota la probabilidad de que Un termina con todo el dinero cuando Un comienza con me Y B comienza con N − i. Derivar una ecuación para Pn,me en términos de Pn−1, i+1 Y Pn−1, i−1, y calcular P7, 3, N = 5. 3.20. Considere dos urnas, cada una de las cuales contiene bolas blancas y negras. Las probabilidades de dibujar bolas blancas de la primera y segunda urnas son, respectivamente, P Y p. Las bolas se seleccionan secuencialmente con el reemplazo como sigue: con probabilidad α, una bola se escoge inicialmente de la primera urna, y con la probabilidad 1 − A, se escoge de la segunda urna. Las selecciones subsecuentes se hacen entonces según la regla que siempre que una bola blanca sea dibujada (y substituida), la bola siguiente se dibuja de la misma urna, pero cuando se dibuja una bola negra, la bola siguiente se toma de la otra urna. Dejar αN denota la probabilidad de que el nla bola del TH es elegida de la primera urna. Demuestran que P N Efectos 1 y usar esta fórmula para probar que

Dejar PN denota la probabilidad de que el nla bola seleccionada es blanca. Encontrar Pn. También, Compute Limn→Q αN y Limn→Q Pn. 3.21. El problema de las papeletas. En una elección, el candidato Un Recibe N votos y candidato B Recibe M votos, donde N > m. Asumiendo que todos los (N + m)!/n! m! los pedidos de los votos son igualmente probables, que Pn,M denota la probabilidad de que Un siempre está por delante en el conteo de los votos. (a) Calcular P2, 1,P3, 1,P3, a 2,P4, 1,P4, a 2,P4, a 3. (b) Encontrar Pn, 1,Pn, a 2. (c) Sobre la base de sus resultados en las partes (a) y (b), conjeturar el valor de Pn,m. (d) Derivar una recursividad para Pn,M en términos de Pn−1,M Y Pn,m−1 por condicionamiento en quién recibe la última votación. (e) Utilice la parte (d) para verificar su conjetura en parte (c) por una prueba de inducción en N + m. 3.22. Como un modelo simplificado para la previsión meteorológica, supongamos que el tiempo (ya sea mojado o seco) mañana será el mismo que el tiempo hoy con probabilidad p. Muestran que el clima es seco el 1 de enero, entonces Pn, la probabilidad de que se seque N días más tarde, satisface PN = (2P − 1)Pn−1 + (1 − p)

N Efectos 1

P0 = 1 Demostrar que Pn

n

N Efectos 0

3.23. UNA bolsa contiene Un blanco y B bolas negras. Las bolas se eligen del bolso según el método siguiente: 1. UNA pelota es escogida al azar y es descartada. 2. Luego se escoge una segunda bola. Si su color isdifferent de la bola anterior, se sustituye en la bolsa y el proceso se repite desde el principio. Si su color es el mismo, se descarta y comenzamos desde el paso 2. En otras palabras, las bolas son muestreadas y descartadas hasta que se produce un cambio de color, momento en el que la última bola es devuelta a la urna y el proceso comienza de nuevo. Dejar Pa,B denota la probabilidad de que la última bola en la bolsa es blanca. Demostrar que

148 Pa,b Pista: Utilice la inducción en K K Un + b.

∗3,24.

UN torneo Round-Robin de N concursantes es un torneo en el que cada uno de los los pares de concursantes juegan uno al otro exactamente una vez, con el resultado de cualquier juego siendo que uno de los concursantes gana y el otro pierde. Para un entero fijo k, K < n, una cuestión de interés es si es posible que el resultado del torneo sea tal que, por cada conjunto de K jugadores, hay un jugador que venció a cada miembro de ese conjunto. Demostrar que si n−k

<1 entonces tal resultado es posible. Pista: Suponga que los resultados de los juegos son independientes y que cada juego es igualmente probable Ejercicios teóricos

ser ganado por cualquiera de los concursantes. Número de la conjuntos de K concursantes, y que Bme denotar el evento de que ningún participante venció a todos los K jugadores en el iTH set. A continuación, utilice la desigualdad de Boole para enlazar P . 3,25. Demostrar directamente que P(E|F) = P(E|Fg)P(G|F) + P(E|Fgc)P(Gc|F) 3,26. Probar la equivalencia de ecuaciones (5,11) y (5,12). 3,27. Amplíe la definición de independencia condicional a más de 2 eventos. 3,28. Probar o dar un contraejemplo. Si E1 Y E2 son independientes, entonces son condicional independiente dado F. 3,29. En la regla de sucesión de Laplace (ejemplo 5e), demostrar que si la primera N voltea todos los resultados en las cabezas, a continuación, la probabilidad condicional de que el siguiente M los flips también dan lugar a todas las cabezas es (N + 1)/(N + M + 1). 3,30. En la regla de sucesión de Laplace (ejemplo 5e), supongamos que la primera N flips resultó en R cabezas y N − R Colas. Muestran que la probabilidad de que el (N + 1)St voltea las cabezas es (R + 1)/(N + 2). Para ello, tendrá que probar y utilizar la identidad

*1

N

1 − y)

=

+n!m!+ y ( (n

0

m

Dy

1)!

Pista: Para probar la identidad, deje C(n,m) -

m

=

m

Dy. Integración por rendimientos de piezas m

C(n,m) =

+

C(N + 1M − 1) n 1

Comenzando por C(n, 0) = 1/(N + 1), demuestre la identidad por la inducción encendido m.

149 3,31. SuPongamos que una no matemática, pero filosófica mente, amigo suyo afirma que la regla de la sucesión de Laplace debe ser incorrecta, ya que puede llevar a conclusiones ridículas. "Por ejemplo," dice, "la regla declara que si un niño tiene 10 años, habiendo vivido 10 años, el niño tiene probabilidad

de vivir otro año. Por otra parte, si el muchacho

tiene un abuelo de 80 años, entonces, por la regla de Laplace, el abuelo tiene probabilidad de sobrevivir otro año. Sin embargo, esto es ridículo. Claramente, es más probable que el niño sobreviva un año más que el del abuelo ". ¿Cómo responde Rías a tu amigo?

PROBLEMAS de auto-prueba y ejercicios 3,1. En un juego de Bridge, West no tiene Ases. ¿Cuál es la probabilidad de que su compañero (a) no tenga ases? (b) ¿2 o más ases? (c) ¿cuáles serían las probabilidades si West tuviera exactamente 1 ACE? 3,2. La probabilidad de que una batería de coche nueva funciona por más de 10.000 millas es .8, la probabilidad de que funciona por más de 20.000 millas es .4, y la probabilidad de que funciona por más de 30.000 millas es. 1. Si una batería de coche nueva sigue funcionando después de 10.000 millas, ¿cuál es la probabilidad de que un ¿su vida total excederá 20.000 millas? b ¿su vida adicional excederá 20.000 millas? 3,3. ¿Cómo pueden 20 bolas, 10 blancas y 10 negras, ser puestas en dos urnas para maximizar la probabilidad de dibujar una bola blanca si una urna es seleccionada al azar y una bola es dibujada al azar de ella? 3,4. Urna Un contiene 2 bolas blancas y 1 bola negra, mientras que la urna B contiene 1 bola blanca y 5 bolas negras. UNA bola se dibuja al azar de la urna Un y se coloca en la urna B. UNA bola se extrae de la urna B. Resulta que es blanco. ¿Cuál es la probabilidad de que la bola transferida fuera blanca? 3,5. Una urna ha R rojo y En bolas blancas que se extraen aleatoriamente una a la vez. Dejar Rme sea el caso de que el ila bola retirada es roja. Encontrar un P(Ri) (b) P(R5|R3) (c) P(R3|R5) 3.6. Una urna contiene B bolas negras y R bolas rojas. Una de las bolas se dibuja al azar, pero cuando se pone de nuevo en la urna, C las bolas adicionales del mismo color se ponen adentro con él. Ahora, supongamos que dibujemos otra bola. Muestran que la probabilidad de que la primera bola era de color negro, dado que la segunda bola dibujada era de color rojo, es b/(B + R + c). 3.7. UN amigo escoge aleatoriamente dos cartas, sin reemplazo, de una baraja ordinaria de 52 cartas de juego. En cada una de las siguientes situaciones, determine la probabilidad condicional de que ambas tarjetas sean ases. (a) Le preguntas a tu amigo si una de las cartas es el as de espadas, y tu amigo responde afirmativamente. (b) Le preguntas a tu amigo si la primera carta seleccionada es un as, y tu amigo responde afirmativamente. (c) Le preguntas a tu amigo si la segunda carta seleccionada es un as, y tu amigo responde afirmativamente. (d) Le preguntas a tu amigo si cualquiera de las cartas seleccionadas es un as, y tu amigo responde afirmativamente. 3.8. Demuestran que P(H||E) = P(H) P(E||H) P(G, y)

P(G) P(y G)

SuPongamos que, antes de que se observen nuevas pruebas, la hipótesis H es tres veces más probable que sea cierto como es la hipótesis G. Si la nueva evidencia es el doble de probabilidades G es cierto de lo que es cuando H es cierto, ¿qué hipótesis es más probable después de la evidencia se ha observado? 3.9. Le pides a tu vecino que riegue una planta enfermiza mientras estás de vacaciones. Sin agua, morirá con probabilidad. 8; con agua, morirá con probabilidad. 15. Usted está 90 por ciento seguro de que su vecino se acordará de regar la planta. (a) ¿Cuál es la probabilidad de que la planta estará viva cuando regrese? (b) Si la planta está muerta a su regreso, ¿cuál es la probabilidad de que su vecino se olvidó de regarlo? 3,10. Se elegirán seis bolas aleatoriamente de una urna que contenga 8 bolas rojas, 10 verdes y 12 azules. (a) ¿Cuál es la probabilidad de que al menos se escoja una bola roja?

150 (b) Dado que no se eligen bolas rojas, ¿cuál es la probabilidad condicional de que haya exactamente 2 bolas verdes entre las 6 elegidas? 3,11. UNA batería de tipo C está en condiciones de trabajo con probabilidad .7, mientras que una batería de tipo D está en condiciones de trabajo con probabilidad .4. una batería se escoge aleatoriamente de un compartimiento que consiste en 8 tipo C y 6 baterías del tipo D. (a) ¿Cuál es la probabilidad de que la batería funcione? (b) Dado que la batería no funciona, ¿cuál es la probabilidad condicional de que se trataba de una batería tipo C? 3.12. María llevará dos libros con ella en un viaje. SuPongamos que la probabilidad de que le gusta el libro 1 es .6, la probabilidad de que le guste el libro 2 es .5, y la probabilidad de que le va a gustar ambos libros es .4. encuentra la probabilidad condicional de que le guste el libro 2, dado que no le gustó el libro 1. 3.13. Las bolas se eliminan aleatoriamente de una urna que inicialmente contiene 20 bolas rojas y 10 azules. (a) ¿Cuál es la probabilidad de que todas las bolas rojas se eliminen antes de que se hayan eliminado todos los azules? Ahora suponga que la urna contiene inicialmente 20 rojo, 10 azules, y 8 bolas verdes. (b) Ahora, ¿cuál es la probabilidad de que todas las bolas rojas se eliminen antes de que se hayan eliminado todos los azules? (c) ¿Cuál es la probabilidad de que los colores se agoten en el orden azul, rojo, verde? (d) ¿Cuál es la probabilidad de que el grupo de bolas azules sea el primero de los tres grupos que se quitarán? 3,14. UNA moneda que tiene probabilidad .8 de aterrizaje en cabezas se voltea. Un observa el resultado — ya sea cara o Cruz — y se apresura a decir B. Sin embargo, con probabilidad .4 Un habrá olvidado el resultado en el momento en que llegue B. Si Un ha olvidado, entonces, en lugar de admitir esto a B, es igualmente probable que le diga B que la moneda aterrizó en las cabezas o que aterrizó colas. (Si lo recuerda, entonces le dice B el resultado correcto.) (a) ¿Cuál es la probabilidad de que B ¿se dice que la moneda aterrizó en la cabeza? (b) ¿Cuál es la probabilidad de que B se le dice el resultado correcto? (c) Dado que B se dice que la moneda aterrizó en las cabezas, ¿cuál es la probabilidad de que de hecho la tierra en la cabeza? 3,15. En una cierta especie de ratas, el negro domina sobre marrón. Suponga que una rata negra con dos padres negros tiene un hermano marrón. (a) ¿Cuál es la probabilidad de que esta rata sea una rata negra pura (en lugar de ser un híbrido con un gen negro y otro marrón)? (b) SuPongamos que cuando la rata negra está apareada con una rata marrón, los 5 de sus descendientes son negros. Ahora, ¿cuál es la probabilidad de que la rata sea una rata negra pura? 3,16. (a) En el problema 3.65 b, encontrar la probabilidad de que una corriente fluye de Un Para B, acondicionando si el relé 1 se cierra. b Encontrar la probabilidad condicional de que el relé 3 esté cerrado, dado que una corriente fluye de Un Para B. 3,17. Para la k-fuera deN el sistema descrito en el problema 3,67, asume que cada componente trabaja independientemente con la probabilidad . Encontrar la probabilidad condicional de que el componente 1 está funcionando, dado que el sistema funciona, cuando un K = 1N = 2 b K = 2N = 3. 3,18. Jones ha ideado un sistema de juego para ganar en la ruleta. Cuando él apuesta, él apuesta en rojo y pone una apuesta solamente cuando los 10 giros anteriores de la ruleta han aterrizado en un número negro. Él razona que su ocasión de ganar es bastante grande porque la probabilidad de 11 vueltas consecutivas que resultan en negro es absolutamente pequeña. ¿Qué opinas de este sistema? 3,19. Tres jugadores simultáneamente lanzan monedas. La moneda lanzada por A(B)[C] aparece cabezas con probabilidad P1(P2)[P3]. Si una persona obtiene un resultado diferente de los de los otros dos, entonces él es el extraño Problemas de auto-prueba y ejercicios hombre fuera. Si no hay un hombre extraño fuera, los jugadores voltear de nuevo y seguir haciéndolo hasta que conseguir un hombre extraño. ¿Cuál es la probabilidad de que Un será el hombre impar? 3,20. Suponga que hay N posibles resultados de un ensayo, con resultados me resultando con probabilidad n pi,me = 1...,n,

pme = 1. Si dos Tri-

se observa la ELA, ¿cuál es la probabilidad de que el resultado del segundo ensayo sea mayor que el del primero?

151 3,21. Si Un Voltea N + 1 y B Voltea N las monedas justas, demuestran que la probabilidad que Un obtiene más cabezas que B Es . Pista: Condición en la que el jugador tiene más cabezas después de que cada uno ha volteado N Monedas. (Hay tres posibilidades.) 3,22. Demostrar o dar contraejemplos a las siguientes afirmaciones: (a) Si Y es independiente de F Y Y es independiente de GEntonces Y es independiente de F ∪ G. (b) Si Y es independiente de FY Y es independiente de GY Fg = Isla, entonces Y es independiente de F ∪ G. (c) Si Y es independiente de FY F es independiente de GY Y es independiente de FgEntonces G es independiente de Si. 3,23. Dejar Un Y B ser eventos con probabilidad positiva. Indicar si cada una de las siguientes afirmaciones es (i) necesariamente verdadera, (II) necesariamente falsa, o (III) posiblemente verdadera. (a) Si Un Y B son mutuamente excluyentes, entonces son independientes. (b) Si Un Y B son independientes, entonces son mutuamente excluyentes. (c) P(A) = P(B) = .6 y Un Y B son mutuamente excluyentes. (d) P(A) = P(B) = .6 y Un Y B son independientes. 3,24. Clasifique lo siguiente de más probabilidades de que ocurra lo más probable: 1. UNA moneda justa aterriza en la cabeza. 2. Tres ensayos independientes, cada uno de los cuales es un éxito con la probabilidad .8, todo resultado en éxitos. 3. Siete ensayos independientes, cada uno de los cuales es un éxito con la probabilidad .9, todo resultado en éxitos. 3.25. Dos fábricas locales, Un Y B, producen radios. Cada radio producida en la fábrica Un es defectuosa con probabilidad .05, mientras que cada una producida en fábrica B es defectuosa con probabilidad. 01. Suponga que usted compra dos radios que fueron producidos en la misma fábrica, que es igualmente probable haber sido cualquier fábrica Un o fábrica B. Si la primera radio que comprueba es defectuosa, ¿cuál es la probabilidad condicional de que el otro también esté defectuoso? 3.26. Demostrar que si P(A|B) = 1, entonces P(Bc|Ac) = 1. 3.27. Una urna contiene inicialmente 1 bola roja y 1 azul. En cada etapa, una pelota es retirada aleatoriamente y sustituida por otras dos bolas del mismo color. (Por ejemplo, si la bola roja se escoge inicialmente, entonces habría 2 rojo y 1 bola azul en la urna cuando la selección siguiente ocurre.) Mostrar por inducción matemática que la probabilidad de que hay exactamente me bolas rojas en la urna despuésme ... Nn+las etapas se han completado IS1. n+11, 1 …

3.28. UN total de 2N las tarjetas, de las cuales 2 son ases, deben ser divididas aleatoriamente entre dos jugadores, con cada jugador recibiendo N Tarjetas. Cada jugador debe declarar, en secuencia, si ha recibido ases. ¿Cuál es la probabilidad condicional de que el segundo jugador no tenga ases, dado que el primer jugador declara afirmativamente, cuando (a) N = 2? b N = 10? c N = 100? A lo que la probabilidad convergen como N va al infinito? ¿Porqué? 3,29. Hay N distintos tipos de cupones, y cada cupón obtenido es, independientemente de los tipos anteriores recogidos, de tipo me con probabilidad pi, n =

Sipin=los cupones se recogen, ¿cuál es el proba-1.

la nobleza que uno de cada tipo se obtiene? (b) Ahora Supongamos que p1 = p2 = ··· = pN = 1/n. Dejar Eme sea el caso de que no haya ningún tipo me Cupones entre los N Recogidos. Aplicar la identidad de inclusión – exclusión para la probabilidad de la Unión de eventos a P(∪iEi) para demostrar la identidad n

n!

k

k)n k=0

152 3,30. Mostrar que, para cualquier evento Y Y F, P(E|Y ∪ F) de la P(E|F) Pista: Compute P(E|Y ∪ F) por condicionamiento en si F Ocurre.

CHAPTER4

Variables aleatorias 4,1 VARIABLES ALEATORIAS 4,2 VARIABLES ALEATORIAS DISCRETAS 4,3 VALOR ESPERADO 4,4 EXPECTATIVA DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA 4,5 Varianza 4,6 LAS VARIABLES ALEATORIAS DE BERNOULLI Y BINOMIAL 4,7 LA VARIABLE ALEATORIA DE POISSON 4,8 OTRAS DISTRIBUCIONES DE PROBABILIDAD DISCRETAS 4,9 VALOR ESPERADO DE LAS SUMAS DE VARIABLES ALEATORIAS 4,10 PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA

4,1VARIABLES ALEATORIAS Con frecuencia, cuando se realiza un experimento, estamos interesados principalmente en alguna función del resultado en contraposición al propio resultado real. Por ejemplo, en el lanzamiento de dados, a menudo estamos interesados en la suma de los dos dados y no estamos realmente preocupados por los valores separados de cada dado. Es decir, podemos estar interesados en saber que la suma es 7 y no puede preocuparse de si el resultado real fue (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1). También, al voltear una moneda, podemos estar interesados en el número total de cabezas que ocurren y no se preocupan en absoluto acerca de la secuencia real de la cabeza-cola que resulta. Estas cantidades de interés, o, más formalmente, estas funciones de valor real definidas en el espacio de muestra, se conocen como variables aleatorias. Dado que el valor de una variable aleatoria está determinado por el resultado del experimento, podemos asignar probabilidades a los valores posibles de la variable aleatoria. EJEMPLO 1A

153

Supongamos que nuestro experimento consiste en lanzar 3 monedas justas. Si dejamos que Y indican el número de cabezas que aparecen, Y es una variable aleatoria que toma uno de los valores 0, 1, 2 y 3 con las probabilidades respectivas P{Y = 0} = P{(T,T,T) P{Y = 1} = P{(T,T,H),(T,H,T),(H,T,T) P{Y = 2} = P{(T,H,H),(H,T,H),(H,H,T) P{Y = 3} = P{(H,H,H) 117

Desde Y debe asumir uno de los valores 0 a 3, debemos tener

que, por supuesto, está de acuerdo con las probabilidades precedentes.

.

EJEMPLO 1B Tres bolas deben seleccionarse aleatoriamente sin reemplazo de una urna que contenga 20 bolas numeradas de 1 a 20. Si apostamos que al menos una de las pelotas que se dibujan tiene un número tan grande como o mayor que 17, ¿cuál es la probabilidad de que ganemos la apuesta? Solución. Dejar X indican el número más grande seleccionado. Entonces X es una variable aleatoria que toma uno de los valores 3, 4,...20. Además, si suponemos que cada uno de los posibles selecciones son igualmente probables, entonces me − 1 P, 20 (1,1)

La ecuación (1,1) sigue porque el número de selecciones que resultan en el evento {X = i} es sólo el número de selecciones que dan como resultado la pelota numerada me y dos de las bolas numeradas 1 a través de me − 1 elegido. Porque hay claramente tales selecciones, obtenemos las probabilidades expresadas en la ecuación (1,1), de la que vemos que

154

19 P

18 P

17 P

16 P Sección 4,1 Variables aleatorias

Por lo tanto, desde el evento {X Efectos 17} es la Unión de los eventos desarticulan {X = i}, me = 17, 18, 19, 20, se deduce que la probabilidad de ganar la apuesta es dada por P{X Efectos 17Lla.105 + .119 + .134 + .150 = .

508

EJEMPLO 1C Ensayos independientes consistentes en la volteo de una moneda con probabilidad P de subir cabezas se realizan continuamente hasta que se produce una cabeza o un total de N se hacen los voltea. Si dejamos que X indican el número de veces que la moneda es volteada, luego X es una variable aleatoria que toma uno de los valores 1, 2, 3,...,N con las probabilidades respectivas P{X = 1} = P{H} = p P{X = 2} = P{(T,H)} = (1 − p)p P{X = 3} = P{(T,T,H)} = (1 − p)2p # # # P p n−2

.

155

P

n−1

n−1

Como cheque, tenga en cuenta que

P

P{X = i}

n−1 p)n−1 i=1

=p

. EJEMPLO 1D Tres bolas se eligen aleatoriamente de una urna que contiene 3 bolas blancas, 3 rojas y 5 negras. Supongamos que ganamos $1 por cada bola blanca seleccionada y perdemos $1 por cada bola roja seleccionada. Si dejamos que X que denotan nuestras ganancias totales del experimento, X es una variable aleatoria que toma los valores posibles 0, ;1 ;2 ;3 con las probabilidades respectivas

P 3 5 3 3 + P

P

156

3 P

Estas probabilidades se obtienen, por ejemplo, señalando que para X a igual a 0, cualquiera de las 3 bolas seleccionadas debe ser negra o se debe seleccionar 1 bola de cada color. Del mismo modo, el evento {X = 1} se produce si se seleccionan 1 blanco y 2 bolas negras o si se seleccionan 2 blancos y 1 rojo. Como cheque, observamos que

165 i=0

i=1

La probabilidad de que ganemos dinero es dada por

165

3 i=1

.

EJEMPLO 1E Supongamos que hay N diferentes tipos de cupones y que cada vez que uno obtiene un cupón, es, independientemente de las selecciones anteriores, igualmente probable que sea cualquiera de los N Tipos. Una variable aleatoria de interés es T, el número de cupones que necesita ser recogido hasta que se obtiene un conjunto completo de al menos uno de cada tipo. En lugar de derivar P{T = n} directamente, comencemos considerando la probabilidad de que T es mayor que n. Para ello, corrija N y definir los eventos A1,A2,...,AN de la siguiente manera: AJ es el evento Sección 4,1

Variables aleatorias

que ningún tipo J cupón se encuentra entre los primeros N Cupones recogidos, J = 1...,N. Ahí N

P j=1

− j

j1<j2

− j1<j2<··· <jk

+ (−1)N+1P(A1A2 ···AN) Nwo AJ ocurrirá si cada uno de los N los cupones recogidos no son de tipo j. Dado que cada uno de los cupones no será de tipo J con probabilidad (N − 1)/N, tenemos, por la supuesta independencia de los tipos de cupones sucesivos,

157 n

P(Aj) = Además, el evento Aj1Aj2 ocurrirá si ninguno de los primeros N los cupones recogidos es de cualquier tipo j1 o escriba j2. Así, de nuevo utilizando la independencia, vemos que

N P(Aj1Aj2)

= El mismo razonamiento da n

P(Aj1Aj2 ···Ajk) = y vemos que, para N > 0

n

P{T > n} = N− · · · n

+ (−1)

N

−1

−1)me 1

(1,2) ( N

La probabilidad de que T Iguales N puede obtenerse ahora de la fórmula anterior mediante el uso de P{T > N − 1} = P{T = n} + P{T > n} o, de manera equivalente, P{T = n} = P{T > N − 1} − P{T > n} Otra variable aleatoria de interés es el número de tipos distintos de cupones que se encuentran en la primera N selecciones — llame a esta variable aleatoria Dn. Para calcular P{DN = k}, comencemos fijando la atención en un conjunto particular de K tipos distintos, y determinemos entonces la probabilidad de que este conjunto constituya el conjunto de tipos distintos obtenidos en la primera N Selecciones. Ahora, con el fin de que esto sea la situación, es necesario y suficiente que, de la primera N Cupones obtenidos, A: cada uno es uno de estos K Tipos. B: cada uno de estos K tipos se representa.

158

Ahora, cada cupón seleccionado será uno de los K tipos con probabilidad K/N, por lo que la probabilidad de que Un será válida es (k/N)n. Además, dado que un cupón es de uno de los K tipos considerados, es fácil ver que es igualmente probable que sea de cualquiera de estos K Tipos. Por lo tanto, la probabilidad condicional de B Dado que Un se produce es la misma que la probabilidad de que un conjunto de N los cupones, cada uno igualmente probable ser cualquiera de K tipos posibles, contiene un conjunto completo de K Tipos. Pero esto es sólo la probabilidad de que el número necesario para amasar un conjunto completo, al elegir entre K tipos, es menor o igual que N y es así obtenible de la ecuación (1,2) con K Reemplazar N. Por lo tanto, hemos k

n

P

P(B



1

k

i

N

(−1)i+1 i=1

Por último, ya que hay

posibles opciones para el conjunto de K tipos, llegamos a

P

Observación. Puesto que uno debe recoger por lo menos N Cupones para obtener un conjunto de competir, se deduce que P{T > n} = 1 si N < N. Por lo tanto, de la ecuación (1,2), obtenemos la interesante identidad combinatoria que, para los enteros 1 ... N < N, 1

n

(−1)i+1 = 1

que puede escribirse como n

( 1)i+1 0 i N = i=0

o, al multiplicar por (−1)NNN y dejando J = N − i,

N



159

jn(−1)j−1 = 0 1 ... N < N j=1. Sección 4,2

Variables aleatorias discretas

Para una variable aleatoria X, la función F definida por F(x) = P{X ... x}

−q<X
se denomina función de distribución acumulativa, o, más sencillamente, el función de distribuciónDe X. Por lo tanto, la función de distribución especifica, para todos los valores reales x, la probabilidad de que la variable aleatoria sea menor o igual que x. Ahora, supongamos que Un ... b. Entonces, debido a que el evento {X ... a} está contenida en el evento {X ... b}, se deduce que F(a), la probabilidad de la primera, es menor o igual a F(b), la probabilidad de este último. En otras palabras, F(x) es una función no decreciente de x. Otras propiedades generales de la función de distribución se dan en la sección 4,10. 4,2VARIABLES ALEATORIAS DISCRETAS Se dice que una variable aleatoria que puede asumir a lo más un número contable de valores posibles es discreta. Para una variable aleatoria discreta X, definimos el función de masa de probabilidad p(a) De X Por p(a) = P{X = a} La función de masa de probabilidad p(a) es positivo para a lo más un número contable de valores de a. Es decir, si X debe asumir uno de los valores x1,x2,...Entonces p(xi) el 0 Para me = 1, 2,... p(x) = 0para todos los demás valores de x Desde X debe asumir uno de los valores xiTenemos q

i=1

A menudo es instructivo presentar la función de la masa de la probabilidad en un formato gráfico trazando p(xi) en el y-eje contra xme en el xeje. Por ejemplo, si la función de masa de probabilidad de X Es p

p

p

160 p (x)

1 1– 2 1– 4

0

1

x

2

FIGURA 4,1 p(x)

6 — 36 5 — 36 4 — 36 3 — 36 2 — 36 1 — 36

0

1

2

3

4

5

6

7

8

9

10

11

12

x

FIGURA 4,2

podemos representar esta función gráficamente como se muestra en la figura 4,1. Del mismo modo, un gráfico de la función de masa de probabilidad de la variable aleatoria que representa la suma cuando se enrollan dos dados se ve como figura 4,2. EJEMPLO 2A La función de masa de probabilidad de una variable aleatoria X es dada por p(i) = cλi/i!, me = 0, 1, 2,...Donde L es un valor positivo. Buscar (a) P{X = 0} y b) P{X > 2}. q Solución. Desde

p(i) = 1, tenemos Q λi

C i! i=0 q

que, porque ex

xi/i!, implica que i=0 EsteL = 1 O

C = e−λ

161

Ahí (a) P{X = 0} = e−λλ0/0! = e−λ (b) P{X > 2} = 1 − P{X ... 2} = 1 − P{X = 0} − P{X = 1} − P{X = 2} . La función de distribución acumulativa F puede expresarse en términos de p(a) Por F Todos X ... a

Si X es una variable aleatoria discreta cuyos valores posibles son x1,x2,x3,...Donde x1 < x2 < x3 < ···, la función de distribución F De X es una función de paso. Es decir Sección 4,3

Valor esperado

el valor de F es constante en los intervalos [xi−1,xi) y luego toma un paso (o salto) de tamaño p(xi) En xi. Por ejemplo, si X tiene una función de masa de probabilidad dada por p

p

p

p

entonces su función de distribución acumulativa es

... Un < 2 F

... Un < 3 ... Un < 4 ... a

Esta función se representa gráficamente en la figura 4,3. F ( a) 1 7– 8 3– 4

1– 4

1

2

3

4

a

FIGURA 4,3

Tenga en cuenta que el tamaño del paso en cualquiera de los valores 1, 2, 3 y 4 es igual a la probabilidad de que X asume ese valor en particular.

162

4,3 VALOR ESPERADO Uno de los conceptos más importantes en la teoría de la probabilidad es el de la expectativa de una variable aleatoria. Si X es una variable aleatoria discreta que tiene una función de masa de probabilidad p(x), entonces el Expectativa, o el valor esperadoDe X, denotado por E[X], se define por E x:p(x)>0

En palabras, el valor esperado de X es un promedio ponderado de los valores posibles que X puede asumir, cada valor se pondera por la probabilidad de que X asume. Por ejemplo, por un lado, si la función de masa de probabilidad de X es dada por p Entonces E es sólo el promedio ordinario de los dos valores posibles, 0 y 1, que X puede asumir. Por otro lado, si p

p

Entonces E es un promedio ponderado de los dos valores posibles 0 y 1, donde el valor 1 se da dos veces más peso que el valor 0, ya que p(1) = 2p(0). Otra motivación de la definición de la expectativa es proporcionada por la interpretación de la frecuencia de probabilidades. Esta interpretación (parcialmente justificada por la fuerte ley de grandes números, que se presentará en el capítulo 8) asume que si se realiza una secuencia infinita de replicaciones independientes de un experimento, entonces, para cualquier evento E, la proporción de tiempo que Y ocurre será P(E). Ahora, considere una variable aleatoria X que debe asumir uno de los valores x1,x2,...xN con las probabilidades respectivas p(x1),p(x2),...,p(xn), y pensar en X representando nuestras ganancias en un solo juego de azar. Es decir, con probabilidad p(xi) ganaremos xme Unidades me = 1, 2,...,n. Por la interpretación de frecuencias, si jugamos a este juego continuamente, entonces la proporción de tiempo que ganamos xme será p(xi). Dado que esto es cierto para todos i,me = 1, 2,...,n, se deduce que nuestras ganancias medias por partido serán n

i=1

EJEMPLO 3A Encontrar E[X], donde X es el resultado cuando rodamos un dado justo. Solución. Desde p

, obtenemos

163

E . EJEMPLO 3B Decimos que Me es una variable indicadora para el evento Un Si 1

si Un Ocurre Me =0 si AC

Ocurre Encontrar E[I]. Solución. Desde p(1) = P(A),p(0) = 1 − P(A)Tenemos E[I] = P(A) Es decir, el valor esperado de la variable indicadora para el evento Un es igual a la probabilidad de que Un Ocurre. . Sección 4,3

Valor esperado

EJEMPLO 3C Un concursante en una demostración del concurso se presenta con dos preguntas, las preguntas 1 y 2, que él debe intentar contestar en un cierto orden él elige. Si decide intentar la pregunta me primero, entonces se le permitirá ir a cuestionar j, J Z i, sólo si su respuesta a la pregunta me es correcta. Si su respuesta inicial es incorrecta, no se le permite contestar la otra pregunta. El concursante debe recibir Vme dólares si contesta pregunta me Correctamente me = 1, 2. por ejemplo, recibirá V1 + V2 dólares si contesta las dos preguntas correctamente. Si la probabilidad de que él conoce la respuesta a la pregunta me Es Pi,me = 1, 2, ¿qué pregunta debería intentar responder primero para maximizar sus ganancias previstas? Supongamos que los eventos Ei,me = 1, 2, que él conoce la respuesta a la pregunta me son eventos independientes. Solución. Por un lado, si él intenta responder primero a la pregunta 1, entonces ganará 0

con probabilidad 1 − P1

V1

con probabilidad P1(1 − P2)

V1 + V2

con probabilidad P1P2

Por lo tanto, sus ganancias previstas en este caso serán V1P1(1 − P2) + (V1 + V2)P1P2 Por otro lado, si intenta responder a la pregunta 2 primero, sus ganancias previstas serán V2P2(1 − P1) + (V1 + V2)P1P2

164

Por lo tanto, es mejor intentar primero la pregunta 1 si V1P1(1 − P2) el V2P2(1 − P1) o, de manera equivalente, si V1P1

V2P2 Ú

1 − P1

1 − P2

Por ejemplo, si él es 60 por ciento seguro de responder a la pregunta 1, vale la pena $200, correctamente y él es 80 por ciento seguro de responder a la pregunta 2, vale la pena $100, correctamente, entonces él debe tratar de responder a la pregunta 2 primero porque . EJEMPLO 3D Una clase de escuela de 120 estudiantes se conduce en 3 autobuses a una actuación Sinfónica. Hay 36 estudiantes en uno de los autobuses, 40 en otro, y 44 en el tercer autobús. Cuando llegan los autobuses, uno de los 120 estudiantes es elegido aleatoriamente. Dejar X indican el número de estudiantes en el autobús de ese estudiante elegido al azar, y encontrar E[X]. Solución. Dado que el estudiante elegido al azar es igualmente probable que sea cualquiera de los 120 estudiantes, se deduce que P Ahí E Sin embargo, el número promedio de estudiantes en un autobús es de 120/3 = 40, demostrando que el número esperado de estudiantes en el autobús de un estudiante elegido aleatoriamente es mayor que el número promedio de estudiantes en un autobús. Este es un fenómeno general, y se produce porque cuantos más estudiantes hay en un autobús, más probable es que un estudiante elegido aleatoriamente hubiera estado en ese autobús. Como resultado, los autobuses con muchos estudiantes reciben más peso que aquellos con menos estudiantes. (Ver problema de autoprueba 4.) . Observación. El concepto de probabilidad de expectativa es análogo al concepto físico de la Centro de gravedad de una distribución de la masa. Considere una variable aleatoria discreta X tener función de masa de probabilidad p(xi),me Efectos 1. Si ahora imaginamos una varilla sin peso en la que los pesos con masa p(xi),me Efectos 1, se encuentran en los puntos xi,me Efectos 1 (ver figura 4,4), entonces el punto en el que la varilla estaría en equilibrio se conoce como el centro de gravedad. Para aquellos lectores familiarizados con la estática elemental, ahora es un simple asunto para demostrar que este punto es en E[X].1 .

1

Para demostrarlo, debemos demostrar que la suma de los pares que tienden a dar vuelta al punto alrededor E[X] es igual a 0. Es decir, debemos mostrar que 0 Y[X])p(xi), que es inmediata. i

165 –1

0

p(– 1) =. 10, p(0) =. 25,

^1

2

p(1) =. 30,

p(2) =. 35

^ = Centro de gravedad =. 9 FIGURA 4,4

4,4EXPECTATIVA DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA Supongamos que se nos da una variable aleatoria discreta junto con su función de masa de probabilidad y que queremos calcular el valor esperado de alguna función de XDecir g(X). ¿Cómo podemos lograrlo? Una forma es la siguiente: desde g(X) es en sí misma una variable aleatoria discreta, tiene una función de masa de probabilidad, que se puede determinar a partir de la probabilidad función de masa de X. Una vez que hemos determinado la función de masa de probabilidad de g(X), podemos calcular E[g(X)] mediante la definición del valor esperado. EJEMPLO 4A Dejar X denotan una variable aleatoria que asume cualquiera de los valores −1, 0 y 1 con las probabilidades respectivas P{X = −1} = .2

P{X = 0} = .5

P{X = 1} = .3

Calcular E[X2]. Solución. Dejar Y = X2. Entonces la función de la masa de la probabilidad de Y es dada por P{Y = 1} = P{X = −1} + P{X = 1} = .5 P{Y = 0} = P{X = 0} = .5 Ahí E[X2] = E[Y] = 1(.5) + 0(.5) = .5 Sección 4,4

Expectativa de una función de una variable aleatoria

Tenga en cuenta que .5 = E[X2] ConE[X])2 = .01

.

Aunque el procedimiento anterior siempre nos permitirá calcular el valor esperado de cualquier función de X de un conocimiento de la función de la masa de la probabilidad de X, hay otra forma de pensar sobre E[g(X)]: Desde g(X) será igual a g(x) Cuando X es igual a x, parece razonable que E[g(X)] sólo debe ser un promedio ponderado de los valores g(x)Con g(x) ponderada por la probabilidad de que X es igual a x. Es decir, el siguiente resultado es bastante intuitivo: Propuesta 4,1. Si X es una variable aleatoria discreta que adquiere uno de los valores xi,me Efectos 1, con probabilidades respectivas p(xi), entonces, para cualquier función de valor real g, E i

166

Antes de probar esta proposición, comprobemos que está de acuerdo con los resultados de Ejemplo 4A. Aplicarlo a ese ejemplo produce E{X2} = (−1)2(.2) + 02(.5) + 12(.3) = 1(.2 + .3) + 0(.5) = .5 que está de acuerdo con el resultado dado en el ejemplo 4A. Prueba de la Proposición 4,1: La prueba de la Proposición 4,1 procede, como en la verificación precedente, agrupando todos los términos tener el mismo valor i

De g(xi). En concreto, supongamos que yj,J Efectos 1, representan los diferentes valores de g(xi),me Efectos 1. luego, agrupando todos los g(xi) con el mismo valor da i

j

i:g(xi)=yj

j

i:g(xi)=yj

yjp(xi)

j

i:g(xi)=yj

j

= E[g(X)]

EJEMPLO 4B Un producto que se vende estacionalmente produce un beneficio neto de B dólares por cada unidad vendida y una pérdida neta de dólares por cada unidad dejada sin vender cuando termine la temporada. El número de unidades del producto que se ordenan en un almacén por departamento específico durante cualquier temporada es una variable aleatoria que tiene una función de masa de probabilidad p(i),me Efectos 0. Si la tienda debe almacenar este producto por adelantado, determine el número de unidades que la tienda debe almacenar para maximizar su beneficio esperado.

167

Capítulo 4

Variables aleatorias

Solución. Dejar X indican el número de unidades ordenadas. Si s unidades se almacenan, entonces el beneficio — llámeme P(s)— puede expresarse como P(s) = Bx −s − X)

Si X ... s

= Sb

Si X > s

Por lo tanto, el beneficio esperado equivale a s

q

[Wld −s − i)

E

Sbp(i)

i=s+1

= (B + ) s

s

= (B + )

P(i) + Sb s

s)p(i) i=0 Para determinar el valor óptimo de s, vamos a investigar lo que sucede con el beneficio cuando aumentamos s por 1 unidad. Por sustitución, vemos que el beneficio esperado en este caso es dado por s+1

(me − s − 1)p(i)

E i=0 s

(me − s − 1)p(i) i=0

Por lo tanto s E[P(s + 1)] Por lo tanto, la siembra s + 1 unidades será mejor que la siembra s unidades cada vez que s

b p(i) <

(4,1) b i=0

+

168

Capítulo 4

Variables aleatorias

Debido a que la parte izquierda de la ecuación (4,1) está aumentando en s mientras que el lado derecho es constante, la desigualdad será satisfecha para todos los valores de s ... s∗Donde s∗ es el mayor valor de s satisfactoria de la ecuación (4,1). Desde s s s E[P(0)] < ··· < E[P( ∗)] < E[P( ∗ + 1)] > E[P( ∗ + 2)] > ··· sigue que la siembra s∗

+ 1 artículo dará lugar a un beneficio máximo esperado. . EJEMPLO de utilidad 4C Supongamos que debe elegir una de las dos acciones posibles, cada una de las cuales puede resultar en cualquiera de N consecuencias, denotados como C1,...,Cn. Supongamos que si la primera acción es

169 Sección 4,4

Expectativa de una función de una variable aleatoria

elegida, entonces consecuencia Cme resultará con probabilidad pi,me = 1...,n, mientras que si se elige la segunda acción, la consecuencia Cme resultará con probabilidad qi, n me = 1...,nDonde

n

qme = 1. se puede utilizar el siguiente enfoque para deter-

mina qué acción elegir: empiece asignando valores numéricos a las diferentes consecuencias de la siguiente manera: primero, identifique las consecuencias menos importantes y las más deseables — llámeme C Y Crespectivamente dar la consecuencia C el valor 0 y dar C el valor 1. Ahora considere cualquiera de los otros N − 2 consecuencias, digamos, Ci. Para valorar esta consecuencia, Imagine que se le da la opción entre recibir o Cme o tomar parte en un experimento aleatorio que o bien le gana la consecuencia C con probabilidad En o consecuencia C con probabilidad 1 − u. Claramente, su elección dependerá del valor de u. Por un lado, si En = 1, entonces el experimento está seguro de dar lugar a la consecuencia C, y desde C es la consecuencia más deseable, preferirá participar en el experimento para recibir Ci. Por otro lado, si En = 0, entonces el experimento resultará en la consecuencia menos deseable — es decir, c— así que en este caso usted preferirá la consecuencia Cme participar en el experimento. Ahora, como En disminuye de 1 a 0, parece razonable que su elección en algún momento cambiará de participar en el experimento a la cierta rentabilidad de Ci, y en ese punto de conmutación crítico usted será indiferente entre las dos alternativas. Tome esa probabilidad de indiferencia En como el valor de la consecuencia Ci. En otras palabras, el valor de Cme es que la probabilidad En de tal manera que usted es indiferente entre la recepción de la consecuencia Cme o participar en un experimento que devuelva la consecuencia C con probabilidad En o consecuencia C con probabilidad 1 − u. Llamamos a esta probabilidad de indiferencia la Utilidad de la consecuencia Ci, y lo designamos como u(Ci). Para determinar qué acción es superior, necesitamos evaluar cada una. Consideremos la primera acción, que resulta en consecuencia Cme con probabilidad pi,me = 1...,n. Podemos pensar que el resultado de esta acción está determinado por un experimento de dos etapas. En la primera etapa, uno de los valores 1,...,N se elige de acuerdo a las probabilidades p1,...,pn; Si el valor me se elige, usted recibe la consecuencia Ci. Sin embargo, dado que Cme es equivalente a obtener consecuencias C con probabilidad u(Ci) o consecuencia C con probabilidad 1 − u(Ci), se deduce que el resultado del experimento de dos etapas equivale a un experimento en el que cualquier consecuencia C o consecuencia C se obtiene, con C se obtiene con probabilidad n

Del mismo modo, el resultado de elegir la segunda acción equivale a participar en un experimento en el que cualquier consecuencia C o consecuencia C se obtiene, con C se obtiene con probabilidad n qiu(Ci) Desde C es preferible a c, se deduce que la primera acción es preferible a la segunda n

n

i=1

i=1

qiu(Ci)

170

En otras palabras, el valor de una acción puede medirse por la importancia esperada de la utilidad de su consecuencia, y la acción con la mayor utilidad esperada es la más preferible. . Una simple consecuencia lógica de la Proposición 4,1 es corolario 4,1. Corolario 4,1. Si Un Y B son constantes, entonces E[Ax + b] = Ae[X] + b Prueba. E x:p(x)>0

x:p(x)>0

x:p(x)>0

= Ae[X] + b

El valor esperado de una variable aleatoria X, E[X], también se denomina Decir o el primer momento de X. La cantidad E[Xn],N Efectos 1, se llama el nésimo momento de X. Por la Proposición 4,1, observamos que xnp(x)

E x:p(x)>0

4,5

Varianza Dada una variable aleatoria X junto con su función de distribución F, sería sumamente útil si pudiéramos resumir las propiedades esenciales de F determinadas medidas debidamente definidas. Una de esas medidas sería E[X], el valor esperado de X. Sin embargo, aunque E[X] produce la media ponderada de los posibles valores de X, no nos dice nada acerca de la variación, o propagación, de estos valores. Por ejemplo, aunque las variables aleatorias W, YY Z funciones de masa de probabilidad determinadas por En = 0

con probabilidad 1 1 con probabilidad +1 con probabilidad

Y=⎧−

= ⎧ ⎨ ⎩ − +100 con probabilidad Z ⎩ 100 con probabilidad

171

todos tienen la misma expectativa — es decir, 0 — hay una propagación mucho mayor en los valores posibles de Y que en los de En (que es una constante) y en los posibles valores de Z que en los de Y. Porque esperamos X para asumir valores en torno a su media E[X], parecería que una manera razonable de medir la posible variación de X sería mirar hasta qué distancia X sería de su media, en el promedio. Una manera posible de medir esta variación sería considerar la cantidad E[|X − m |], donde m = E[X]. Sin embargo, resulta ser matemáticamente incómodo para lidiar con esta cantidad, por lo que una cantidad más manejable se considera generalmente, a saber, la expectativa del cuadrado de la diferencia entre X y su media. Por lo tanto, tenemos la siguiente definición. Sección 4,5

Varianza

Definición Si X es una variable aleatoria con la media μ, entonces la varianza de X, denotado por var(X), se define por Fue(X) = E[(X − m)2] Una fórmula alternativa para var(X) se deriva de la siguiente manera: = E[X2]

Fue(X) −E[X])2

En palabras, es igual al valor x

la varianza de X esperado de X2 menos el x cuadrado de su valor esperado. En la práctica, esta fórmula ofrece con frecuencia la forma más fácil de calcular var(X).

x

= E[X2] − 2μ2 + M2 = E[X2] − m2 Es decir EJEMPLO 5A

Calcular var(X) Si X representa el resultado cuando se rueda un dado justo. Solución. Se mostró en el ejemplo 3A que E

. También

E Ahí

.

172

Una identidad útil es que, para cualquier constante Un Y b, Fue(Ax + b) = a2Fue(X) Para demostrar esta igualdad, m = E[X] y nota de Corollary 4,1 que E[Ax + b] = aM + b. Por lo tanto Fue(Ax + b) = E[(Ax + B − aM − b)2] = E[a2(X − m)2] = a2E[(X − m)2] = a2Fue(X) Observaciones. (a) análogo a los medios que son el centro de gravedad de una distribución de masa, la varianza representa, en la terminología de la mecánica, el momento de inercia. b) la raíz cuadrada del var(X) se denomina desviación estándar De X, y lo denotamos por SD(X). Es decir Sd(X) = .Fue(X)

Las variables aleatorias discretas a menudo se clasifican según sus funciones de masa de probabilidad. En las próximas secciones, consideramos algunos de los tipos más comunes. 4,6LAS VARIABLES ALEATORIAS DE BERNOULLI Y BINOMIAL Supongamos que un ensayo, o un experimento, cuyo resultado puede clasificarse como un Éxito o un Fracaso se realiza. Si dejamos que X = 1 cuando el resultado es un éxito y X = 0 cuando es un fracaso, entonces la función de la masa de la probabilidad de X es dada por p(0) = P{X = 0} = 1 − p (6,1) p(1) = P{X = 1} = p Donde p, 0 ... P ... 1, es la probabilidad de que el ensayo sea un éxito. Una variable aleatoria X se dice que es un Bernoulli variable aleatoria (después del matemático suizo James Bernoulli) si su función de la masa de la probabilidad es dada por ecuaciones (6,1) para algunos P ∈0, 1). Supongamos ahora que N ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad P y en un fracaso con probabilidad 1 − p, se deben realizar. Si X representa el número de éxitos que ocurren en el N pruebas, entonces X se dice que es un variable aleatoria binomial con parámetros (n, p). Por lo tanto, una variable aleatoria de Bernoulli es sólo una variable aleatoria binomial con parámetros (1, p). La función de masa de probabilidad de una variable aleatoria binomial que tiene parámetros (n, p) está dada por

173

p

i

me = 0, 1,...,n

(6,2)

La validez de la ecuación (6,2) puede verificarse señalando primero que la probabilidad de una secuencia particular de N resultados que contengan me éxitos y N − me fallas es, por la supuesta independencia de los juicios, pi(1 − p)n−i. La ecuación (6,2) entonces sigue, puesto que hay

diferentes secuencias de la N resultados que conducen a me éxitos y

N − me Fallas. Esto tal vez se puede ver más fácilmente señalando que hay

diferentes

opciones de la me los ensayos que resulten en éxitos. Por ejemplo, si N = 4me = 2, entonces hay

6 maneras en que los cuatro ensayos pueden dar lugar a dos éxitos,

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

174

a saber, cualquiera de los resultados (s, s, f, f), (s, f, s, f), (s, f, f, s), (f, s, s, f), (f, s, f, s) y (f, f, s, s), donde el resultado (s, s, f, f) significa, por ejemplo, que los dos primeros ensayos son éxitos y los dos últimos fallos. Dado que cada uno de estos resultados tiene probabilidad p2(1 − p)2 de ocurrir, la probabilidad deseada de dos éxitos en los cuatro ensayos es . Observe que, por el teorema binomial, las probabilidades suman a 1; Es decir q

n

P)]N = 1 i=0

i=0

EJEMPLO 6A Cinco monedas justas se voltean. Si los resultados se asumen independientes, encuentre la función de masa de probabilidad del número de cabezas obtenidas. Solución. Si dejamos que X igual al número de cabezas (éxitos) que aparecen, entonces X es una variable aleatoria binomial con parámetros ecuación (6,2),

. Por lo tanto, por la

P P P P P P . EJEMPLO 6B Se sabe que los tornillos producidos por una cierta compañía serán defectuosos con la probabilidad .01, independientemente de uno a. La empresa vende los tornillos en envases de 10 y ofrece una garantía de devolución de dinero que a lo más 1 de los 10 tornillos es defectuoso. ¿Qué proporción de paquetes vendidos debe sustituir la empresa? Solución. Si X es el número de tornillos defectuosos en un paquete, a continuación, X es una variable aleatoria binomial con parámetros (10,. 01). Por lo tanto, la probabilidad de que un paquete tendrá que ser reemplazado es

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

175

L.004 Por lo tanto, sólo el 0,4 por ciento de los paquetes tendrá que ser reemplazado. EJEMPLO 6C

.

El siguiente juego de apuestas, conocido como la rueda de la fortuna (o Chuck-a-Luck), es bastante popular en muchos carnavales y casinos de juego: un jugador apuesta en uno de los números del 1 al 6. Tres dados son entonces laminados, y si la apuesta número por el jugador aparece me Veces me = 1, 2, 3, entonces el jugador gana me unidades Si el número apostado por el jugador no aparece en ninguno de los dados, entonces el jugador pierde 1 unidad. ¿Este juego es justo para el jugador? (En realidad, el juego se juega girando una rueda que viene a descansar en una ranura etiquetada por tres de los números del 1 al 6, pero esta variante es matemáticamente equivalente a la versión de dados.) Solución. Si asumimos que los dados son justos y actúan independientemente unos de otros, entonces el número de veces que aparece la apuesta numérica es una variable aleatoria binomial con parámetros el juego, tenemos

. Por lo tanto, dejar X denotan las ganancias del jugador en

P P P P Con el fin de determinar si este es o no un juego justo para el jugador, vamos a calcular E[X]. A partir de las probabilidades precedentes, obtenemos

E Por lo tanto, a largo plazo, el jugador perderá 17 unidades por cada 216 juegos que juegue. . En el siguiente ejemplo, consideramos la forma más simple de la teoría de la herencia desarrollada por Gregor Mendel (1822 – 1884). EJEMPLO 6D Supongamos que un rasgo particular (como el color de los ojos o la izquierda-mano de obra) de una persona se clasifica en base a un par de genes, y Supongamos también que D representa un gen dominante y R un gen recesivo. Por lo tanto, una persona con Dd genes es puramente dominante, uno con Rr es puramente recesivo, y uno con Rd es híbrido. Los individuos puramente dominantes y híbridos son parecidos en apariencia. Los niños reciben 1 gen de cada padre. Si, con respecto a un rasgo particular, 2 padres híbridos tienen un total

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

176

de 4 niños, ¿cuál es la probabilidad de que 3 de los 4 niños tengan la apariencia externa del gen dominante? Solución. Si asumimos que cada niño tiene la misma probabilidad de heredar cualquiera de los dos genes de cada progenitor, las probabilidades de que el niño de 2 padres híbridos tendrán DD, RRY Rd pares de genes son, respectivamente, , Y . Por lo tanto, dado que una descendencia tendrá la apariencia externa del gen dominante si su par gene es o bien Dd O Rd, se deduce que el número de estos niños se distribuye binomialmente con parámetros

. Por lo tanto, la probabilidad deseada es

. EJEMPLO 6E Considere un juicio por jurado en el que se necesitan 8 de los 12 miembros del jurado para condenar al acusado; es decir, para que el acusado sea condenado, al menos 8 de los miembros del jurado deben votar culpable. Si asumimos que los miembros del jurado actúan de forma independiente y que, independientemente de si el acusado es culpable, cada uno toma la decisión correcta con probabilidad θ, ¿cuál es la probabilidad de que el jurado represente una decisión correcta? Solución. El problema, como se indica, es incapaz de solución, ya que todavía no hay suficiente información. Por ejemplo, si el acusado es inocente, la probabilidad de que el jurado pronuncie una decisión correcta es

Me12−i que, si es culpable, la probabilidad de una decisión correcta es

i

Por lo tanto, si Un representa la probabilidad de que el acusado sea culpable, entonces, por condicionamiento de si es o no culpable, obtenemos la probabilidad de que el jurado represente una decisión correcta:

i

. i=8

EJEMPLO 6F Un sistema de comunicación consta de N componentes, cada uno de los cuales funcionará, independientemente, con la probabilidad p. El sistema total podrá funcionar eficazmente si al menos la mitad de sus componentes funcionan.

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

177

(a) ¿Para qué valores de P es un sistema de 5 componentes más probable que funcione eficazmente que un sistema de 3 componentes? (b) En general, ¿Cuándo se (2K + 1)-sistema de componentes mejor que un (2K − 1)sistema de componentes? Solución. (a) debido a que el número de componentes funcionales es una variable aleatoria binomial con parámetros (n, p), se deduce que la probabilidad de que un sistema de 5 componentes sea

que la probabilidad correspondiente de un sistema de 3 componentes es

Por lo tanto, el sistema de 5 componentes es mejor si 10p3(1 − p)2 + 5p4(1 − p) + p5 > 3p2(1 − p) + p3 que reduce a 3(P − 1)2(2P − 1) > 0 O

P> b) en general, un sistema con 2K + 1 componentes será mejor que uno con 2K − 1 componentes si (y sólo si)

. Para probarlo, considere un sistema de 2K + 1

componentes y deje X denotan el número de los primeros 2K − 1 esa función. Entonces P2k+1(Eficaz) = P{X Efectos K + 1} + P{X = k}(1 −1 − p)2) + P{X = K − 1}p2 que sigue porque el (2K + 1)el sistema de componentes será efectivo si (i)

X Efectos K + 1

(ii)

X = K y al menos uno de los 2 componentes restantes funcionan; o (III) X = K

− 1 y ambos de los dos componentes siguientes funcionan. Desde

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

178

P2k−1(Eficaz) = P{X Efectos k} = P{X = k} + P{X Efectos K + 1} obtenemos P2k+1(Eficaz) − P2k−1(Eficaz)

] desde . 4.6.1 Propiedades de las variables aleatorias binomiales Ahora examinaremos las propiedades de una variable aleatoria binomial con parámetros N Y p. Para empezar, calculemos su valor esperado y su varianza. Nwo

Pi(1 − p)n−i

E[Xk] = i=0

Pi(1 − p)n−i i=1

Uso de la identidad i Da

− pi−1(1 − p)n−i

E i=1

= Eg



1

pj(1 − p)n−1−jdejandoJ = me − 1

j=0

= Npe[(Y + 1)k−1] Donde Y es una variable aleatoria binomial con parámetros N − 1 p. Ajuste K = 1 en la ecuación anterior rinde

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

179

E[X] = Eg Es decir, el número esperado de éxitos que ocurren en N ensayos independientes cuando cada uno es un éxito con probabilidad P es igual a Eg. Ajuste K = 2 en la ecuación anterior, y el uso de la fórmula anterior para el valor esperado de una variable aleatoria binomial produce E[X2] = Npe[Y + 1 = Eg[(N − 1)P + 1 Desde E[X] = Eg, obtenemos Fue(X) = E[X2] −E[X])2 = Eg[(N − 1)P + 1 −Eg)2 = Eg(1 − p) Resumiendo, hemos mostrado lo siguiente: Si X es una variable aleatoria binomial con parámetros N Y pEntonces E[X] = Eg Fue(X) = Eg(1 − p) La siguiente proposición detalla cómo la función de masa de probabilidad binomial primero aumenta y luego disminuye. Propuesta 6,1. Si X es una variable aleatoria binomial con parámetros (n, p), donde 0 < P < 1, entonces como K va de 0 a n,P{X = k} primero aumenta monótona y luego disminuye monótona, alcanzando su mayor valor cuando K es el número entero más grande menor o igual que (N + 1)p. Prueba. Demostramos la Proposición al considerar P{X = k}/P{X = K − 1} y determinar para qué valores de K es mayor o menor que 1. Nwo P X k P X k 1

n n n

k k k 1

n! pk 1 k !k !

n! 1!k 1p p

1!

pk

Ahí P{X = k} cuenta P{X = K − 1} Si y sólo si (N − K + 1)P Efectos k(1 − p)

p 1

1

n k

p

n k 1

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

180

o, de manera equivalente, si y sólo si K ... (N + 1)p y la proposición es probada.

.

Como ilustración de la Proposición 6,1 considere la figura 4,5, el gráfico de la función de masa de probabilidad de una variable aleatoria binomial con parámetros (10). EJEMPLO 6G En una elección presidencial de los Estados Unidos, el candidato que gane el número máximo de votos en un estado recibe el número total de votos del colegio electoral asignados a

1024

p(k )

252 210 120 45 10 1

k 0

1

2

3

4

5

6

7

8

9

10

FIGURA 4,5 Gráfico de p

ese estado. El número de votos del colegio electoral de un estado dado es aproximadamente proporcional a la población de ese estado, es decir, un estado con población N tiene aproximadamente Nc votos electorales. (En realidad, está más cerca de Nc + 2, como estado se le da un voto electoral por cada miembro que tiene en la cámara de representantes, con el número de tales representantes siendo aproximadamente proporcional a la población del estado, y un voto de colegio electoral para cada uno de sus dos senadores.) Determinemos el poder promedio de un ciudadano en un estado de tamaño N en una elección presidencial cercana, donde, por potencia media en una elección cercana, queremos decir que un votante en un estado de tamaño N = 2K + 1 será decisivo si el otro N − 1 los votantes dividen sus votos uniformemente entre los dos candidatos. (Asumimos que N es extraño, pero el caso donde N es incluso es bastante similar.) Debido a que la elección está cerca, suponemos que cada uno de los otros N − 1 = 2K votantes actúa de forma independiente y es igualmente probable que vote por cualquiera de los candidatos. Por lo tanto, la probabilidad de que un votante en un estado de tamaño N = 2K + 1 hará una diferencia en el resultado es la misma que la probabilidad de que 2K lanzamientos de una moneda justa tierra cabezas y colas un número igual de veces. Es decir P{votante en estado de tamaño 2K + 1 marca la diferencia}

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

181

k

k!k! 22k Para aproximar la igualdad precedente, hacemos uso de la aproximación de Stirling, que dice que, para K Grande k! ~ kk+1/2e−k√2π ~ donde decimos que aK bK Cuando la relación ak/bK enfoques 1 como K Enfoques q. Por lo tanto, se deduce que P{votante en estado de tamaño 2K + √1 marca la diferencia} ∼2k)2k+1/2e−2k



1

k2k+1e−2k(2P22K = √kπ Debido a que tal votante (si él o ella marca una diferencia) afectará Nc votación electoral, el número esperado de votos electorales un votante en un estado de tamaño N afectará — o el poder promedio del votante — es dada por potencia media = Ncp{marca la diferencia} Nc ~. nP2 = c.2n/p

Por lo tanto, el poder promedio de un votante en un estado de tamaño N es proporcional a la raíz cuadrada de n, demostrando que, en las elecciones presidenciales, los votantes en los Estados grandes tienen más poder que los de los Estados más pequeños. . 4.6.2 Cálculo de la función de distribución binomial Supongamos que X es binomial con parámetros (n, p). La clave para calcular su función de distribución

P{X ... i} = k=0

Pk(1 − p)n−k

me = 0, 1,...,n

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

182

es utilizar la siguiente relación entre los que se estableció en la prueba de la Proposición 6,1: P{X = K + 1} Y P{X = k}Que

k P{X = K + 1} = 1 −P P nK − + 1P{X = k}

(6,3)

EJEMPLO 6H withLet Xp{ser una variable aleatoria binomial con parámetrosX = 0} = (.6)6 y recursivamente empleando la ecuación (6,3), obtenemosN = 6P = .4. luego, comenzando

P{X = 0} = (.6)6 L.0467

P P P P P . P Un programa informático que utiliza la recursividad (6,3) para calcular el binomio

ila primera función computedistribution se escribe fácilmente. Para calcular− 1},P{X =Pi{X− 2=}, y así sucesivamente.i} y, a continuación, utilice la recursividad para calcular de forma sucesivaP{X ... i}, el programa debeP{X =

Sección 4,6

Las variables aleatorias de Bernoulli y binomial

183

Nota histórica Ensayos independientes que tienen una probabilidad común de éxito P fueron estudiados por primera vez por el matemático suizo Jacques Bernoulli (1654 – 1705). En su libro ARS conjectandi (el arte de conjeturar), publicado por su sobrino Nicolás ocho años después de su muerte en 1713, Bernoulli demostró que si el número de tales ensayos eran grandes, entonces la proporción de ellos que eran éxitos estaría cerca de P con una probabilidad cerca de 1. Jacques Bernoulli fue de la primera generación de la familia matemática más famosa de todos los tiempos. En total, hubo entre 8 y 12 Bernoullis, repartidos en tres generaciones, que hicieron contribuciones fundamentales a la probabilidad, las estadísticas y las matemáticas. Una dificultad para saber su número exacto es el hecho de que varios tenían el mismo nombre. (Por ejemplo, dos de los hijos del hermano de Jacques, Jean

Sección 4,7

La variable aleatoria de Poisson

184

fueron nombrados Jacques y Jean.) Otra dificultad es que varios de los Bernoullis eran conocidos por diferentes nombres en diferentes lugares. Nuestro Jacques (a veces escrito Jaques) era, por ejemplo, también conocido como Jakob (a veces escrito Jacob) y como James Bernoulli. Pero sea cual sea su número, su influencia y su producción fueron prodigiosas. Al igual que los Bachs de la música, el Bernoullis de las matemáticas eran una familia para las edades! EJEMPLO 6i Si X es una variable aleatoria binomial con parámetros N = 100 y P = .75, encontrar P{X = 70} Y P{X ... 70}. Solución. La respuesta se muestra aquí en la figura 4,6. Distribución binomial

Ingrese el valor para p:

Empezar

.75

Introduzca el valor para n: 100 Dejar

Introduzca el valor para i: 70

Probabilidad (número de éxitos = i) =. 04575381 Probabilidad (número de éxitos < = i) =. 14954105

FIGURA 4,6

4,7LA VARIABLE ALEATORIA DE POISSON Una variable aleatoria X que toma uno de los valores 0, 1, 2,... se dice que es un Pescado variable aleatoria con parámetro L Si, para algunos Soy yo. 0 L λme

p(i) = P{X = i} = e−

me = 0, 1, 2,...

(7,1) i! La ecuación (7,1) define una función de masa de probabilidad, ya que

q

λ

Q me = − leL =

1

y el! La distribución de probabilidad de Poisson fue introducida por Simeón Denis Poisson en un libro que escribió sobre la aplicación de la teoría de probabilidades a juicios, juicios penales, y similares. Este libro, publicado en 1837, se tituló La probabilite des de los jugements del la del la del sur de Recherches en el criminelle del ere del "del en del Mati del en y el civile

Sección 4,7

La variable aleatoria de Poisson

185

del ere del en (investigaciones en la" probabilidad de Verdicts en asuntos criminales y civiles). La variable aleatoria de Poisson tiene una gran variedad de aplicaciones en diversas áreas, ya que se puede utilizar como una aproximación para una variable aleatoria binomial con parámetros (n, p) cuando N es grande y P es lo suficientemente pequeño para que Eg es de tamaño moderado. Para ver esto, supongamos que X es una variable aleatoria binomial con parámetros (n, p), y deje que L = Eg. Entonces

{ =}= PX i

n!

me

1 − p)n−i

P( (N − i)!i!

n!

L iL n−i n(N − 1)··· (N − me + 1) Lme (1 − L/n)n i

Ahora, para N grandes y L Moderado ni

L eL 1 Por lo tanto, para N grandes y L Moderado i

P{X = i} L e ! En otras palabras, si N ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p, se realizan, N es grande y P es lo suficientemente pequeño para hacer Eg moderado, el número de éxitos que ocurren es aproximadamente una variable aleatoria de Poisson con el parámetro L = Eg. Este valor L (que se demostrará más adelante para igualar el número esperado de éxitos) se determinará generalmente empíricamente. Algunos ejemplos de variables aleatorias que generalmente obedecen a la ley de probabilidad de Poisson [es decir, obedecen a la ecuación (7,1)] son las siguientes: 1. 2. 3. 4.

El número de impresiones erróneas en una página (o un grupo de páginas) de un libro El número de personas en una comunidad que sobreviven a la edad de 100 El número de números de teléfono incorrectos que se marcan en un día El número de paquetes de galletas para perros vendidos en una tienda en particular cada día 5. El número de clientes que ingresan a una oficina de correos en un día determinado 6. El número de vacantes que ocurren durante un año en el sistema judicial federal 7. El número de α-partículas descargadas en un período de tiempo fijo a partir de algún material radiactivo Cada una de las anteriores, y numerosas otras variables aleatorias, son aproximadamente Poisson por la misma razón — es decir, debido a la aproximación de Poisson al binomio.

Sección 4,7

La variable aleatoria de Poisson

186

Por ejemplo, podemos suponer que hay una pequeña probabilidad P que cada letra escrita en una página se imprimirá erróneamente. Por lo tanto, el número de impresiones erróneas en una página será aproximadamente Poisson con L = EgDonde N es el número de Letras de una página. Del mismo modo, podemos suponer que cada persona en una comunidad tiene cierta probabilidad pequeña de alcanzar la edad 100. Además, cada persona que ingresa a una tienda puede considerarse como tener alguna pequeña probabilidad de comprar un paquete de galletas para perros, y así sucesivamente. EJEMPLO 7A Supongamos que el número de errores tipográficos en una sola página de este libro tiene una distribución de Poisson con parámetro . Calcule la probabilidad de que haya al menos un error en esta página. Solución. Dejar X denotan el número de errores en esta página, tenemos P{X Efectos 1} = 1 − P{X = 0} = 1 − e−1/2 L.393

.

EJEMPLO 7B Supongamos que la probabilidad de que un artículo producido por una máquina determinada sea defectuosa es. 1. Encuentre la probabilidad de que una muestra de 10 elementos contenga a lo más 1 artículo defectuoso. Solución. La probabilidad deseada es mientras que la aproximación de Poisson produce el valor e−1 + e−1 L.7358.

7361, .

EJEMPLO 7C Considere un experimento que consiste en contar el número de Un partículas en un intervalo de 1 segundo por 1 gramo de material radiactivo. Si sabemos por experiencia pasada que, en promedio, 3,2 Un se dan las partículas, lo que es una buena aproximación a la probabilidad de que no más de 2 Un partículas aparecerán? Solución. Si pensamos en el gramo de material radiactivo que consiste en un gran número N de átomos, cada uno de los cuales tiene una probabilidad de 3.2/N de desintegrar y enviar un Un partícula durante el segundo considerado, entonces vemos que, a una aproximación muy cercana, el número de Un las partículas dadas fuera será una variable aleatoria de Poisson con parámetro L = 3.2. por lo tanto, la probabilidad deseada es

P{X … L.3799 Antes de calcular el valor esperado y la varianza de la variable aleatoria de Poisson con el parámetro λ, recordemos que esta variable aleatoria se aproxima a una variable aleatoria binomial con parámetros N Y P Cuando N es grande, P es pequeño, y L = Eg. Dado que tal

.

Sección 4,7

La variable aleatoria de Poisson

187

variable aleatoria binomial ha esperado valor Eg = L y la varianza Eg(1 − p) = λ (1 − p) L l (ya que P es pequeño), parecería que tanto el valor esperado como la varianza de una variable aleatoria de Poisson equivalían a su parámetro λ. Ahora verificamos este resultado: Q Ie− lλme E

i! i=0Q e− lλi−1

= (me − 1)! λ i=1 Q j

dejando J = me − 1

j! j=0 Q

λJ = L

Desde j=0

Por lo tanto, el valor esperado de una variable aleatoria de Poisson X es de hecho igual a su parámetro λ. Para determinar su varianza, primero computamos E[X2]:

Q 2e− lλme E

! i=0Q Ie− lλi−1

=L

dejando ! J = me − 1 q

Q

e− lλJ





donde la igualdad final sigue porque la primera suma es el valor esperado de una variable aleatoria de Poisson con parámetro L y la segunda es la suma de las probabilidades de esta variable aleatoria. Por lo tanto, ya que hemos demostrado que E[X] = L, obtenemos

Sección 4,7

La variable aleatoria de Poisson

188

Por lo tanto, el valor esperado y la varianza de una variable aleatoria de Poisson son ambos iguales a su parámetro λ. Hemos demostrado que la distribución de Poisson con parámetros Eg es una aproximación muy buena a la distribución del número de éxitos en N pruebas independientes cuando cada ensayo tiene probabilidad P de ser un éxito, siempre que N es grande y P Pequeño. De hecho, sigue siendo una buena aproximación incluso cuando los juicios no son independientes, siempre que su dependencia sea débil. Por ejemplo, recuerde el problema de coincidencia (ejemplo 5m del capítulo 2) en el que N los hombres seleccionan al azar los sombreros de un sistema que consiste en un sombrero de cada persona. Desde el punto de vista del número de hombres que seleccionan su propio sombrero, podemos considerar la selección aleatoria como el resultado de N ensayos en los que decimos que el juicio me es un éxito si la persona me selecciona su propio sombrero, me = 1...,n. Definición de los eventos Ei,me = 1...,nPor Eme = {Juicio me es un éxito} es fácil ver que 1 P{Ei} =

Y P{Ei

, JZi

n Por lo tanto, vemos que, aunque los eventos Ei,me = 1...,N no son independientes, su dependencia, para grandes n, parece ser débil. Debido a esto parece razonable esperar que el número de éxitos tendrá aproximadamente una distribución de Poisson con parámetro N * 1/N = 1, y de hecho esto se verifica en el ejemplo 5m del capítulo 2. Para una segunda Ilustración de la fuerza de la aproximación de Poisson cuando los ensayos son débilmente dependientes, volvamos a considerar el problema de cumpleaños presentado en el ejemplo 5i del capítulo 2. En este ejemplo, suponemos que cada uno de N la gente es igualmente probable que tenga cualquiera de los 365 días del año como su cumpleaños, y el problema es determinar la probabilidad de que un conjunto de N personas independientes tienen cumpleaños diferentes. Se utilizó un argumento combinatoria para determinar esta probabilidad, que se demostró que era menor que Cuando N = 23. Podemos aproximar la probabilidad precedente utilizando la aproximación de Poisson de la siguiente manera: Imagine que tenemos un juicio para cada uno de los pares de individuos me Y j,me Z j, y decir que el juicio i, J es un éxito si las personas me Y J tienen el mismo cumpleaños. Si dejamos que EIj denotan el evento que el juicio i, J es un éxito, entonces, mientras que el Eventos EIj, 1 ... me < J ... n, no son independientes (véase ejercicio teórico 21), su dependencia parece ser bastante débil. (De hecho, estos eventos son incluso independiente en pares, en que cualquier 2 de los eventos EIj Y EEn son independientes — de nuevo, véase ejercicio

Sección 4,7

La variable aleatoria de Poisson

189

teórico 21). Desde P(EIj) = 1/365, es razonable suponer que el número de éxitos debe tener n(N − 1)/730. por lo tanto,

aproximadamente una distribución de Poisson con

P{no 2 personas tienen el mismo cumpleaños} = P{0 éxitos}

L Para determinar el número entero más pequeño N que esta probabilidad es menor que , tenga en cuenta que

equivale a Expn(N − 1)/UU 2 730 Tomando logaritmos de ambos lados, obtenemos n(N − 1) el 730log2 L 505.997 que produce la solución N = 23, de acuerdo con el resultado del ejemplo 5i del capítulo 2. Supongamos ahora que queríamos la probabilidad de que, entre los N personas, no 3 de ellos tienen su cumpleaños en el mismo día. Mientras que esto ahora se convierte en un problema combinatorio difícil, es una cuestión simple para obtener una buena aproximación. Para empezar, Imagine que tenemos un juicio para cada uno de los Trillizos i, j, k, donde 1 ... me < J < K ... n, y llame a la i, j, K juicio un éxito si las personas i, jY K todos tienen su cumpleaños el mismo día. Como antes, podemos concluir que el número de éxitos es aproximadamente una variable aleatoria de Poisson con parámetro 2

{i,j,K tienen el mismo cumpleaños} n= 1 3 365 = n(N − 1)(N − 2) 6 * (365)2 Ahí P{no 3 tienen el mismo cumpleaños}

Sección 4,7

La variable aleatoria de Poisson

190

Esta probabilidad será inferior a Cuando N es tal que n(N − 1)(N − 2) el 799350log2 L 554067.1 que equivale a N Efectos 84. por lo tanto, la probabilidad aproximada de que al menos 3 personas en un grupo de tamaño 84 o más grande tendrá el mismo cumpleaños supera . Para el número de eventos que se producen aproximadamente tienen una distribución de Poisson, no es esencial que todos los eventos tengan la misma probabilidad de ocurrencia, pero sólo que todas estas probabilidades sean pequeñas. A continuación se denomina el Paradigma de Poisson. Paradigma de Poisson. Considerar N eventos, con pme igual a la probabilidad de que el evento me Ocurre me = 1...,n. Si todos los pme son "pequeños" y los ensayos son independientes o a lo más "débil dependiente", entonces el número de estos eventos que ocurren aproximadamente tiene una distribución de Poisson con la media . Nuestro siguiente ejemplo no sólo hace uso del paradigma de Poisson, sino que también ilustra una variedad de las técnicas que hemos estudiado hasta ahora. EJEMPLO 7D longitud del tramo más largo Una moneda se volteado N Veces. Suponiendo que los saltos son independientes, con cada uno subiendo cabezas con probabilidad p, ¿cuál es la probabilidad de que haya una cadena de K cabezas consecutivas? Solución. Primero usaremos el paradigma de Poisson para aproximar esta probabilidad. Ahora, si, por me = 1...,N − K + 1, dejamos Hme denotan el evento que voltea i,me + 1...,me + K − 1 toda la tierra en cabezas, entonces la probabilidad deseada es que al menos uno de los eventos Hme Ocurrir. Kuz Hme es el acontecimiento que, comenzando con el tirón i, el siguiente K voltea toda la tierra en la cabeza, se deduce que P(Hi) = pk. Por lo tanto, cuando pK es pequeño, podríamos pensar que el número de la Hme que ocurren deben tener una distribución aproximada de Poisson. Sin embargo, tal no es el caso, porque, aunque todos los eventos tienen pequeñas probabilidades, algunas de sus dependencias son demasiado grandes para que la distribución de Poisson sea una buena aproximación. Por ejemplo, porque la probabilidad condicional que voltea 2,...,K + 1 son todas las cabezas dadas que voltea 1,...,K son todas las cabezas es igual a la probabilidad de que voltear K + 1 es una cabeza, sigue que P(H2|H1) = p que es mucho mayor que la probabilidad incondicional de H2. El truco que nos permite utilizar una aproximación de Poisson es notar que habrá una cadena de K cabezas consecutivas, ya sea si hay una cadena que es seguida inmediatamente por una cola o si el final K voltea toda la tierra en la cabeza. En consecuencia, para me = 1...,N − kDejar Eme ser el evento que se voltea i,...,me + K − 1 son todas las cabezas y tirón

Sección 4,7

La variable aleatoria de Poisson

191

me + K es una cola; también, deje En−k+1 ser el evento que se voltea N − K + 1...,N son todas cabezas. Tenga en cuenta que P(Ei) = pk(1 − p),

me ... N − k

P(En−k+1) = pk Por lo tanto, cuando p es pequeño, cada uno de los eventos Eme tiene una pequeña probabilidad de ocurrir. Además, para me Z j, si los eventos Eme Y EJ se refieren a secuencias no superpuestas de voltea- P(Ei|Ej) = P(Ei); Si se refieren a secuencias superpuestas, P(Ei|Ej) = 0. por lo tanto, en ambos casos, el las probabilidades condicionales son cercanas a las incondicionales, indicando que N, el número de eventos Eme que ocurren, deben tener una distribución aproximada de Poisson con K

E

n−k+1(N

− k)pk(1 − p) + pk

i=1

Givesporque no habrá una carrera de K cabezas si (y sólo si) N = 0, así el precedente

P(sin cuerdas de la cabeza de longitud k) = P(N = 0) L Exp−N − k)pk(1 − p) − pk} Si dejamos que LN indican el mayor número de cabezas consecutivas en el N voltea, entonces, porque LN será menor que K Si (y sólo si) no hay cuerdas de la cabeza de longitud k, la ecuación anterior puede escribirse como P{LN < k} L Exp−N − k)pk(1 − p) − pk} Ahora, supongamos que la moneda que se está volcando es justa; es decir, supongamos que P = 1/2. entonces el precedente da P Ln

k

Exp

n

k

2

2k 1

Exp

n 2k 1

k 2 k 1

donde la aproximación final supone que e2 L 1 (es decir, que n, y asumir que J es un entero. Para K = J + i,

0). deje que J = Registro2

Por consiguiente P{LN < J + i} L Exp−1/2)i+1} lo que implica que P{LN = J + i} = P{LN < J + me + 1} − P{LN < J + i} L Exp−1/2)i+2} − Exp−1/2)i+1} Por ejemplo,

Sección 4,7

La variable aleatoria de Poisson

192

P{LN < J − 3} L e−4 L.0183 P{LN = J − 3} L e−2 − e−4 L.1170 P{LN = J − 2} L e−1 − e−2 L.2325 P{LN = J − 1} L e−1/2 − e−1 L.2387 P{LN = j} L e−1/4 − e−1/2 L.1723 P{LN = J + 1} L e−1/8 − e−1/4 L.1037 P{LN = J + 2} L e−1/16 − e−1/8 L.0569 P{LN = J + 3} L e−1/32 − e−1/16 L.0298 P{LN Efectos J + 4} L 1 − e−1/32 L.0308 Por lo tanto, observamos el hecho bastante interesante de que no importa cuán grande N es, la longitud de la carrera más larga de cabezas en una secuencia de N voltea de una moneda justa estará dentro de 2 de registro2(n) − 1 con una probabilidad aproximadamente igual a .86. Ahora obtenemos una expresión exacta para la probabilidad de que haya una cadena de K cabezas consecutivas cuando una moneda que aterriza en cabezas con probabilidad P se volteado N Veces. Con los eventos Ei,me = 1...,N − K + 1, como se definió anteriormente, y con LN denotando, como antes, la longitud del tramo más largo de cabezas, P(LN Efectos k) = P(hay una cadena de K cabezas consecutivas) La identidad de inclusión – exclusión de la probabilidad de una Unión puede escribirse como n−k+1 n

P(∪i=1

r=1

i1<···
1

Eir)

Dejar Sme denotan el conjunto de números Flip a los que el evento Eme Se nombra. (Por ejemplo, S1 = {1...,K + 1}.) Ahora, considere uno de los rprobabilidades de intersección que no incluyen el evento En−k+1. Es decir, considere P(Ei1 ···EY) Donde i1 < ··· < iR < N − K + 1. por un lado, si hay alguna superposición en los conjuntos Si1,...,SY entonces esta probabilidad es 0. Por otro lado, si no hay superposición, entonces los eventos Ei1,...,EY son independientes. Por lo tanto

superposición

P(Ei1 ···Eir) = 0 p0Rk(1 − p)r,Si hay alguna superposición INIF no hay Si1,...,Sir

Sección 4,7

La variable aleatoria de Poisson

193

Ahora debemos determinar el número de diferentes opciones de i1 < ··· < iR < N − K + 1 para el cual no hay superposición en los sets Si1,...,SY. Para ello, observe primero que cada uno de los SIj, J = 1...,r, consulte K + 1 voltea, por lo que, sin ninguna superposición, que juntos se refieren a r(K + 1) Voltea. Ahora considere cualquier permutación de R letras idénticas Un (uno para cada uno de los sets Si1,...,SY−1) y de N − r(K + 1) letras idénticas B (uno para cada uno de los ensayos que no forman parte de Si1,...,SY−1,Sn−k+1). Interpretar el número de bes antes de la primera Un como el número de volteretas antes Si1, el número de bentre la primera y la segunda Un como el número de saltos entre Si1 Y Si2, y así sucesivamente, con el número de bes después de la final Un representando el número de volteretas después SY. permutaciones de R Cartas Un y de N − r(K + 1) Cartas b, con cada tal

Porque hay

permutación correspondiente (en una manera uno-a-uno) a una diversa opción no traslapada, sigue que P

P)r

i

Ahora debemos considerar rprobabilidades de intersección de la forma P(Ei1 ···Eir−1En−k+1), Donde i1 < ··· < ir−1 < N − K + 1. ahora, esta probabilidad será igual a 0 si hay alguna superposición en Si1,...,SY−1,Sn−k; Si no hay superposición, entonces los eventos de la intersección serán independientes, por lo que P(Ei1 ···EY−1En−k+1) = [pk(1 − p)]r−1pK = pKr(1 − p)r−1 Por un argumento similar al anterior, el número de conjuntos no solapados Si1,...,SY−1,Sn−K será igual al número de permutaciones de R − 1 Letras Un (uno para cada uno de los sets Si1,...,SY 1) y de N −R − 1)(K + 1) − K = N − Rk −R − 1) Cartas B (una −

que hay

para cada uno de los ensayos que no forman parte de Si1,...,SY−1,Sn−k+1). Dado permutaciones de R − 1 Letras Un y de N − Rk −R − 1) Cartas bTenemos Pp)r−1 i1<...
Poner todo junto produce la expresión exacta, a saber, n

P(LN Efectos k) =

pKr(1 − p)r

Sección 4,7

La variable aleatoria de Poisson

194

donde utilizamos la Convención que 0 si M < j. Desde un punto de vista computacional, un método más eficiente para calcular la probabilidad deseada que el uso de la identidad precedente es derivar un conjunto de ecuaciones recursivas. Para ello, deje que AN ser el caso de que hay una cadena de K cabezas consecutivas en una secuencia de N voltea de una moneda justa, y dejar PN = P(An). Derivaremos un conjunto de ecuaciones recursivas para PN por condicionamiento cuando aparece la primera cola. Para J = 1...,kDejar FJ ser el caso de que la primera cola aparece en la FLIP j, y deje que H ser el evento que el primer K los volteretas son todas cabezas. Debido a que los eventos F1,...,Fk,H son mutuamente excluyentes y exhaustivos (es decir, exactamente uno de estos eventos debe ocurrir), tenemos k

P

P(An|Fj)P(Fj) + P(An|H)P(H) j=1

Ahora, dado que la primera cola aparece en el tirón jDonde J < k, se deduce que los J los volteretas se desperdician hasta obtener una cadena de K cabezas seguidas; por lo tanto, la probabilidad condicional de este evento es la probabilidad de que dicha cadena se produzca entre los restantes N − J Voltea. Por lo tanto P(An|Fj) = Pn−j Kuz P(An|H) = 1, la ecuación precedente da PN = P(An) k

Pn−J P(Fj) + P(H) j=1

P) + pk j=1

Comenzando con PJ = 0 J < kY PK = pk, podemos utilizar esta última fórmula para calcular recursivamente Pk+1,Pk+2, y así sucesivamente, hasta Pn. Por ejemplo, supongamos que queremos la probabilidad de que haya una ejecución de 2 cabezas consecutivas cuando una moneda justa se volteado 4 veces. Entonces, con K = 2, tenemos P1 = 0 P2 = (1/2)2. Porque, cuando P = 1/2, la recursividad se convierte en k

Pn

k

obtenemos P3 = P2(1/2) + P1(1/2)2 + (1/2)2 = 3/8

Sección 4,7

La variable aleatoria de Poisson

195

Y P4 = P3(1/2) + P2(1/2)2 + (1/2)2 = 1/2 que es claramente cierto porque hay 8 resultados que resultan en una cadena de 2 cabezas consecutivas: Hhhh, el hhht, hhth, hthh, thhh, hhtt, thhtY tthh. Cada uno de estos resultados se produce con la probabilidad 1/16. . Otro uso de la distribución de probabilidad de Poisson surge en situaciones donde los "eventos" ocurren en ciertos momentos en el tiempo. Un ejemplo es designar la ocurrencia de un terremoto como un acontecimiento; otra posibilidad sería que los eventos correspondieran a personas que ingresen a un establecimiento en particular (Banco, oficina de correos, gasolinera, etc.); y una tercera posibilidad es que un evento ocurra cada vez que se inicie una guerra. Supongamos que los acontecimientos ocurren de hecho en ciertos puntos de tiempo (al azar), y Supongamos que, para algunas constantes positivas λ, las siguientes suposiciones son verdaderas: 1. La probabilidad de que se produzca exactamente 1 evento en un intervalo de longitud determinado H es igual a λH + o(h)Donde o(h) soportes para cualquier función f(h) para que Lim→ f(h)/H = 0. h

0

[Por ejemplo, f(h) = h2 Es o(h)Que f(h) = H no lo es.] 2. La probabilidad de que se produzcan 2 o más eventos en un intervalo de longitud H es igual a o(h). 3. Para todos los enteros n, j1, j2,..., jN y cualquier conjunto de N intervalos no solapados, si definimos Eme para ser el evento que exactamente jme de los acontecimientos considerados se ide estos intervalos, los eventos E1,E2,...,EN son independientes. Puesto libremente, los supuestos 1 y 2 afirman que, para los valores pequeños de h, la probabilidad de que se produzca exactamente 1 evento en un intervalo de tamaño H Iguales λH más algo que es pequeño en comparación con h, mientras que la probabilidad de que ocurran 2 o más eventos es pequeña en comparación con h. La asunción 3 indica que lo que ocurra en un intervalo no tiene ningún efecto (probabilidad) sobre lo que ocurrirá en otros intervalos no superpuestos. Ahora mostramos que, bajo supuestos 1, 2 y 3, el número de eventos que ocurren en cualquier intervalo de longitud T es una variable aleatoria de Poisson con parámetro λt. Para ser precisos, llamemos al intervalo [0, t] y denotan el número de eventos que ocurren en ese intervalo N(t). Para obtener una expresión para P{N(t) = k}, empezamos rompiendo el intervalo [0, t] en N subintervalos no solapados, cada uno de longitud T/N (Figura 4,7). Nwo P{N(t) = k} = P{K Dela N los subintervalos contienen exactamente 1 evento y el otro N − K contener 0 eventos}

(7,2)

+ P{N(t) = K y al menos 1 subintervalo contiene 2 o más eventos}

Sección 4,7

La variable aleatoria de Poisson

196

La ecuación proceder sostiene porque el acontecimiento en el lado izquierdo de la ecuación (7,2), es decir, {N(t) = k}, es claramente igual a la Unión de los dos eventos mutuamente excluyentes

0 –T — 2Nt — 3Nt

–T t

= —Ntn n

(n 1 n

FIGURA 4,7

en el lado derecho de la ecuación. Dejar Un Y B denotan los dos eventos mutuamente excluyentes en el lado derecho de la ecuación (7,2), P(B) ...

P{al menos un subintervalo contiene 2 o más eventos}

=

P{iésimo subintervalo contiene 2 o más eventos} ⎞ n



... P{iésimo subintervalo contiene 2 o más eventos}

por

Boole's Desigualdad i=1

o

por Asunción 2

i=1

= = t

t n o t n t n

no

Ahora, además de cualquier t,t/n→0 como n→qAsí o(t/n)/(t/n)→0 como n→q, por el definiciónción de o(h). Ahí P(B)→0 Como n→q

(7,3)

Sección 4,7

La variable aleatoria de Poisson

197

Además, dado que las hipótesis 1 y 2 implican que1 P{0 eventos ocurren en un intervalo de longitud h} = 1 − [λH + o(h) + o(h)] = 1 − lH − o(h) vemos desde la asunción de la independencia (número 3) que P(A) = P{K de los subintervalos contienen exactamente 1 evento y el otro N − K contener 0 eventos}

n−k

Sin embargo, dado que

t Como n→q

n

sigue, por el mismo argumento que verificó la aproximación de Poisson al binomio, que λT (lt)kComo

n→q P(A)→e−

(7,4)

k!

Así, desde ecuaciones (7,2), (7,3), y (7,4), dejando n→q, obtenemos

P{N(t) = k} = e−λT

(l

t)k

K = 0, 1,...

(7,5) k!

Por lo tanto, si se satisfacen las suposiciones 1, 2 y 3, entonces el número de eventos que ocurren en cualquier intervalo fijo de longitud T es una variable aleatoria de Poisson con la media λt, y decimos que los eventos ocurren de acuerdo con un proceso de Poisson que tiene tasa λ. El valor λ, que puede mostrarse igual a la tasa por unidad de tiempo en el que ocurren los eventos, es una constante que debe determinarse empíricamente. La discusión anterior explica por qué una variable aleatoria de Poisson suele ser una buena aproximación para fenómenos tan diversos como los siguientes: 1. El número de terremotos ocurridos durante un lapso de tiempo fijo 2. El número de guerras por año 3. El número de electrones emitidos por un cátodo calentado durante un período de tiempo fijo

1

La suma de dos funciones, ambas o(h), también se o(h). Esto es así porque si Limh→0 f(h)/H = Limh→0 g(h)/H = 0, luego Limh→0[f(h) + g(h)]/H = 0.

Sección 4,7

La variable aleatoria de Poisson

198

4. El número de muertes, en un período de tiempo determinado, de los asegurados de una compañía de seguro de vida EJEMPLO 7e Supongamos que los terremotos ocurren en la parte occidental de los Estados Unidos de acuerdo con los supuestos 1, 2 y 3, con L = 2 y con 1 semana como la unidad de Time. 2 (Es decir, los terremotos ocurren de acuerdo con las tres hipótesis a una tasa de por semana.) (a) Encuentre la probabilidad de que al menos 3 terremotos ocurran durante las próximas 2 semanas. (b) Encontrar la distribución de probabilidad del tiempo, empezando desde ahora, hasta el nextearthquake. Solución. (a) de la ecuación (7,5), hemos P{N(2) el 3} = 1 − P{N(2) = 0} − P{N(2) = 1} − P{N(2) = 2}

(b) deje X denotan la cantidad de tiempo (en semanas) hasta el siguiente terremoto. Kuz X será mayor que T Si no ocurren eventos en el siguiente T unidades de tiempo, tenemos, de la ecuación (7,5), P{X > t} = P{N(t) = 0} = e−λt por lo que la función de distribución de probabilidad F de la variable aleatoria X es dada por F(t) = P{X ... t} = 1 − P{X > t} = 1 − e−λt = 1 − e−2t

4.7.1

.

Cálculo de la función de distribución de Poisson

Si X es Poisson con parámetro λEntonces

P{X = me + 1} = e−λλei+−1λ/(λii/i+! 1)! = me + L 1 P{X = i}

(7,6)

Sección 4,8

Otras distribuciones de probabilidades discretas 199

Comenzando con P{X = 0} = e−λ, podemos utilizar (7,6) para computar sucesivamente P{X = 1} = LP{X = 0} P

P{X = me + El sitio web incluye un programa que utiliza la ecuación (7,6) para calcular las probabilidades de Poisson. EJEMPLO 7F (a) Determinar P{X ... 90} Cuando X es Poisson con la media de 100. (b) Determinar P{Y ... 1075} Cuando Y es Poisson con la media de 1000. Solución. Desde el sitio web, obtenemos las soluciones: (a) P{X ... 90Lla.1714; (b) P{Y ... 1075Lla.9894. .

4,8OTRAS DISTRIBUCIONES DE PROBABILIDAD DISCRETAS 4.8.1

La variable aleatoria geométrica

Supongamos que los ensayos independientes, cada uno con una probabilidad p, 0 < P < 1, de ser un éxito, se realizan hasta que se produzca un éxito. Si dejamos que X igual al número de ensayos requeridos, P{X = n} = (1 − p)n−1p N = 1, 2,... (8,1) La ecuación (8,1) sigue porque, con el fin de X a igual n, es necesario y suficiente que la primera N − 1 los ensayos son fallos y el nel juicio es un éxito. La ecuación (8,1) sigue a continuación, ya que se asume que los resultados de los ensayos sucesivos son independientes. Desde q

q

− p)n−1 =

− P −= 1 1

n=1

(1

p)

n=1

se deduce que, con la probabilidad 1, eventualmente se producirá un éxito. Cualquier variable aleatoria X cuya función de probabilidad de masa es dada por la ecuación (8,1) se dice que es un Geométrica variable aleatoria con parámetro p. EJEMPLO 8A

Sección 4,8

Otras distribuciones de probabilidades discretas 200

Una urna contiene N blanco y M bolas negras. Las bolas se seleccionan aleatoriamente, una a la vez, hasta que se obtiene una negra. Si asumimos que cada bola seleccionada se sustituye antes de que se dibuja la siguiente, ¿cuál es la probabilidad de que (a) exactamente N se necesitan los sorteos? b) al menos K se necesitan los sorteos? Solución. Si dejamos que X indican el número de sorteos necesarios para seleccionar una pelota negra, X satisface la ecuación (8,1) con P = M/(M + N). Ahí un n−1

P{X = n} = N)n

b qn−1

P{X Efectos k} = M n=k

k−1

Por supuesto, la parte b podría haberse obtenido directamente, ya que la probabilidad de que al menos K los ensayos son necesarios para obtener un éxito es igual a la probabilidad de que el primer K − 1 ensayos son todos los fracasos. Es decir, para una variable aleatoria geométrica, P{X Efectos k} = (1 − p)k−1 EJEMPLO 8B Encuentre el valor esperado de una variable aleatoria geométrica. Solución. Con Q = 1 − pTenemos q

E

Iqi−1p i= q1

.

Sección 4,8

Otras distribuciones de probabilidades discretas 201

p i= q1

q

i= q1

i=1

Qi−1p

JqjP + 1 j=0 q

Ahí En[X] = 1 produciendo el resultado 1 E[X] = p En otras palabras, si los ensayos independientes que tienen una probabilidad común P de tener éxito se realizan hasta que se produzca el primer éxito, entonces el número esperado de ensayos requeridos equivale a 1/p. Por ejemplo, el número esperado de rollos de un dado justo que se tarda en obtener el valor 1 es 6. . EJEMPLO 8C Encuentra la varianza de una variable aleatoria geométrica. Solución. Para determinar var(X), primero computamos E[X2]. Con Q = 1 − pTenemos q

E

p q

p q

q

qi−1p

(me q

q

q

JqjP + 1 = Qe[X2] + 2Qe[X] + 1 Usando E[X] = 1/p, la ecuación para E[X2] rendimientos

Sección 4,8

Otras distribuciones de probabilidades discretas 202

2Q

En[X2] =

+1

p Ahí E[X2] = 2Q + P = Q + 1 p2 p2 dando el resultado q Fue(X) =

4.8.2

1 + p2

1 −

q =

p2

1 =

p2

p − p2

.

La variable aleatoria binomial negativa

Supongamos que los ensayos independientes, cada uno con probabilidad p, 0 < P < 1, de ser un éxito se realizan hasta un total de R se acumula el éxito. Si dejamos que X igual al número de ensayos requeridos, r

P

N = r,R + 1...

(8,2)

La ecuación (8,2) sigue porque, en orden para el rque el éxito ocurra en el nel juicio, debe haber R − 1 éxitos en la primera N − 1 ensayos y el nel juicio debe ser un éxito. La probabilidad del primer evento es r

y la probabilidad de la segunda es p; por lo tanto, por la independencia, se establece la ecuación (8,2). Para verificar que un total de R los éxitos deben eventualmente ser acumulados, o podemos probar analíticamente que q

q

pr(1 − p)n−R = 1 n=r

(8,3)

n=r

o podemos dar un argumento probabilístico de la siguiente manera: el número de ensayos requeridos para obtener R los éxitos se pueden expresar como Y1 + Y2 + ··· + YrDonde Y1 es igual al número de ensayos requeridos para el primer éxito, Y2 el número de ensayos adicionales después del primer éxito hasta que se produzca el segundo éxito, Y3 el número de ensayos adicionales hasta el tercer éxito, y así sucesivamente. Debido a que los juicios son independientes y todos tienen la misma probabilidad de éxito, se deduce que Y1,Y2,...,YR son todos geométricos r variables aleatorias. Por lo tanto, cada uno es finito con la probabilidad 1, por lo Yme también debe ser finito, estableciendo la ecuación (8,3). Cualquier variable aleatoria X cuya función de probabilidad de masa es dada por la ecuación (8,2) se dice que es un binomio negativo variable aleatoria con parámetros (r, p).

Sección 4,8

Otras distribuciones de probabilidades discretas 203

Observe que una variable aleatoria geométrica es sólo un binomio negativo con el parámetro (1, p). En el siguiente ejemplo, usamos el binomio negativo para obtener otra solución del problema de los puntos. EJEMPLO 8D Si los ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p, ¿cuál es la probabilidad de R éxitos que ocurren antes M ¿Fallas? Solución. Se llega a la solución señalando que la R los éxitos se producirán antes de M fallos Si y sólo si el rel éxito no se produce más tarde que el (R 1) el juicio. Esto sigue porque si el rel éxito se produce antes o en el (R 1) TH juicio, entonces debe haber ocurrido antes de la mfracaso, y por el contrario. Por lo tanto, de la ecuación (8,2), la probabilidad deseada es

r+

m−1 pr(1

− p)n−r

.

EJEMPLO 8e el problema del partido de Banach En todo momento, un matemático que fuma pipa lleva 2 matchboxes — 1 en su bolsillo izquierdo y 1 en su bolsillo de la mano derecha. Cada vez que necesita un fósforo, es igualmente probable que lo tome de cualquier bolsillo. Considere el momento en que el matemático descubre primero que una de sus cajas de fóspartidos está vacía. Si se asume que ambos fósforos inicialmente contenían N coincide, ¿cuál es la probabilidad de que hay exactamente K Partidos K = 0, 1,...,N, en la otra caja? Solución. Dejar Y denotan el acontecimiento que el matemático primero descubre que la caja de certera derecha está vacía y que hay K las coincidencias en la caja de la izquierda en el momento. Ahora, este evento se producirá si y sólo si el (N + 1)la elección de la caja de certera derecha se hace en el (N + 1 + N − k) el juicio. Por lo tanto, de la ecuación (8,2) (con p

1, y N = 2N − K + 1), vemos que k+1

P(E) = Puesto que hay una probabilidad igual de que es la caja de la izquierda que se descubre primero para estar vacía y hay K las coincidencias en la caja derecha en ese momento, el resultado deseado es k

. EJEMPLO 8F Calcular el valor esperado y la varianza de una variable aleatoria binomial negativa con parámetros R Y p. Solución. Tenemos

Sección 4,8

Otras distribuciones de probabilidades discretas 204

Pr(1 − p)n−r

E[Xk] =

q

= r

r

Desde n p

n qestableciendo

= R (Mpr+1(1 − p)m−r+1) M = N + 1 P m=r+1

= R E[(Y − 1)k−1] p Donde Y es una variable aleatoria binomial negativa con parámetros R + 1p. Ajuste K = 1 en la ecuación anterior rinde r E[X] = p Ajuste K = 2 en la ecuación para E[Xk] y el uso de la fórmula para el valor esperado de una variable aleatoria binomial negativa da

E [X 2 ]

r E [Y 1 p r r 1 p p

1

Por lo tanto

= r(1 − p) p2. Así, del ejemplo 8F, si los ensayos independientes, cada uno de los cuales es un éxito con probabilidad p, se realizan, a continuación, el valor esperado y la varianza del número de ensayos que se necesita para amasar R éxitos es r/p Y r(1 − p)/p2Respectivamente. Dado que una variable aleatoria geométrica es sólo un binomio negativo con parámetro R = 1, se deduce del ejemplo anterior que la varianza de una variable aleatoria geométrica con parámetro P es igual a (1 − p)/p2, que comprueba con el resultado del ejemplo 8C. EJEMPLO 8g Encontrar el valor esperado y la varianza del número de veces que uno debe lanzar un dado hasta que el resultado 1 ha ocurrido 4 veces. Solución. Dado que la variable aleatoria de interés es un binomio negativo con parámetros R=4yp

, se deduce que

Sección 4,8

Otras distribuciones de probabilidades discretas 205

E[X] = 24

. 4.8.3

La variable aleatoria hipergeométrica

Supongamos que una muestra de tamaño N debe elegirse aleatoriamente (sin sustitución) de una urna que contenga N bolas, de los cuales M son blancos y N − M son de color negro. Si dejamos que X indican el número de bolas blancas seleccionadas,

P{X = i} =

,n

(8,4)

Una variable aleatoria X cuya función de masa de probabilidad es dada por la ecuación (8,4) para algunos valores de n, N, M se dice que es un Hipergeométrica variable aleatoria. Observación. Aunque hemos escrito la función de masa de probabilidad hipergeométrica con me pasando de 0 a n,P{X = i} en realidad será 0, a menos que me satisface las desigualdades N −N − m) ... me ... Min(n,m). Sin embargo, la ecuación (8,4) siempre es válida debido a nuestra Convención que

es igual a 0 cuando cualquiera K

< 0 o R < k. . EJEMPLO 8H Un número desconocido, digamos, N, de animales habitan en una determinada región. Para obtener información sobre el tamaño de la población, los ecologistas suelen realizar el siguiente experimento: primero capturan un número, digamos, m, de estos animales, marcarlos de alguna manera, y liberarlos. Después de permitir que los animales marcados tiempo para dispersarse en toda la región, una nueva captura de tamaño, digamos, n, se hace. Dejar X denotan el número de animales marcados en esta segunda captura. Si suponemos que la población de animales en la región permaneció fija entre el momento de las dos capturas y que cada vez que un animal fue capturado era igualmente probable que fuese cualquiera de los animales no capturados restantes, se deduce que X es una variable aleatoria hipergeométrica tal que

P{X = i} =

K Pi(N)

Supongamos ahora que X se observa que es igual a i. Entonces, desde Pi(N) representa la probabilidad del suceso observado cuando en realidad hay N animales presentes en la región, parecería que una estimación razonable de N sería el valor de N que maximiza Pi(N). Tal estimación se denomina máxima verosimilitud Estimación. (Véase la

Sección 4,8

Otras distribuciones de probabilidades discretas 206

Ejercicios 13 y 18 para otros ejemplos de este tipo de procedimiento de estimación.) La maximización de Pi(N) se puede hacer más simplemente señalando primero que Pi(N) (N − m)(N − n) Pi(N − 1) = N(N − M − N + i) Ahora, la relación anterior es mayor que 1 si y sólo si (N − m)(N − n) el N(N − M − N + i) o, de manera equivalente, si y sólo si N ... Mn i Así Pi(N) primero aumenta y luego disminuye, y alcanza su valor máximo en el mayor valor integral que no exceda MN/i. Este valor es la estimación de máxima verosimilitud de N. Por ejemplo, supongamos que la captura inicial consistía en M = 50 animales, que están marcados y luego liberados. Si una captura subsiguiente consiste en N = 40 animales de los cuales me = 4 están marcados, entonces estimamos que hay unos 500 animales en la región. (Observe que la estimación precedente también podría haberse obtenido asumiendo que la proporción de animales marcados en la región, M/N, es aproximadamente igual a la proporción de animales marcados en nuestra segunda captura, i/n.) . EJEMPLO 8i Un comprador de componentes eléctricos los compra en un montón de tamaño 10. Es su política para inspeccionar 3 componentes aleatoriamente de un lote y para aceptar el lote sólo si los 3 son no defectuosos. Si el 30 por ciento de los lotes tiene 4 componentes defectuosos y 70 por ciento tiene sólo 1, ¿qué proporción de lotes rechaza el comprador? Solución. Dejar Un denotan el evento que el comprador acepta mucho. Nwo P(A) = P(A|Lot tiene 4 defectuosos)

Por lo tanto, 46 por ciento de los lotes son rechazados.

lote tiene 1 defectuoso)

.

Si N las bolas se eligen aleatoriamente sin el reemplazo de un sistema de N bolas de los cuales la fracción P = m/N es blanco, entonces el número de bolas blancas seleccionadas es hipergeométrica. Ahora, parecería que cuando M Y N son grandes en relación con n, no debe hacer mucha diferencia si la selección se está haciendo con o sin el reemplazo, porque, no importa qué bolas se han seleccionado previamente, cuando M Y N son grandes, cada selección adicional será blanca con una probabilidad aproximadamente igual a p. En otras palabras, parece intuitivo que cuando M Y N son grandes en relación con n, la función de

Sección 4,8

Otras distribuciones de probabilidades discretas 207

masa de probabilidad de X debe ser aproximadamente la de una variable aleatoria binomial con parámetros N Y p. Para verificar esta intuición, tenga en cuenta que si X es hipergeométrica, entonces, para me ... n,

P{X = i} = =

(N − m)!

m!

(N − n)! n!

(M − i)! i! (N − M − N + i)! (N − i)! N! M N − M − 1 m m 1 m i 1 N n i N − me − 1 i NN 1 N i 1 N N m n i 1 − − − − N i n i 1 Cuando P = m/N Y M Y N Son Li

grande en relación

con N Y i EJEMPLO 8J Determine el valor esperado y la varianza de X, una variable aleatoria hipergeométrica con parámetros n, NY m. Solución. n

E

ik

N

Uso de las identidades

i

Y

n

obtenemos

Nm

E[Xk] =



− N i

1

n

i

n

1 i=1



Sección 4,8

Otras distribuciones de probabilidades discretas 208

Nm =N

N−1−j

j

N−1

j=0

= Nm

E[(Y + 1)k−1] N

Donde Y es una variable aleatoria hipergeométrica con parámetros N − 1 N − 1, y M − 1. por lo tanto, al establecer K = 1, tenemos Nm N

E[X] =

En palabras, si N las bolas se seleccionan aleatoriamente de un conjunto de N bolas, de los cuales M son blancos, entonces el número esperado de bolas blancas seleccionadas es NM/N. Al establecer K = 2 en la ecuación para E[Xk], obtenemos

E [Y Nm N

n

1 1 m N 1

1

1

E[X2] = NM N

donde la igualdad final utiliza nuestro resultado anterior para calcular el valor esperado de la variable aleatoria hipergeométrica Y. Kuz E[X] = Nm/N, podemos concluir que

Dejar P = m/N y usando la identidad M − − 1 = Eg − − 1 = − 1 −−p p N

1

N

1

N

1

muestra que

.

Sección 4,8

Otras distribuciones de probabilidades discretas 209

Observación. Hemos mostrado en el ejemplo 8J que si N las bolas se seleccionan aleatoriamente sin el reemplazo de un sistema de N bolas, de los cuales la fracción P son blancos, entonces el número esperado de bolas blancas elegidas es Eg. Además, si N es grande en relación con N [para que (N − n)/(N − 1) es aproximadamente igual a 1], Fue(X) L Eg(1 − p) En otras palabras, E[X] es el mismo que cuando la selección de las bolas se hace con el reemplazo (de modo que el número de bolas blancas es binomial con los parámetros N Y p), y si la colección total de bolas es grande, entonces var(X) es aproximadamente igual a lo que sería si la selección se hizo con el reemplazo. Esto es, por supuesto, exactamente lo que habríamos adivinado, dado nuestro resultado anterior que cuando el número de bolas en la urna es grande, el número de bolas blancas elegidas aproximadamente tiene la función de masa de una variable aleatoria binomial. . 4.8.4

La distribución Zeta (o Zipf)

Se dice que una variable aleatoria tiene una distribución Zeta (a veces denominada Zipf) si su función de masa de probabilidad es dada por C P{X = k} =

K = 1, 2,... kA +1

por algún valor de " 0. como la suma de las probabilidades anteriores debe ser igual a 1, se deduce que

C La distribución Zeta debe su nombre al hecho de que la función s

+ ··· se conoce en disciplinas matemáticas como la función Zeta de Riemann (después del matemático alemán g. f. b. Riemann). La distribución Zeta fue utilizada por el economista italiano V. Pareto para describir la distribución de los ingresos familiares en un país determinado. Sin embargo, fue g. k. Zipf quien aplicó la distribución Zeta a una amplia variedad de problemas en diferentes áreas y, al hacerlo, popularizó su uso. 4,9VALOR ESPERADO DE LAS SUMAS DE VARIABLES ALEATORIAS Una propiedad muy importante de las expectativas es que el valor esperado de una suma de variables aleatorias es igual a la suma de sus expectativas. En esta sección, demostraremos este resultado suponiendo que el conjunto de valores posibles del experimento de probabilidad, es decir, el espacio de muestra S— sea finito o infinitamente infinito. Aunque el resultado es verdadero sin esta suposición (y una prueba se describe en los ejercicios teóricos), no sólo la suposición simplificará el argumento, sino que también resultará en una prueba esclarecedora que agregará a nuestra intuición sobre las expectativas. Por lo tanto,

Sección 4,8

Otras distribuciones de probabilidades discretas 210

para el resto de esta sección, supongamos que el espacio de muestra S es un conjunto finito o infinito. Para una variable aleatoria XDejar X(s) denotan el valor de X Cuando s ∈ S es el resultado del experimento. Ahora, si X Y Y son ambas variables aleatorias, entonces también lo es su suma. Es decir Z = X + Y también es una variable aleatoria. Además Z(s) = X(s) + Y(s). EJEMPLO 9A Supongamos que el experimento consiste en voltear una moneda 5 veces, siendo el resultado la secuencia resultante de cabezas y colas. Supongo X es el número de cabezas en los primeros 3 volteretas y Y es el número de cabezas en los 2 volteretas finales. Dejar Z = X + Y. Entonces, por ejemplo, para el resultado s = (h,t,h,t,h), X(s) = 2 Y(s) = 1 Z(s) = X(s) + Y(s) = 3 lo que significa que el resultado (h,t,h,t,h) da como resultado 2 cabezas en los primeros tres volteretas, 1 cabeza en los dos últimos volteretas, y un total de 3 cabezas en los cinco volteretas. . Dejar p(s) = P({s}) ser la probabilidad de que s es el resultado del experimento. Porque podemos escribir cualquier evento Un como la Unión finita o infinitamente infinita de los eventos mutuamente excluyentes {s},s ∈ A, sigue por los axiomas de la probabilidad que P s∈A

Cuando Un = S, la ecuación anterior da s∈S

211 Sección 4,9

Valor esperado de sumas de variables aleatorias

Ahora, deja que X ser una variable aleatoria, y considerar E[X]. Kuz X(s) es el valor de X Cuando s es el resultado del experimento, parece intuitivo que E[X] — la media ponderada de los posibles valores de X, con cada valor ponderado por la probabilidad de que X asume que el valor — debe ser igual a una media ponderada de los valores X(s),s ∈ SCon X(s) ponderada por la probabilidad de que s es el resultado del experimento. Ahora demostramos esta intuición. Propuesta 9,1. E s∈S

Prueba. Supongamos que los valores distintos de X Son xi,me Efectos 1. Para cada iDejar Sme ser el evento que X es igual a xi. Es decir Sme = {s : X(s) = xi}. Entonces E i

i

i

s∈Si

i

s∈Si

i

s∈Si

s∈S

donde la igualdad final sigue porque S1,S2,... son eventos mutuamente excluyentes cuya unión es S. EJEMPLO 9B Supongamos que dos volteretas independientes de una moneda que sube cabezas con probabilidad P se hacen, y dejar X denotan el número de cabezas obtenidas. Kuz P(X = 0) = P(t,t) = (1 − p)2, P(X = 1) = P(h,t) + P(t,h) = 2p(1 − p) P(X = 2) = P(h,h) = p2 se deduce de la definición de valor esperado que E[X] = 0 · (1 − p)2 + 1 · 2p(1 − p) + 2 · p2 = 2p que está de acuerdo con

212

E[X] = X(h,h)p2 + X(h,t)p(1 − p) + X(t,h)(1 − p)P + X(t,t)(1 − p)2 = 2p2 + p(1 − p) + (1 − p)p = 2p

.

Ahora demostramos el resultado importante y útil de que el valor esperado de una suma de variables aleatorias es igual a la suma de sus expectativas. Corolario 9,2. Para variables aleatorias X1,X2,...,Xn,

E Prueba. Dejar Z

n

i=1

Xi. Entonces, por la Proposición 9,1,

E s∈S

s∈S

s∈S

s∈S

s∈S

= E[X1] + E[X2] + ... + E[Xn]

.

EJEMPLO 9c Encuentre el valor esperado de la suma obtenida cuando N los dados justos se enrollan. Solución. Dejar X ser la suma. Calcularemos E[X] mediante el uso de la representación n

X

Xi

Donde Xme es el valor hacia arriba en muere i. Kuz Xme es igualmente probable que sea cualquiera de los valores de 1 a 6, se deduce que E i=1

que produce el resultado n

E[X] = E⎤

n

n .

EJEMPLO 9D

213

Encuentre el número total esperado de éxitos que resultan de N ensayos durante el juicio me es un éxito con probabilidad pi, me = 1...,n. Solución. Dejar Xme

=%0 Si el juicio me es un fracaso 1, Si el juicio me es un éxito

Tenemos la representación n

X Sección 4,9

Xi

Valor esperado de sumas de variables aleatorias

Por consiguiente n

E

n

Pi

Tenga en cuenta que este resultado no requiere que los ensayos sean independientes. Incluye como caso especial el valor esperado de una variable aleatoria binomial, que asume ensayos independientes y todos los pme = py, por lo tanto, significa Eg. También da el valor esperado de una variable aleatoria hipergeométrica que representa el número de bolas blancas seleccionadas cuando N las bolas se seleccionan aleatoriamente, sin el reemplazo, de una urna de N bolas de los cuales M son de color blanco. Podemos interpretar la hipergeométrica como la representación del número de éxitos en N ensayos, donde el juicio me se dice que es un éxito si el ila bola seleccionada es blanca. Debido a que el ila bola seleccionada es igualmente probable que N bolas y por lo tanto tiene probabilidad m/N de ser blanco, se deduce que la hipergeométrica es el número de éxitos en N ensayos en los que cada ensayo es un éxito con probabilidad P = m/N. Por lo tanto, a pesar de que estos ensayos hipergeométricos son dependientes, se deduce del resultado del ejemplo 9D que el valor esperado de la hipergeométrica es Eg = Nm/N. . EJEMPLO 9e Derivar una expresión para la varianza del número de ensayos exitosos en el ejemplo 9d, y aplicarlo para obtener la varianza de una variable aleatoria binomial con parámetros N Y p, y de una variable aleatoria hipergeométrica igual al número de bolas blancas elegidas cuando N las bolas se eligen aleatoriamente de una urna que contiene N bolas de los cuales M son de color blanco. Solución. Dejar X ser el número de ensayos exitosos, y el uso de la misma representación = para Xa saber X ni=1 Xi— como en el ejemplo anterior, hemos

214

⎡⎛n

=

⎞⎛n ⎞⎤

E[X2] E

n

⎛Xme

=E

X

jZi

=

Y XiXj⎤ n ⎣i=1

n i=1 jZi

n



n

i=1

i=1 jZi n

[XiXj] i

(9,1)

i=1 jZi

donde la ecuación final utilizó que Xi2 = Xi. Sin embargo, debido a que los valores posibles de ambos Xme Y XJ son 0 o 1, se deduce que

XiXJ = % 01,otherwiseif Xme = 1XJ = 1 Ahí E[XiXj] = P{Xme = 1XJ = 1} = P(Ensayos me Y J son éxitos) Ahora, por un lado, si X es binomial, entonces, para me Z j, los resultados de la prueba me y el juicio J son independientes, siendo cada uno un éxito con probabilidad p. Por lo tanto E[XiXj] = p2,

me Z j

Junto con la ecuación (9,1), la ecuación anterior muestra que, para una variable aleatoria binomial X, E[X2] = Eg + n(N − 1)p2 implicando que Fue(X) = E[X2] −E[X])2 = Eg + n(N − 1)p2 − n2p2 = Eg(1 − p) Por otro lado, si X es hipergeométrica, entonces, dado que una bola blanca es elegida en el juicio i, cada uno de los otros N − 1 bolas, de las cuales M − 1 son blancos, es igualmente probable que sea el jbola elegida, para J Z i. En consecuencia, para J Z i, Mm

1

215

−−

P{Xme = 1XJ = 1} = P{Xme = 1}P{XJ = 1|Xme = 1} = NN

1

Usando pme = m/N, obtenemos ahora, de la ecuación (9,1),

E[X2] =

Nm

Mm

+ n(N − 1)

N

−−

1

NN

1

Por consiguiente Nm Fue(X) =

NN + n(N − 1) − 1

−N

Mm

N

que, como se muestra en el ejemplo 8J, se puede simplificar para producir

Donde P = m/N.

.

4,10PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA Recordemos que, para la función de distribución F De X, F(b) indica la probabilidad de que la variable aleatoria X adquiere un valor menor o igual que b. A continuación se presentan algunas propiedades de la función de distribución acumulativa (c.d.f.) F: 1. F es una función no decreciente; es decir, si Un < bEntonces F(a) ... F(b). 2. Lim F(b) = 1. b→Q 3. el LIM F(b) = 0. b

→−q

4. F es continua correcta. Es decir, para cualquier B y cualquier secuencia decreciente bn,N Efectos 1 que converge a bLim F(bn) = F(b). n→q La propiedad 1 sigue, como se indicó en la sección 4,1, porque, Un < b, el evento {X ... a} está contenida en el evento {X ... b} y por lo tanto no puede tener una mayor probabilidad. Las propiedades 2, 3 y 4 se siguen desde la propiedad de continuidad de las probabilidades Sección 4,10

Propiedades de la función de distribución acumulativa

(Sección 2,6). Por ejemplo, para probar la propiedad 2, observamos que si bN aumenta a q, los eventos {X ... bn},N Efectos 1, están aumentando los eventos cuya unión es el evento {X < q}. Por lo tanto, por la propiedad de continuidad de las probabilidades, n→Q {X ... bn} = P{X < q} = 1 Lim P que prueba la propiedad 2. La prueba de la propiedad 3 es similar y se deja como un ejercicio. Para probar la

propiedad 4, observamos que si bN disminuye a bEntonces {X ... bn},N Efectos 1, están

216

disminuyendo los eventos cuya intersección es {X ... b}. La propiedad de continuidad, a continuación, produce LimP{X ... bn} = P{X ... b} n que verifica la propiedad 4. Todas las preguntas de probabilidad sobre X puede ser respondida en términos de la c.d.f., F. Por ejemplo, P{Un < X ... b} = F(b) − F(a) para todos Un < b (8,1)

los eventsThis mutuamente excluyentes esta ecuación se puede ver mejor para sostener si escribimos el evento{X ... a} Y {Un < X {X ... b} como la Unión de ... b}. Es decir {X ... b} = {X ... a∪Un < X ... b} Así P{X ... b} = P{X ... a} + P{Un < X ... b} que establece la ecuación (9,1). Si queremos calcular la probabilidad de que X es estrictamente inferior a b, podemos aplicar de nuevo la propiedad de continuidad para obtener

P{X < b} = P

=n

X ... B

X ... B

=n Tenga en cuenta que P{X X< Igualesb} no es necesariamente igualb. F(b)Desde F(b) también incluye la probabilidad de que EJEMPLO 10A La función de distribución de la variable aleatoria X es dada por

F

... X < 2 ... X < 3

217

... x F(x)

1 11 — 12 2– 3 1– 2

1

2

3

x

FIGURA 4,8: Gráfico de F(x).

Un gráfico de F(x) se presenta en la figura 4,8. Calcular (a) P{X < 3}, (b) P{X = 1}, (c) P Solución.

y (d) P{2 < X ... 4}. un P{X < 3} = LimP n

b P{X = 1} = P{X ... 1} − P{X < 1}

c

P

X…

De P{2 < X … .

Resumen Una función de valor real definida en el resultado de un experimento de probabilidad se denomina variable aleatoria. Si X es una variable aleatoria, entonces la función F(x) definida por

218

F(x) = P{X ... x} se denomina función de distribución De X. Todas las probabilidades relativas a X puede ser indicado en términos de F. Resumen

Una variable aleatoria cuyo conjunto de valores posibles es finito o infinitamente infinito se denomina Discreta. Si X es una variable aleatoria discreta, entonces la función p(x) = P{X = x} se denomina función de masa de probabilidad De X. Además, la cantidad E[X] definida por E x:p(x)>0

se denomina valor esperado De X. E[X] también se denomina comúnmente Decir o el Expectativa De X. Una identidad útil indica que, para una función g, E x:p(x)>0

Lla Varianza de una variable aleatoria X, denotado por var(X), se define por Fue(X) = E[(X − E[X])2] La varianza, que es igual al cuadrado esperado de la diferencia entre X y su valor esperado, es una medida de la propagación de los posibles valores de X. Una identidad útil es Fue(X) = E[X2] −E[X])2 La cantidad √Fue(X) se denomina desviación estándar De X. Ahora observamos algunos tipos comunes de variables aleatorias discretas. La variable aleatoria X cuya función de masa de probabilidad es dada por p

,n

se dice que es una variable aleatoria binomial con parámetros N Y p. Tal variable aleatoria puede interpretarse como el número de éxitos que ocurren cuando N ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p, se realizan. Su media y varianza son dadas por E[X] = Eg

Fue(X) = Eg(1 − p)

La variable aleatoria X cuya función de masa de probabilidad es dada por e− lλi p(i) =

me Efectos 0 i!

219

se dice que es un Pescado variable aleatoria con parámetro λ. Si se realiza un gran número de (aproximadamente) ensayos independientes, cada uno con una pequeña probabilidad de ser éxito, entonces el número de pruebas exitosas que resultan tendrá una distribución que es aproximadamente la de una variable aleatoria de Poisson. La media y la varianza de una variable aleatoria de Poisson son iguales a su parámetro λ. Es decir E[X] = Fue(X) = L La variable aleatoria X cuya función de masa de probabilidad es dada por p(i) = p(1 − p)i−1 me = 1, 2,... se dice que es un Geométrica variable aleatoria con parámetro p. Esta variable aleatoria representa el número de prueba del primer éxito cuando cada ensayo es independientemente un éxito con probabilidad p. Su media y varianza son dadas por

PE La variable aleatoria X cuya función de masa de probabilidad es dada por r

p

me Efectos r

se dice que es un binomio negativo variable aleatoria con parámetros R Y p. Esta variable aleatoria representa el número de prueba del réxito cuando cada ensayo es independientemente un éxito con probabilidad p. Su media y varianza son dadas por p) E Un Hipergeométrica variable aleatoria X con parámetros n, NY M representa el número de bolas blancas seleccionadas N las bolas se eligen aleatoriamente de una urna que contiene N bolas de los cuales M son de color blanco. La función de masa de probabilidad de esta variable aleatoria es dada por

p

,m

Con P = m/N, su media y varianza son

E[X] = Eg

P)

Una propiedad importante del valor esperado es que el valor esperado de una suma de variables aleatorias es igual a la suma de sus valores esperados. Es decir ⎡ ⎤ E[Xi]

E n

n

220

Problemas 4,1. Dos bolas se eligen aleatoriamente de una urna que contiene 8 bolas blancas, 4 negras y 2 naranjas. Supongamos que ganamos $2 por cada bola negra seleccionada y perdemos $1 por cada bola blanca seleccionada. Dejar X denotan nuestras ganancias. ¿Cuáles son los valores posibles de Xy cuáles son las probabilidades asociadas con cada valor? 4,2. Dos dados justos se enrollan. Dejar X igual al producto de los 2 dados. Calcular P{X = i} Para me = 1..., 36. 4,3. Tres dados están enrollados. Suponiendo que cada uno de los 63 = 216 resultados posibles es igualmente probable, encontrar las probabilidades asociadas a los valores posibles que X puede asumir, donde X es la suma de los 3 dados. 4,4. Cinco hombres y 5 mujeres se clasifican de acuerdo a sus puntuaciones en un examen. Supongamos que no hay dos puntuaciones iguales y las 10! posibles clasificaciones son igualmente probables. Dejar X denotan el ranking más alto alcanzado por una mujer. (Por ejemplo, X = 1

Problemas Si la persona con mejor clasificación es femenina). Buscar P{X = i}, me = 1, 2, 3,..., 8, 9, 10. 4,5. Dejar X representan la diferencia entre el número de cabezas y el número de colas obtenidas cuando una moneda es lanzada N Veces. ¿Cuáles son los valores posibles de X? 4,6. En el problema 5, para N = 3, si la moneda se asume justa, ¿cuáles son las probabilidades asociadas a los valores que X puede asumir? 4,7. Supongamos que un dado se enrolla dos veces. ¿Cuáles son los valores posibles que pueden asumir las siguientes variables aleatorias: un el valor máximo que aparece en los dos rollos; b el valor mínimo a aparecer en los dos rodillos; c la suma de los dos rollos; De el valor del primer rollo menos el valor del segundo rollo? 4,8. Si el dado en el problema 7 se asume justo, calcule las probabilidades asociadas a las variables aleatorias en las partes (a) a (d). 4,9. Repita el ejemplo 1B cuando las bolas se seleccionan con el reemplazo. 4,10. En el ejemplo 1D, calcule la probabilidad condicional de que ganamos me dólares, dado que ganamos algo; calcularlo para me = 1, 2, 3. 4,11. (a) Un entero N se seleccionará al azar de {1, 2,...,(10)3} en el sentido de que cada entero tiene la misma probabilidad de ser seleccionado. ¿Cuál es la probabilidad de que N será divisible por 3? por 5? por 7? por 15? por 105 ¿Cómo cambiaría su respuesta si (10)3 se sustituye por (10)K Como K se hizo más grande y más grande? b Una función importante en la teoría de números — una cuyas propiedades se pueden demostrar que están relacionadas con lo que probablemente es el problema no resuelto más importante de las matemáticas, la hipótesis de Riemann — es la función Mobius ̈ Mn), definida para todos los valores integrales positivos N como sigue: factor N en sus principales factores. Si hay un factor primo repetido, como en 12 = 2 · 2 · 3 o 49 = 7 · 7, entonces Mn) se define como igual a 0. Ahora vamos a N ser elegidos al azar de {1, 2,... (10)k}Donde K es grande. Determinar PMN) = 0} Como k→q. Pista: Para calcular PMN) de 0}, utilice la identidad q

2

221

Donde Pme es el iTH-la prima más pequeña. (El número 1 no es primo.) 4,12. En el juego de Morra de dos dedos, 2 jugadores muestran 1 o 2 dedos y al mismo tiempo adivinar el número de dedos que su oponente mostrará. Si sólo uno de los jugadores adivina correctamente, gana una cantidad (en dólares) igual a la suma de los dedos mostrados por él y su oponente. Si ambos jugadores conjeturan correctamente o si ni conjeturas correctamente, después no se intercambia ningún dinero. Considere un jugador especificado, y denotar por X la cantidad de dinero que gana en un solo juego de Morra de dos dedos. (a) Si cada jugador actúa independientemente del otro, y si cada jugador hace su elección del número de dedos que va a sostener y el número que va a adivinar que su oponente se sosten de tal manera que cada una de las 4 posibilidades es igual de probable , ¿cuáles son los valores posibles de X y cuáles son sus probabilidades asociadas? (b) Supongamos que cada jugador actúa independientemente del otro. Si cada jugador decide sostener el mismo número de dedos que adivina que su oponente va a sostener, y si cada jugador es igualmente probable que sostenga 1 o 2 dedos, ¿cuáles son los valores posibles de X y sus probabilidades asociadas? 4,13. Un vendedor ha programado dos citas para vender enciclopedias. Su primera cita dará lugar a una venta con probabilidad 3, y su segundo conducirá de forma independiente a una venta con probabilidad. 6. Cualquier venta realizada es igualmente probable que sea para el modelo de lujo, que cuesta $1000, o el modelo estándar, que cuesta $500. Determine la función de masa de probabilidad de X, el valor total en dólares de todas las ventas. 4,14. Cinco números distintos se distribuyen aleatoriamente a los jugadores numerados del 1 al 5. Cada vez que dos jugadores comparan sus números, el uno con el más alto es declarado el ganador. Inicialmente, los jugadores 1 y 2 comparan sus números; el ganador entonces compara su número con el del jugador 3, y así sucesivamente. Dejar X denotan el número de veces que el jugador 1 es un ganador. Encontrar P{X = i},me = 0, 1, 2, 3, 4. 4,15. La lotería del draft de la Asociación Nacional de básquetbol (NBA) involucra a los 11 equipos que tuvieron los peores récords ganados-perdidos durante el año. Un total de 66 bolas

Problemas se colocan en una urna. Cada una de estas bolas está inscrita con el nombre de un equipo: once tienen el nombre del equipo con el peor récord, 10 tienen el nombre del equipo con el segundo peor récord, 9 tienen el nombre del equipo con el récord de thirdworst, y así sucesivamente (con 1 pelota con el nombre de el equipo con el récord del undécimo peor). Una pelota se elige al azar, y el equipo cuyo nombre está en la pelota se le da la primera selección en el borrador de jugadores a punto de entrar en la liga. Luego se elige otra pelota, y si "pertenece" a un equipo diferente del que recibió la primera selección de borrador, entonces el equipo al que pertenece recibe el segundo borrador de selección. (Si la pelota pertenece al equipo que recibe la primera selección, entonces se descarta y se elige otro; Esto continúa hasta que se elige la pelota de otro equipo.) Finalmente, se elige otra pelota, y el equipo nombrado en el balón (siempre que sea diferente de los dos equipos anteriores) recibe el tercer borrador de selección. Las selecciones restantes del draft 4 al 11 se otorgan a los 8 equipos que no "ganaron la lotería", en orden inverso de sus récords ganados-perdidos. Por ejemplo, si el equipo con el peor récord no recibió ninguna de las 3 selecciones de lotería, entonces ese equipo recibiría la cuarta selección de reclutamiento. Dejar X denotan el borrador de selección del equipo con el peor récord. Encuentre la función de masa de probabilidad de X. 4,16. En el problema 15, deje que el equipo número 1 sea el equipo con el peor récord, deje que el equipo número 2 sea el equipo con el segundo peor récord, y así sucesivamente. Dejar Yme denotan el equipo que obtiene el número de selección de borrador i. Así Y1 = 3 si la primera pelota elegida pertenece al equipo número 3.) Encontrar la función de masa de probabilidad de (a) Y1, (b) Y2, y (c) Y3. 4,17. Supongamos que la función de distribución de X es dada por 0 B<0 ⎧ ⎪b 0 ... B < 1 ⎪ ⎪ ⎪4 F... B < 2

... B < 3 ... b

222

(a) Encontrar P{X = i},me = 1, 2, 3. (b) Encontrar P . 4,18. Se hacen cuatro volteretas independientes de una moneda justa. Dejar X denotan el número de cabezas obtenidas. Trazar la función de masa de probabilidad de la variable aleatoria X − 2. 4,19. Si la función de distribución de X es dada por <0 ... B < 1 ... B <

2

F(b) =

... B < 3 ... B < 3.5 Efectos 3.5 calcular la función de masa de probabilidad de X. 4,20. Un libro de apuestas recomienda la siguiente "estrategia ganadora" para el juego de la ruleta: Bet $1 en tomar el beneficio $1 y dejar de fumar. Si el rojo no aparece Rojo. Si aparece el rojo que tiene probabilidad Entonces y pierdes esta apuesta que tiene probabilidad

de

ocurrir, haga $1 apuestas adicionales en rojo en cada uno de los dos giros siguientes de la rueda de la ruleta y luego deje de hacerlo. Dejar X Denle sus ganancias cuando renuncie. un Encontrar P{X > 0}. b ¿Está convencido de que la estrategia es de hecho una estrategia "ganadora"? ¡ Explique su respuesta! c Encontrar E[X]. 4,21. Cuatro autobuses que transportan 148 estudiantes de la misma escuela llegan a un estadio de fútbol. Los autobuses llevan, respectivamente, 40, 33, 25, y 50 estudiantes. Uno de los estudiantes es seleccionado aleatoriamente. Dejar X denotan el número de estudiantes que estaban en el autobús llevando al estudiante seleccionado aleatoriamente. Uno de los 4 conductores de autobuses también se selecciona aleatoriamente. Dejar Y denotan el número de estudiantes en su autobús. (a) ¿Cuál de E[X] o E[Y] ¿crees que es más grande?

Problemas ¿Porqué? (b) Calcular E[X] y E[Y]. 4,22. Supongamos que dos equipos juegan una serie de juegos que termina cuando uno de ellos ha ganado me Juegos. Supongamos que cada juego jugado es, independientemente, ganado por el equipo Un con probabilidad p. Encuentra el número esperado de juegos que se reproducen cuando (a) me = 2 y b) me = 3. también, demuestre en ambos casos que este número es maximizado cuando p . 4,23. Usted tiene $1000, y una cierta mercancía actualmente vende por $2 por onza. Supongamos que después de una semana el mercancía se venderá por $1 o $4 una onza, con estas dos posibilidades es igualmente probable. (a) Si su objetivo es maximizar la cantidad esperada de dinero que usted posee al final de la semana, ¿qué estrategia debe emplear? (b) Si su objetivo es maximizar la cantidad esperada de la mercancía que usted posee al final de la semana, ¿qué estrategia debe emplear? 4,24. Un Y B jugar al siguiente juego: Un escribe el número 1 o el número 2, y B debe adivinar que uno. Si el número que Un ha escrito es me Y B ha adivinado correctamente, B Recibe me unidades de A. Si B hace una conjetura equivocada, B País unidad a A. Si B Aleatoriza su decisión adivinando 1 con probabilidad P y 2 con probabilidad 1 − p, determine su ganancia esperada si (a) Un ha escrito el número 1 y (b) Un ha escrito el número 2. ¿Qué valor de P maximizan el valor mínimo posible de Bganancia esperada, y cuál es este valor máximo? (Tenga en cuenta que Bganancia esperada depende no sólo de p, sino también en lo que Un hace.) Considere ahora jugador A. Supongamos que ella también Aleatoriza su decisión, escribiendo el número 1 con probabilidad q. Qué es Ala pérdida esperada si (c) B elige el número 1 y (d) B elige el número 2? ¿Qué valor de Q Minimiza Ala máxima pérdida esperada? Muestre que el mínimo de Ala pérdida máxima esperada es igual al máximo de Bganancia mínima esperada. Este resultado, conocido como el teorema del minimax, fue establecido por primera vez en la generalidad por el matemático John von Neumann y es el resultado fundamental en la disciplina matemática conocida como la teoría de los juegos. El valor común se denomina el valor del juego al jugador B. 4,25. Dos monedas deben ser volteadas. La primera moneda aterriza en cabezas con probabilidad 6, la segunda con probabilidad. 7. Supongamos que los resultados de los

223

saltos son independientes y que X igual al número total de cabezas que resultan. (a) Encontrar P{X = 1}. (b) Determinar E[X]. 4,26. Uno de los números del 1 al 10 se elige aleatoriamente. Usted debe tratar de adivinar el número elegido por hacer preguntas con "sí-no" respuestas. Calcule el número esperado de preguntas que deberá formular en cada uno de los dos casos siguientes: (a) Su ipregunta es ser "¿es i?" me = 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. (b) Con cada pregunta intentas eliminar la mitad de los números restantes, lo más cerca posible. 4,27. Una compañía de seguros escribe una póliza en el sentido de que una cantidad de dinero Un debe pagarse si algún evento Y ocurre dentro de un año. Si la empresa estima que Y ocurrirá dentro de un año con probabilidad p, ¿qué debe cobrar al cliente con el fin de que su beneficio esperado será el 10 por ciento de A? 4,28. Una muestra de 3 elementos se selecciona aleatoriamente desde una caja que contiene 20 elementos de los cuales 4 son defectuosos. Busque el número esperado de elementos defectuosos en el ejemplo. 4,29. Hay dos causas posibles para un desglose de una máquina. Para comprobar la primera posibilidad costaría C1 dólares, y, si esa fuera la causa de la avería, el problema podría ser reparado a un costo de R1 Dólares. Del mismo modo, hay costos C2 Y R2 asociada a la segunda posibilidad. Dejar P y 1 − P denotan, respectivamente, las probabilidades de que la avería sea causada por la primera y segunda posibilidades. ¿En qué condiciones p,Ci,Ri,me = 1, 2, ¿debemos comprobar la primera causa posible de avería y luego la segunda, en contraposición a revertir la orden de comprobación, para minimizar el costo esperado involucrado en la devolución de la máquina a la orden de trabajo? Nota: Si el primer cheque es negativo, todavía debemos comprobar la otra posibilidad. 4,30. Una persona lanza una moneda justa hasta que aparece una cola por primera vez. Si la cola aparece en el nTH Flip, la persona gana 2N Dólares. Dejar X denotan las ganancias del jugador. Mostrar que E[X] = + q. Este problema se conoce como la paradoja de San Petersburgo. (a) ¿Estarías dispuesto a pagar $1 millón para jugar este juego una vez?

Problemas (b) ¿Estarías dispuesto a pagar $1 millón por cada juego si pudieras jugar por el tiempo que te gustaba y sólo tenía que arreglar cuando dejaste de jugar? 4,31. Cada noche, diferentes meteorólogos nos dan la probabilidad de que llueva al día siguiente. Para juzgar lo bien que estas personas predicen, vamos a anotar cada uno de ellos de la siguiente manera: Si un meteorólogo dice que lloverá con probabilidad p, entonces recibirá una puntuación de 1 −1 − p)

2

1 − p2

Si llueve Si no llueve

Luego haremos un seguimiento de las puntuaciones durante un cierto lapso de tiempo y concluiremos que el meteorólogo con la puntuación media más alta es el mejor predictor del tiempo. Supongamos ahora que un meteorólogo dado es consciente de nuestro mecanismo de puntuación y quiere maximizar su puntuación esperada. Si esta persona realmente cree que va a llover mañana con probabilidad p∗, ¿qué valor de P ¿debe hacer valer para maximizar la puntuación esperada? 4,32. Para determinar si tienen una determinada enfermedad, 100 personas deben someterse a una prueba de sangre. Sin embargo, en lugar de probar cada individuo por separado, se ha decidido primero colocar a la gente en grupos de 10. Las muestras de sangre de las 10 personas de cada grupo se agruparán y analizarán juntas. Si la prueba es negativa, una prueba será suficiente para las 10 personas, mientras que si la prueba es positiva, cada una de las 10 personas también se probará individualmente y, en total, se harán 11 pruebas en este grupo. Supongamos que la probabilidad de que una persona tiene la enfermedad es de 0,1 para todas las personas, independientemente de la otra, y calcular el número esperado de pruebas necesarias para cada grupo. (Observe que asumimos que la prueba agrupada será positiva si al menos una persona en el grupo tiene la enfermedad.) 4,33. Un vendedor compra papeles a 10 centavos y los vende a 15 centavos. Sin embargo, no se le permite devolver papeles no vendidos. Si su demanda diaria es una variable aleatoria binomial con n , aproximadamente Cuántos documentos debe comprar para maximizar su beneficio esperado? 4,34. En el ejemplo 4B, supongamos que el almacén departamental incure en un costo adicional de C para cada unidad de demanda no satisfecha. (Este tipo de costo a menudo se conoce como un costo de buena voluntad porque la tienda pierde la buena voluntad de

224

aquellos clientes cuyas demandas no puede cumplir.) Calcule el beneficio esperado cuando las existencias de la tienda s unidades, y determinar el valor de s que maximice el beneficio esperado. 4,35. Una caja contiene 5 mármoles rojos y 5 azules. Dos mármoles se retiran aleatoriamente. Si son del mismo color, entonces usted gana $1,10; Si son colores diferentes, entonces usted gana −$1.00. (es decir, pierdes $1,00.) Calcular un el valor esperado de la cantidad que ganes; b la varianza de la cantidad que ganes. 4,36. Considere el problema 22 con me = 2. encuentre la varianza del número de partidas jugadas y demuestre que este número se maximiza p

.

4,37. Encontrar var(X) y var(Y) Para X Y Y como se da en el problema 21. 4,38. Si E[X] = 1 y var(X) = 5, encontrar un E[(2 + X)2]; b Fue(4 + 3X). 4,39. Una bola se extrae de una urna que contiene 3 bolas blancas y 3 negras. Después de que se dibuja la pelota, se sustituye y se dibuja otra pelota. Este proceso continúa Indefinidamente. ¿Cuál es la probabilidad de que, de las primeras 4 bolas dibujadas, exactamente 2 son blancas? 4,40. En un examen de opción múltiple con 3 posibles respuestas para cada una de las 5 preguntas, ¿cuál es la probabilidad de que un estudiante consiga 4 o más respuestas correctas sólo adivinando? 4,41. Un hombre dice tener percepción extrasensorial. Como prueba, una moneda justa se volteó 10 veces y se le pide al hombre que prediga el resultado de antemano. Él tiene 7 de 10 correctos. ¿Cuál es la probabilidad de que hubiera hecho por lo menos este pozo si no tenía un ESP? 4,42. Supongamos que, en vuelo, los motores de avión fallarán con la probabilidad 1 − p, independientemente del motor al motor. Si un avión necesita una mayoría de sus motores operativos para completar un vuelo exitoso, para qué valores de P ¿es preferible un plano de 5 motores a un avión de 3 motores? 4,43. Un canal de comunicaciones transmite los dígitos 0 y 1. Sin embargo, debido a la estática, el dígito transmitido se recibe incorrectamente con probabilidad. 2. Supongamos que queremos transmitir un mensaje importante consistente en un dígito binario. Para reducir la posibilidad de error, transmitimos 00000 en lugar de 0 y 11111 en lugar de 1. Si el receptor del mensaje utiliza la decodificación

Problemas "mayoritaria", ¿cuál es la probabilidad de que el mensaje se equivoque cuando se decodifica? ¿Qué suposiciones de independencia estás haciendo? 4,44. Un sistema satelital consiste en N componentes y funciones en un día determinado si al menos K Dela N función de los componentes en ese día. En un día lluvioso cada uno de los componentes funciona de forma independiente con probabilidad p1, mientras que en un día seco cada uno funciona independientemente con la probabilidad p2. Si la probabilidad de lluvia mañana es α, ¿cuál es la probabilidad de que el sistema de satélites funcionará? 4,45. Un estudiante se está preparando para tomar un examen oral importante y se preocupa por la posibilidad de tener un día "ON" o un día "OFF". Él calcula que si tiene un día, entonces cada uno de sus examinadores lo pasará, independientemente el uno del otro, con probabilidad .8, mientras que si tiene un día libre, esta probabilidad se reducirá a. 4. Supongamos que el estudiante pasará el examen si la mayoría de los examinadores lo pasan. Si el estudiante siente que tiene el doble de probabilidades de tener un día libre que el de tener un día, ¿debería solicitar un examen con 3 examinadores o con 5 examinadores? 4,46. Supongamos que se necesitan al menos 9 votos de un jurado de 12 miembros para condenar a un acusado. Supongamos también que la probabilidad de que un miembro del jurado vote a un culpable inocente es 2, mientras que la probabilidad de que el miembro del jurado vote a una persona inocente es culpable. Si cada miembro del jurado actúa de forma independiente y si el 65 por ciento de los acusados es culpable, encuentre la probabilidad de que el jurado represente un decisión correcta. ¿Qué porcentaje de acusados es condenado? 4,47. En algunos tribunales militares, se nombra a 9 jueces. Sin embargo, tanto el fiscal como los abogados defensores tienen derecho a un desafío perentorio de cualquier juez, en cuyo caso ese juez es retirado del caso y no es reemplazado. Un acusado es declarado culpable si la mayoría de los jueces emitir votos de culpabilidad, y él o ella es declarada inocente de lo contrario. Supongamos que cuando el acusado es, de hecho, culpable, cada juez (independientemente) votará culpable con probabilidad .7, mientras que cuando el acusado es, de hecho, inocente, esta probabilidad cae a. 3. (a) ¿Cuál es la probabilidad de que un acusado culpable sea declarado culpable cuando hay (i) 9, (II) 8, y (III) 7 jueces? (b) Repita la parte (a) para un acusado inocente. (c) Si el fiscal no ejerce el derecho a un desafío perentorio de un juez, y si la defensa se limita a lo

225

más dos tales desafíos, ¿cuántos desafíos debe hacer el abogado defensor si él o ella es 60 por ciento seguro de que el cliente es culpable? 4,48. Se sabe que los disquetes producidos por una cierta compañía serán defectuosos con la probabilidad .01, independientemente de uno a. La compañía vende los disquetes en paquetes de tamaño 10 y ofrece una garantía de devolución de dinero que a lo más 1 de los 10 disquetes en el paquete será defectuoso. La garantía es que el cliente puede devolver todo el paquete de disquetes si encuentra más de un disquete defectuoso. Si alguien compra 3 paquetes, ¿cuál es la probabilidad de que él o ella devolverá exactamente 1 de ellos? 4,49. Cuando la moneda 1 es volteada, aterriza en cabezas con probabilidad .4 Cuando la moneda 2 se volteado, aterriza en cabezas con probabilidad .7. una de estas monedas es elegida aleatoriamente y volteado 10 veces. (a) ¿Cuál es la probabilidad de que la moneda caiga sobre cabezas en exactamente 7 de los 10 saltos? (b) Teniendo en cuenta que el primero de estos diez saltos aterriza cabezas, ¿cuál es la probabilidad condicional de que exactamente 7 de los 10 saltos aterrizan en cabezas? 4,50. Supongamos que una moneda sesgada que aterriza en cabezas con probabilidad P se volteado 10 veces. Dado que un total de 6 cabezas resultados, encontrar la probabilidad condicional de que los primeros 3 resultados son (a) h, t, T (lo que significa que la primera Flip resultados en cabezas, el segundo en colas, y el tercero en colas); (b) t, h, t. 4,51. El número esperado de errores tipográficos en una página de una determinada revista es. 2. ¿Cuál es la probabilidad de que la página siguiente que lees contenga (a) 0 y (b) 2 o más errores tipográficos? ¡ Explique su razonamiento! 4,52. El número promedio mundial mensual de accidentes aéreos de aerolíneas comerciales es de 3,5. ¿Cuál es la probabilidad de que se un al menos 2 de estos accidentes en el mes siguiente; b a lo más 1 accidente en el mes siguiente? ¡ Explique su razonamiento! 4,53. Aproximadamente 80.000 matrimonios se llevaron a cabo en el estado de Nueva York el año pasado. Estimar la probabilidad de que, para al menos una de estas parejas, un ambos socios nacieron el 30 de abril;

Problemas

226

b ambos socios celebraron su cumpleaños el mismo día del año. Indique sus suposiciones.

tiempo, ¿cuán probable es que la droga sea beneficiosa para él o ella?

4,54. Supongamos que el número promedio de coches abandonados semanalmente en una determinada carretera es 2,2. Aproximan la probabilidad de que haya un no hay coches abandonados en la próxima semana; b al menos 2 coches abandonados en la próxima semana.

4,61. La probabilidad de ser tratada una casa llena en una mano de póquer es aproximadamente. 0014. Encontrar una aproximación para la probabilidad de que, en 1000 manos de póquer, se le repartirá al menos 2 casas completas.

4,55. Una determinada Agencia de mecanografía emplea A 2 mecanólogos. El número medio de errores por artículo es 3 cuando se escribe por el primer mecanógrafo y 4,2 cuando se escribe por el segundo. Si su artículo es igualmente probable que sea escrito por un mecanógrafo, aproxime la probabilidad de que no tendrá errores. 4,56. ¿Cuántas personas son necesarias para que la probabilidad de que al menos uno de ellos tiene el mismo cumpleaños que usted es mayor que ? 4,57. Supongamos que el número de accidentes que ocurren en una carretera cada día es una variable aleatoria de Poisson con parámetro L = 3. (a) Encuentre la probabilidad de que ocurran 3 o más accidentes en la actualidad. (b) Repita la parte (a) suponiendo que se produzca al menos 1 accidente hoy. 4,58. Compare la aproximación de Poisson con la probabilidad binomial correcta para los siguientes casos: (a) P{X = 2} Cuando N = 8 P = .1 (b) P{X = 9} Cuando N = 10 P = .95; (c) P{X = 0} Cuando N = 10 P = .1 De P{X = 4} Cuando N = 9 P = .2. 4,59. Si usted compra un billete de lotería en 50 loterías, en cada uno de los cuales su oportunidad de ganar un premio es , ¿cuál es la probabilidad (aproximada) de que ganarás un premio un por lo menos una vez? b exactamente una vez? c al menos dos veces? 4,60. El número de veces que una persona contrae un resfriado en un año dado es una variable aleatoria de Poisson con parámetro L = 5. Supongamos que se acaba de comercializar un nuevo fármaco de maravilla (basado en grandes cantidades de vitamina C) que reduce el parámetro de Poisson a L = 3 para 75 por ciento de la población. Para el otro 25 por ciento de la población, la droga no tiene ningún efecto apreciable en los resfriados. Si un individuo intenta el medicamento durante un año y tiene 2 resfriados en ese

4,62. Considerar N ensayos independientes, cada uno de los cuales da como resultado uno de los resultados 1,...,K con las probabilidades respectivas p1,...,pk, . Muestre que si todos los pme son pequeñas, entonces la probabilidad de que ningún resultado del ensayo ocurra más de una vez es aproximadamente igual a exp 4,63. Las personas entran en un casino de apuestas a una tasa de 1 cada 2 minutos. (a) ¿Cuál es la probabilidad de que nadie entre 12:00 y 12:05? (b) ¿Cuál es la probabilidad de que al menos 4 personas entren al Casino durante ese tiempo? 4,64. La tasa de suicidio en cierto estado es de 1 suicidio por 100.000 habitantes al mes. (a) Encontrar la probabilidad de que, en una ciudad de 400.000 habitantes dentro de este estado, habrá 8 o más suicidios en un mes dado. (b) ¿Cuál es la probabilidad de que habrá al menos 2 meses durante el año que tendrá 8 o más suicidios? (c) Contando el mes presente como el mes número 1, ¿cuál es la probabilidad de que el primer mes para tener 8 o más suicidios será el número de mes i,me Efectos 1? ¿Qué suposiciones estás haciendo? 4,65. Cada uno de 500 soldados en una compañía del ejército tiene independientemente una cierta enfermedad con probabilidad 1/103. Esta enfermedad se mostrará en un análisis de sangre, y para facilitar los asuntos, muestras de sangre de todos los soldados 500 se agrupan y se prueban. (a) ¿Cuál es la probabilidad (aproximada) de que la prueba de sangre será positiva (es decir, al menos una persona tiene la enfermedad)? Supongamos ahora que la prueba de sangre produce un resultado positivo. (b) ¿Cuál es la probabilidad, en esta circunstancia, de que más de una persona tenga la enfermedad? Una de las 500 personas es Jones, quien sabe que tiene la enfermedad. (c) ¿Qué piensa Jones que es la probabilidad de que más de una persona tenga la enfermedad?

Problemas Debido a que la prueba agrupada fue positiva, las autoridades han decidido probar cada individuo por separado. La primera me − 1 de estas pruebas fueron negativas, y el iuno — que estaba en Jones — fue positivo. (d) Dado el escenario precedente, ¿cuál es la probabilidad, en función de i, que cualquiera de las personas restantes tiene la enfermedad? 4,66. Un total de 2N personas, consistentes en N parejas casadas, se sientan al azar (todos los ordenamientos posibles son igualmente probables) en una mesa redonda. Dejar Cme denotan el evento que los miembros de la pareja me están sentados uno al lado del otro, me = 1...,n. (a) Encontrar P(Ci). (b) Para J Z iEncontrar P(Cj|Ci). (c) Aproxime la probabilidad, para N grande, que no hay parejas casadas que están sentados uno al lado del otro. 4,67. Repita el problema anterior cuando el asiento es aleatorio pero sujeto a la restricción que los hombres y las mujeres alternan. 4,68. En respuesta a un ataque de 10 misiles, se lanzan 500 misiles antibalísticos. Los objetivos de misiles de los misiles antibalísticos son independientes, y cada misil antiballstic es igualmente probable que vaya hacia cualquiera de los misiles objetivo. Si cada misil antibalístico golpea su objetivo de forma independiente con probabilidad .1, utilice el paradigma de Poisson para aproximar la probabilidad de que todos los misiles sean golpeados. 4,69. Una moneda justa se volteado 10 veces. Encontrar la probabilidad de que haya una cadena de 4 cabezas consecutivas por un utilizando la fórmula derivada en el texto; (b) utilizando las ecuaciones recursivas derivadas en el texto. (c) Compare su respuesta con la que da la aproximación de Poisson. 4,70. En el momento 0, una moneda que sube cabezas con probabilidad P se volteado y cae al suelo. Supongamos que aterriza en la cabeza. A veces elegido de acuerdo con un proceso de Poisson con tasa λ, la moneda es recogido y volteado. (Entre estos tiempos la moneda permanece en el suelo.) ¿Cuál es la probabilidad de que la moneda está en su lado de la cabeza en el tiempo t? Pista ¿Cuál sería la probabilidad condicional si no hubiera volteretas adicionales por el tiempo t, y qué sería si hubiera volteretas adicionales por el tiempo t?

227

4,71. Considere una rueda de la ruleta que consiste en 38 números del 1 al 36, 0, y el doble 0. Si Smith siempre apuesta que el resultado será uno de los números del 1 al 12, ¿cuál es la probabilidad de que un Smith perderá sus primeras 5 apuestas; b su primera victoria ocurrirá en su cuarta apuesta? 4,72. Dos equipos atléticos juegan una serie de juegos; el primer equipo en ganar 4 partidos es declarado ganador general. Supongamos que uno de los equipos es más fuerte que el otro y gana cada juego con probabilidad......, independientemente de los resultados de los otros juegos. Encuentre la probabilidad, para me = 4, 5, 6, 7, que el equipo más fuerte gana la serie en exactamente me Juegos. Compare la probabilidad de que el equipo más fuerte gane con la probabilidad de que gane una serie 2-out of-3. 4,73. Supongamos que en el problema 72 que los dos equipos coinciden uniformemente y cada uno tiene probabilidad de ganar cada juego. Encuentra el número esperado de juegos jugados. 4,74. A un entrevistador se le da una lista de personas que puede entrevistar. Si el entrevistador necesita entrevistar a 5 personas, y si cada persona (independientemente) acepta ser entrevistada con probabilidad , ¿cuál es la probabilidad de que su lista de personas le permita obtener su número necesario de entrevistas si la lista consiste en (a) 5 personas y (b) 8 personas? Para la parte (b), ¿cuál es la probabilidad de que el entrevistador hable exactamente (c) 6 personas y (d) 7 personas en la lista? 4,75. Una moneda justa es continuamente volteada hasta que las cabezas aparezcan por décima vez. Dejar X denotan el número de colas que ocurren. Calcule la función de masa de probabilidad de X. 4,76. Resuelva el problema de coincidencia de Banach (ejemplo 8E) cuando el Matchbox de la izquierda contenía originalmente

228 N1 las coincidencias y la caja de la derecha contenida N2 Ejercicios teóricos

Payoffs de Keno en 10 apuestas numéricas

Partidos. 4,77. En el problema de Banach Matchbox, encontrar la probabilidad de que, en el momento en que el primer cuadro se vacía (en lugar de ser encontrado vacío), la otra caja contiene exactamente K Partidos. 4,78. Una urna contiene 4 bolas blancas y 4 negras. Elegimos aleatoriamente 4 bolas. Si 2 de ellos son blancos y 2 son negros, paramos. Si no, Reemplazamos las bolas en la urna y de nuevo aleatoriamente seleccionamos 4 bolas. Esto continúa hasta que exactamente 2 de los 4 elegidos son blancos. ¿Cuál es la probabilidad de que hagamos exactamente N ¿Selecciones? 4,79. Supongamos que un lote de 100 elementos contiene 6 que son defectuosos y 94 que no son defectuosos. Si X es el número de elementos defectuosos en una muestra dibujada aleatoriamente de 10 artículos del lote, buscar (a) P{X = 0} y b) P{X > 2}. 4,80. Un juego popular en los casinos de juego de Nevada es Keno, que se juega de la siguiente manera: veinte números son seleccionados al azar por el Casino del conjunto de números 1 a 80. Un jugador puede seleccionar entre 1 y 15 números; una ganancia ocurre si alguna fracción del subconjunto elegido por el jugador coincide con cualquiera de los 20 números dibujados por la casa. La recompensa es una función del número de elementos en la selección del jugador y el número de coincidencias. Por ejemplo, si el jugador selecciona sólo 1 número, entonces él o ella gana si este número está entre el conjunto de 20, y la recompensa es $2,2 ganó por cada apuesta de dólar. (Como la probabilidad del jugador de ganar en este caso es , está claro que la recompensa "justa" debe ser de $3 Won por cada apuesta de $1.) Cuando el jugador selecciona 2 números, una recompensa (de cuotas) de $12 ganó por cada apuesta de $1 se hace cuando ambos números están entre el 20, (a) ¿Cuál sería la recompensa justa en este caso? Dejar Pn, K denotan la probabilidad de que exactamente K Dela N los números elegidos por el jugador se encuentran entre los 20 seleccionados por la casa. (b) Calcular Pn, k (c) La apuesta más típica de Keno consiste en seleccionar 10 números. Para tal apuesta el Casino vale la pena como se muestra en la siguiente tabla. Calcule la recompensa esperada: Número de partidos Dólares ganados por cada apuesta de $1 0–4 -1 5 6 7 8 9 10

1 17 179 1.299 2.599 24.999

4,81. En el ejemplo 8i, ¿qué porcentaje de me lotes defectuosos ¿rechaza el comprador? Encontrarlo para me = 1, 4. dado que se rechaza mucho, ¿cuál es la probabilidad condicional de que contenía 4 componentes defectuosos? 4,82. Un comprador de transistores los compra en un montón de 20. Es su política de inspeccionar aleatoriamente 4 componentes de un lote y aceptar el lote sólo si los 4 no son defectuosos. Si cada componente en un lote es, independientemente, defectuoso con la probabilidad 0,1, ¿qué proporción de lotes se rechaza? 4,83. Hay tres autopistas en el condado. El número de accidentes diarios que ocurren en estas autopistas son variables aleatorias de Poisson con parámetros respectivos .3.5 y .7. Encuentre el número esperado de accidentes que ocurrirán en cualquiera de estas autopistas hoy. 4,84. Supongamos que 10 bolas se colocan en 5 cajas, con cada pelota de forma independiente se ponen en la caja me con probabilidad pi, . (a) Encuentra el número esperado de cajas que no tienen pelotas. (b) Encuentra el número esperado de cajas que tienen exactamente 1 bola. 4,85. Hay K tipos de cupones. Independientemente de los tipos de cupones previamente recogidos, cada nuevo cupón recogido es de tipo me con probabilidad pi, . Si N se recopilan los cupones, busque el número esperado de tipos distintos que aparecen en este conjunto. (Es decir, encontrar el número esperado de tipos de cupones que aparecen al menos una vez en el

conjunto de N Cupones). 4,2. Si X tiene función de distribución F, ¿cuál es la función de distribución de eX? 4,3. Si X tiene función de distribución F, ¿cuál es la función de distribución de la variable aleatoria αX + βDonde Un Y B son

EJERCICIOS TEÓRICOS 4,1. Hay N diferentes tipos de cupones, y cada vez que uno se obtiene, independientemente de las opciones pasadas, ser de tipo me con probabilidad Pi,me = 1...,N. Dejar T denotan la necesidad número uno seleccione

para obtener al menos uno de cada tipo. Calcular PHint{T :=Utilice un argumento similar al que se utiliza enn}. Ejemplo 1E.

constantes, A Z 0? 4,4. Para una variable aleatoria no negativa con valores enteros N, muestran que q E

q

P{N Efectos i}

Qi

Pista:

=1

{

} = i=1 k=i

P N Efectos i. Ahora inter-

cambiar el orden de sumación. 4,5. Para una variable aleatoria no negativa con valores enteros N, muestran que q

q

Q

Pista:. Nwo i=0

i=0 k=i+1 intercambiar

el orden del Summation.

4,6. Dejar X ser tal que P{X = 1} = P = 1 − P{X = −1} Encontrar C Z 1 tal que E[cX] = 1. 4,7. Dejar X ser una variable aleatoria que tiene un valor esperado M y la varianza σ 2. Encuentre el valor esperado y la varianza de Y 4,8. Encontrar var(X) Si P(X = a) = P = 1 − P(X = b) 4,9. Mostrar cómo la derivación de las probabilidades binomiales P{X = i} =

i

,

me = 0...,n

conduce a una prueba del teorema binomial

(x

xiyn−i

Cuando X Y y son no negativos. Pista: Dejar P = x+xy. 4,10. Dejar X ser una variable aleatoria binomial con parámetros N Y p. Mostrar que p)n+1 E p 4,11. Considerar N ensayos secuenciales independientes, cada uno de los cuales tiene éxito con la probabilidad p. Si hay un total de K éxitos, demuestran que cada uno de los n!/[k!(N − k)!] posibles arreglos de la K éxitos y N − K las fallas es igualmente probable. 4,12. Hay N componentes alineados en una disposición lineal. Supongamos que cada componente funciona de forma independiente con la probabilidad p. ¿Cuál es la probabilidad de que no 2 componentes vecinos sean ambos no funcionales? Pista: Condicione el número de componentes defectuosos y utilice los resultados del ejemplo 4C del capítulo 1. 4,13. Dejar X ser una variable aleatoria binomial con parámetros (n, p). ¿Qué valor de P Maximiza P{X = k},K = 0, 1,...,n? Este es un ejemplo de un método estadístico utilizado para estimar P Cuando un binomio (n, p) se observa una variable aleatoria igual a k. Si asumimos que N se conoce, entonces estimamos P eligiendo ese valor de P que maximiza P{X = k}. Esto se conoce como el método de estimación de máxima verosimilitud. 4,14. Una familia tiene N niños con probabilidad αpn,N Efectos 1, donde Un... (1 − p)/p. (a) ¿Qué proporción de familias no tiene hijos? (b) Si cada niño es igualmente probable que sea un niño o una niña (independientemente el uno del otro), ¿qué proporción de familias consiste en K niños (y cualquier número de niñas)? 4,15. Supongamos que N Lanzamientos independientes de una moneda con probabilidad P de subir cabezas se hacen. Muestre que la probabilidad de que un número par de cabezas resulte

(Q − p)n], donde Q = 1 − p. De

Esto probando y luego utilizando la identidad

2P + q)N + (Q − p)n3 i

donden/2] es el número entero más grande menor o igual que n/2. Compare este ejercicio con el ejercicio teórico 3,5 del capítulo 3. 4,16. Dejar X ser una variable aleatoria de Poisson con parámetro λ. Mostrar que P{X = i} aumenta monotónicamente y luego disminuye monótona me aumenta, alcanzando su máximo cuando me es el número entero más grande que no excede λ. Pista: Considere P{X = i}/P{X = me − 1}. 4,17. Dejar X ser una variable aleatoria de Poisson con parámetro λ. (a) Mostrar que P{X es incluso} = utilizando el resultado del ejercicio teórico 15 y la relación entre las variables aleatorias de Poisson y binomial. (b) Verificar la fórmula en parte (a) directamente haciendo uso de la expansión de e−L + eλ. 4,18. Dejar X ser una variable aleatoria de Poisson con parámetro λ. ¿Qué valor de L Maximiza P{X = k},K Efectos 0? 4,19. Mostrar que X es una variable aleatoria de Poisson con parámetro λEntonces E[Xn] = LE[(X + 1)n−1]

Ahora utilice este resultado para calcular E[X3]. 4,20. Considerar N monedas, cada una de las cuales sube de forma independiente cabezas con probabilidad p. Supongamos que N es grande y P es pequeño, y dejar que L = Eg. Supongamos que todo N las monedas se lanzan; Si por lo menos uno sube cabezas, el experimento termina; Si no, volvemos a tirar todos N monedas, y así sucesivamente. Es decir, paramos la primera vez que al menos uno de los N las monedas vienen cabezas. Dejar X indican el número total de cabezas que aparecen. ¿Cuál de los siguientes razonamientos se refieren a aproximar P{X = 1} es correcta (en todos los casos, Y es una variable aleatoria de Poisson con parámetro λ)? (a) Porque el número total de cabezas que ocurren cuando todos N las monedas se enrollan es aproximadamente una variable aleatoria de Poisson con parámetro λ, P{X = 1} L P{Y = 1} = Le−λ (b) Porque el número total de cabezas que ocurren cuando todos N las monedas se enrollan es aproximadamente una variable aleatoria de Poisson con parámetro λ, y porque sólo paramos cuando este número es Positivo λe− l P{X = 1} L P{Y = 1|Y > 0} = 1

− e− l

(c) Porque al menos una moneda sube cabezas, X será igual a 1 si ninguno de los otros N − 1 monedas vienen cabezas. Debido a que el número de cabezas resultantes de estos N − 1 monedas es aproximadamente Poisson con la media (N − 1)P L l, P{X = 1} L P{Y = 0} = e−λ 4,21. De un conjunto de N personas elegidas al azar, que EIj denotan el evento de que las personas me Y J tienen el mismo cumpleaños. Supongamos que cada persona es igualmente probable que tenga cualquiera de los 365 días del año como su cumpleaños. Encontrar un P(E3, 4|E1, 2); (b) P(E1, 3|E1, 2); (c) P(E2, 3|E1, 2 ∩ E1, 3). Ejercicios teóricos

¿Qué puede concluir de sus respuestas a las partes (a) – (c) sobre la independencia de la Eventos EIj? 4,22. Una urna contiene 2N bolas, de las cuales 2 están numeradas 1, 2 están numeradas 2,..., y 2 están numerados n. Las bolas se retiran de forma sucesiva 2 a la vez sin reemplazo. Dejar T denotan la primera selección en la que las bolas retiradas tienen el mismo número (y dejar que sea igual a infinito si ninguno de los pares retirados tiene el mismo número). Queremos mostrar que, para 0 < Α < 1 LimP{T "Unn} =

e

−Un2 n

Para comprobar la fórmula anterior, deje que MK denotan el número de pares retirados en el primer K Selecciones K = 1...,n. (a) Argumentar que cuando N es grande, MK puede considerarse como el número de éxitos en k (aproximadamente) ensayos independientes. (b) Aproximado P{MK = 0} Cuando N es grande. (c) Escribe el evento {T "Unn} en términos del valor de una de las variables Mk. (d) Verifique la probabilidad limitativa dada para P{T "Unn}.

4,23. Considere una colección aleatoria de N Individuos. Al aproximar la probabilidad de que ningún 3 de estos individuos compartan el mismo cumpleaños, una mejor aproximación de Poisson que la obtenida en el texto (al menos para los valores de N entre 80 y 90) se obtiene dejando Eme ser el evento que hay por lo menos 3 cumpleaños en el día i, me = 1..., 365. (a) Encontrar P(Ei). (b) Dar una aproximación para la probabilidad de que no 3 individuos comparten el mismo cumpleaños. (c) Evalúe lo anterior cuando N = 88 (que puede mostrarse como el valor más pequeño de N para los cuales la probabilidad excede .5). 4,24. Aquí hay otra forma de obtener un conjunto de ecuaciones recursivas para determinar Pn, la probabilidad de que haya una cadena de K cabezas consecutivas en una secuencia de N voltea de una moneda justa que sube cabezas con probabilidad p: un Argumentar que, por K < n, habrá una cadena de K cabezas consecutivas si cualquiera 1. hay una cadena de K cabezas consecutivas dentro de la primera N − 1 voltea, o 2. no hay una cadena de K cabezas consecutivas dentro de la primera N − K − 1 voltea, flip N − K es una cola, y se voltea N − K + 1...,N son todas cabezas. b Usando lo anterior, relacionar PN Para Pn−1. Comenzando con PK = pk, la recursividad se puede utilizar para obtener Pk+1Entonces Pk+1, y así sucesivamente, hasta Pn. 4,25. Supongamos que el número de eventos que se producen en un tiempo especificado es una variable aleatoria de Poisson con parámetro λ. Si cada evento es contado con probabilidad p, independientemente de cada otro evento, muestran que el número de eventos que se cuentan es una variable aleatoria de Poisson con parámetro λp. También, dar un argumento intuitivo en cuanto a por qué esto debería ser así. Como aplicación del resultado precedente, supongamos que el número de depósitos de uranio distintos en un área determinada es una variable aleatoria de Poisson con parámetro L = 10. Si, en un período de tiempo determinado, cada depósito se descubre de forma , encontrar la probabilidad de que (a) exactamente 1, (b) al menos 1, y (c) a lo más 1 depósito se descubre durante ese tiempo. 4,26. Probar N e− l me = 1 * Q xxnDx L e− i! n! L i=0 Pista: Utilice la integración por partes. 4,27. Si X es una variable aleatoria geométrica, muestran analíticamente que P{X = N + k|X > n} = P{X = k} Usando la interpretación de una variable aleatoria geométrica, da un argumento verbal sobre por qué la ecuación precedente es verdadera. 4,28. Dejar X ser una variable aleatoria binomial negativa con parámetros R Y p, y deje que Y ser una variable aleatoria binomial con parámetros N Y p. Mostrar que P{X > n} = P{Y < r} Pista: Cualquiera podría intentar una prueba analítica de la ecuación precedente, que es equivalente a probar la identidad q

i=

n+1 i

o uno podría intentar una prueba que utilice la interpretación probabilística de estas variables aleatorias. Es decir, en este último caso, empezar por considerar una secuencia de ensayos

independientes que tienen una probabilidad común P de éxito. A continuación, trate de expresar los eventos {X > n} Y {Y < r} en términos de los resultados de esta secuencia. 4,29. Para una variable aleatoria hipergeométrica, determine P{X = K + 1}/P{X = k} 4,30. Bolas numeradas 1 a N están en una urna. Supongamos que n,N ... N, de ellos se seleccionan aleatoriamente sin reemplazo. Dejar Y indican el número más grande seleccionado. (a) Encuentre la función de masa de probabilidad de Y. (b) Derivar una expresión para E[Y] y luego utilizar la identidad combinatoria de Fermat (ver ejercicio teórico 11 del capítulo 1) para simplificar la expresión. 4.31. Un frasco contiene M + N chips, numerados 1, 2,...,N + m. Un conjunto de tamaño N se dibuja. Si dejamos que X denotan el número de chips dibujados con números que exceden cada uno de los números de los restantes, computan la función de masa de probabilidad de X. 4.32. Un frasco contiene N Chips. Supongamos que un niño extrae sucesivamente un chip de la jarra, cada vez que se reemplaza el dibujado antes de dibujar otro. El proceso continúa hasta que el niño dibuja un chip que que ha dibujado anteriormente. Dejar X denotan el número de sorteos y computan su función de masa de probabilidad. 4.33. Demuestre que la ecuación (8,6) sigue de la ecuación (8,5). 4,34. De un conjunto de N elementos, un subconjunto no vacío se elige aleatoriamente en el sentido de que todos los subconjuntos no vacíos son igualmente propensos a seleccionarse. Dejar X indican el número de elementos en el subconjunto elegido. Usando las identidades dadas en el ejercicio teórico 12 del capítulo 1, muestre que n E = N · 22n−2 − n(N + 1)2n−2 Fue(X) (2N − 1)2 Muestre también que, para N Grande N Fue(X) 4 en el sentido de que el ratio var (X) para n/4 enfoques 1 como N Enfoques q. Compare esta fórmula con la forma limitadora de var(Y) Cuando P{Y = i} = 1/n,me = 1...,n. 4,35. Una urna inicialmente contiene una bola roja y otra azul. En cada etapa, una pelota es elegida aleatoriamente y luego reemplazada junto con otra del mismo color. Dejar X indican el número de selección de la primera bola elegida que es azul. Por ejemplo, si la primera selección es roja y la segunda azul, entonces X es igual a 2. (a) Encontrar P{X > i},me Efectos 1. (b) Demuestre que, con la probabilidad 1, una bola azul se elige eventual. (Es decir, muestre que P{X < q} = 1. (c) Encontrar E[X]. 4,36. Supongamos que los posibles valores de X Son {xi}, los posibles valores de Y Son {yj}, y los posibles valores de X + Y Son {zk}. Dejar AK denotan el conjunto de todos los pares de índices (i,j) tal que xme + yJ = zk; Es decir AK = {(i,j) : xme + yJ = zk}. un Argumentar que P (i,j) ∈Ak

(b) Mostrar que

xi,Y = yj}

E

xi,

K (i,j) ∈Ak

Y = yj} Problemas y ejercicios de autoprueba (c) Usando la fórmula de la parte (b), argumentar que E i

j

Y = yj} (d) Mostrar que P

xi,Y = yj), j

P

xi,Y = yj} i

(e) Demuestre que

xi,

E[X + Y] = E[X] + E[Y]

PROBLEMAS Y EJERCICIOS DE AUTOPRUEBA

4,1. Supongamos que la variable aleatoria X es igual a ella y luego apostar x, terminará ganando el número de Hits obtenidos por una determinada base X − C O −X − C (es decir, perder X + C en el jugador de latball en sus próximos 3 en los murciélagos. Si P{X = 1} = caso del ter). Además, ¿para qué valores de C ¿paga a .3P{X = 2} = .2, y P{X = 0} = 3P{X = 3}, comprar la información? Encontrar E[X].

4,7. Un filántropo escribe un número positivo X en un 4,2. Supongamos que X toma uno de los valores 0,1, pedazo de papel rojo, muestra el papel a un imparand 2. Si para alguna me 1 ,me 1, 2, encontrar E[X]. constante c,P{X = i} = Cp{X = observador, y luego lo vuelve boca abajo en el − } = Mesa. El observador entonces voltea una moneda justa. Si muestra 4,3. Una moneda que, al volteada, sube cabezas con cabezas, escribe el valor 2X y, si las colas, la probabilidad de valor P se volteado hasta que las cabezas o las colas x/2, en un trozo de papel azul, que luego se gira ha ocurrido dos veces. Voltea. Encuentre el número esperado de cara abajo sobre la mesa. Sin saber tampoco el valor X o el resultado del tirón de la moneda, usted tiene 4,4. Una cierta comunidad se compone de M Familias la opción de girar ya sea el rojo o el r las familias se eligen al azar, dejei =1 =X indica el número escrito en ese papel, usted puede recibir como recompensa, ya sea esa cantidad o la nme de los cuales han me Niños nme m. Si uno de papel azul. Después de hacerlo y observando el número de niños en esa familia. Si una de las cantidades (desconocidas) escritas en la otra pieza de r Enme que los niños sean elegidos al azar, Y denotar papel. Por ejemplo, si opta por dar la vuelta al número total de niños de la familia de esei=1

papel azul y observe el valor 100, luego

puede optar por aceptar 100 como su

recompensa o hijo. Mostrar que E[Y] Efectos E[X]. para tomar la cantidad (ya sea 200 o 50) en el rojo 4,5. Supongamos que P{X = 0} = 1 − P{X = 1}. Si es papel. Supongamos que le gustaría que su E[X] = 3Var(X)Encontrar P{X = 0}. recompensa a ser grande. 4,6. Hay 2 monedas en un recipiente. Cuando uno de ellos es un Argumentan que no hay razón para dar la vuelta a la volteada, aterriza en cabezas con la probabilidad 6, y el papel rojo en primer lugar, porque si lo hace, entonces no cuando el otro se volteó, aterriza en las cabezas con la materia qué valor usted observa, es siempre probabilidad. 3. Una de estas monedas es ser mejor al azar para cambiar al papel azul. elegida y luego volteada. Sin saber qué b Dejar y ser un valor no negativo fijo, y concoin se elige, se puede apostar cualquier cantidad hasta 10 Sider la siguiente estrategia: dar la vuelta a los dólares, y entonces o bien ganar esa cantidad si el papel azul, y si su valor es por lo menos y, entonces la moneda sube las cabezas o la pierde si sube las colas. aceptar esa cantidad. Si es menor que y, entonces Supongamos, sin embargo, que un Insider está dispuesto a vender cambiar al papel rojo. Dejar Ry(x) denotar el que, por una cantidad C, la información sobre qué recompensa obtenida si el filántropo escribe moneda fue seleccionada. ¿Cuál es su pago esperado de la cantidad X y usted emplea esta estratif que usted compra esta información? Tenga en cuenta que si usted compra EGY. Encontrar E[Ry(x)]. Tenga en cuenta que E[R0(x)] es el

recompensa esperada si el filántropo escribe la cantidad X cuando empleas la estrategia de elegir siempre el papel azul. 4.8. Dejar B(n, p) representan una variable aleatoria binomial con parámetros N Y p. Argumentar que P{B(n,p) ... i} = 1 − P{B(n, 1 − p) ... N − me − 1} Pista: El número de éxitos menores o iguales a los me es equivalente a Qué afirmación sobre el número de fallas? 4.9. Si X es una variable aleatoria binomial con el valor esperado 6 y la varianza 2,4, encontrar P{X = 5}. 4.10. Una urna contiene N bolas numeradas 1 a n. Si retira M bolas aleatoriamente en secuencia, cada vez que se reemplaza la pelota seleccionada previamente, encontrar P{X = k},K = 1...,mDonde X es el máximo de la M números elegidos. Pista: Primer hallazgo P{X ... k}. 4.11. Equipos Un Y B jugar una serie de juegos, con el primer equipo para ganar 3 juegos siendo declarados el ganador de la serie. Supongamos que el equipo Un independientemente gana cada juego con probabilidad p. Encuentre la probabilidad condicional de que el equipo Un Gana un la serie dado que gana el primer juego; b el primer juego dado que gana la serie. 4.12. Un equipo de fútbol local tiene 5 juegos más a la izquierda para jugar. Si gana su juego este fin de semana, entonces jugará sus últimos 4 partidos en el soporte superior de su liga, y si pierde, entonces jugará sus juegos finales en el soporte inferior. Si juega en el soporte superior, entonces ganará independientemente cada uno de sus juegos en este soporte con probabilidad 4, y si juega en el soporte inferior, entonces ganará independientemente cada uno de sus juegos con probabilidad. 7. Si la probabilidad de que el equipo gane su juego este fin de semana es 0.5, ¿cuál es la probabilidad de que gane al menos 3 de sus últimos 4 partidos? 4.13. Cada uno de los miembros de un panel de 7 jueces de forma independiente toma una decisión correcta con probabilidad .7. Si la decisión del grupo especial se toma por regla mayoritaria, ¿cuál es la probabilidad de que el grupo especial realice la decisión correcta? Dado que 4 de los jueces estuvieron de acuerdo, ¿cuál es la probabilidad de que el grupo especial haya tomado la decisión correcta? 4.14. En promedio, 5,2 huracanes golpearon una región determinada en un año. ¿Cuál es la probabilidad de que haya 3 o menos huracanes que impacte este año? 4.15. El número de huevos que se colocan en una hoja de árbol por un insecto de cierto tipo es una variable aleatoria de Poisson con parámetro λ. Sin embargo, tal variable aleatoria se puede observar sólo si es positivo, ya que si es 0 entonces no podemos saber que tal insecto estaba en la hoja. Si dejamos que Y denotan el número observado de huevos, luego P{Y = i} = P{X = i|X > 0} Donde X es Poisson con parámetro λ. Encontrar E[Y]. 4.16. Cada uno de los N niños y N las niñas, independientemente y al azar, elige un miembro del otro sexo. Si un niño y una niña se eligen entre sí, se convierten en pareja. Número de las chicas, y dejar Gme ser el evento que la chica número me es parte de una pareja. Dejar P0 = ser la probabilidad de que ninguna pareja se forman. (a) Qué es P(Gi)? (b) Qué es P(Gi|Gj)? (c) Cuando N es grande, aproximado P0. (d) Cuando N es grande, aproximado Pk, la probabilidad de que exactamente K se forman las parejas. (e) Utilice la identidad de inclusión-exclusión para evaluar P0. 4,17. Un total de 2N personas, consistentes en N parejas casadas, se dividen aleatoriamente en N Pares. Arbitrariamente numeran a las mujeres, y deje Wme denotan el evento que la mujer me está emparejado con su marido. (a) Encontrar P(Wi). (b) Para me Z jEncontrar P(Wi|Wj). (c) Cuando N es grande, aproximan la probabilidad de que ninguna esposa esté emparejada con su marido. (d) Si cada emparejamiento debe consistir en un hombre y una mujer, ¿a qué se reduce el problema? 4,18. Un patrón de Casino continuará haciendo $5 apuestas en rojo en la ruleta hasta que haya ganado 4 de estas apuestas. (a) ¿Cuál es la probabilidad de que ella coloca un total de 9 apuestas? (b) ¿Cuál es su ganancia esperada cuando se detiene?

Observación: En cada apuesta, ganará $5 con probabilidad o perder $5 con probabilidad . 4.19. Cuando tres amigos van para el café, deciden quién pagará el cheque por cada uno que voltea una moneda y después dejando la "persona extraña" paga. Si los tres volteretas producen el mismo resultado (de modo que no hay una persona extraña), entonces hacen una segunda ronda de volteretas, y continúan haciéndolo hasta que hay una persona extraña. ¿Cuál es la probabilidad de que un exactamente 3 rondas de volteretas se hacen? b se necesitan más de 4 rondas? 4.20. Muestre que si X es una variable aleatoria geométrica con parámetro pEntonces pRegistro(p) E[1/X] = −

− 1

p

Pista: Deberá evaluar una expresión de q

el formulario ai/i. Para ello, escriba ai/me y luego intercambiar la suma y la integral.i

Dx, =1

4,21. Supongamos que P{X = a} = p,P{X = b} = 1 − p (a) Mostrar eso es una variable aleatoria Bernoulli. (b) Encontrar var(X). 4,22. Cada juego que juegas es una victoria con probabilidad p. Usted planea jugar 5 juegos, pero si usted gana el quinto juego, entonces usted seguirá jugando hasta que pierda. (a) Encuentra el número esperado de juegos que juegas. (b) Encuentra el número esperado de juegos que pierdes. 4.23. Las bolas se retiran aleatoriamente, una a la vez sin reemplazo, de una urna que inicialmente tiene N blanco y M bolas negras. Encuentre la probabilidad de que N bolas blancas se dibujan antes de M bolas negras, N ... N,M ... M. 4.24. Diez bolas se distribuirán entre 5 urnas, con cada pelota entrando en urna me con probabilidad pi, denotan el número de Problemas y ejercicios de autoprueba

. Dejar Xme

bolas que entran en la urna i. Supongamos que los eventos correspondientes a las ubicaciones de diferentes bolas son independientes. (a) ¿Qué tipo de variable aleatoria es Xi? Sea lo más específico posible. (b) Para me Z j, ¿qué tipo de variable aleatoria es Xme + Xj? (c) Encontrar P{X1 + X2 + X3 = 7}. 4,25. Para Lla Partido Problema (Ejemplo 5m En Capítulo 2), busque un el número esperado de coincidencias. b la varianza del número de coincidencias. 4,26. Dejar Un probabilidad de que una variable aleatoria geométrica X con parámetro P es un número par. (a) Encontrar Un mediante el uso de la identidad P{X = 2i}. (b) Encontrar Un por condicionamiento sobre si X = 1 o X > 1.

CHAPTER5

Variables aleatorias continuas 5,1 Introducción 5,2 EXPECTATIVA Y VARIANZA DE VARIABLES ALEATORIAS CONTINUAS 5,3 LA VARIABLE ALEATORIA UNIFORME 5,4 VARIABLES ALEATORIAS NORMALES 5,5 VARIABLES ALEATORIAS EXPONENCIALES 5,6 OTRAS DISTRIBUCIONES CONTINUAS 5,7 LA DISTRIBUCIÓN DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA

5,1

Introducción En el capítulo 4, consideramos variables aleatorias discretas, es decir, variables aleatorias cuyo conjunto de valores posibles es finito o infinitamente infinito. Sin embargo, también existen variables aleatorias cuyo conjunto de valores posibles es incontable. Dos ejemplos son el tiempo que un tren llega a una parada especificada y la duración de un transistor. Dejar X ser una variable aleatoria. Decimos que X es un Continua1 variable aleatoria si existe una función no negativa f, definida para todos los X ∈ (− q, q, teniendo la propiedad que, para cualquier conjunto B de números reales,2

P{X ∈ B} = * f(x)Dx

(1,1)

B

La función F se denomina función de densidad de probabilidad de la variable aleatoria X. (Consulte la figura 5,1.) En palabras, la ecuación (1,1) indica que la probabilidad de que X estará en B puede obtenerse integrando la función de densidad de probabilidad sobre el conjunto B. Desde X debe asumir algún valor, F debe satisfacer q

1 = P{X ∈ (− q, q)} = *

1 2

f(x)Dx

A veces se llama absolutamente continuo.

En realidad, por razones técnicas la ecuación (1,1) es verdadera sólo para el Mensurable Establece B, que, afortunadamente, incluyen todos los conjuntos de interés práctico.

−q

Todas las declaraciones de probabilidad sobre X puede ser respondida en términos de f. Por ejemplo, desde la ecuación (1,1), dejar B = [a,b], obtenemos b a

P{Un ... X ... b} = *

f(x)Dx

(1,2)

186 Sección 5,1

Introducción

f

P(U n

X

a b B) = área de la región sombreada

x

FIGURA 5,1: Función de densidad de probabilidad f.

Si dejamos que Un = B en la ecuación (1,2), obtenemos P{X = a} = *Un f(x)Dx = 0 a En palabras, esta ecuación indica que la probabilidad de que una variable aleatoria continua asuma cualquier valor fijo es cero. Por lo tanto, para una variable aleatoria continua, P{X < a} = P{X ... a} = F(a) = * Q f(x)Dx a −

EJEMPLO 1A Supongamos que X es una variable aleatoria continua cuya función de densidad de probabilidad es dada por f (a) ¿Cuál es el valor de C? (b) Encontrar P{X > 1}.

Solución. un Desde F es una función de densidad de probabilidad, debemos tener 1 implicando que

2

C * (4X − 2x2)Dx = 1 0

O

C O C Ahí . EJEMPLO 1B La cantidad de tiempo en horas que un ordenador funciona antes de romperse es una variable aleatoria continua con la función de densidad de probabilidad dada por f(x)

=x/100 X Efectos 0X<0

¿Cuál es la probabilidad de que (a) un ordenador funcionará entre 50 y 150 horas antes de romperse? (b) funcionará por menos de 100 horas? Solución. a) desde q

e−x/100 Dx

obtenemos O Por lo tanto, la probabilidad de que un ordenador funcionará entre 50 y 150 horas antes de la ruptura se da por

150 150

P

(b)

50

Semejantemente

P En otras palabras, aproximadamente 63,3 por ciento del tiempo, un ordenador fallará antes de registrar 100 horas de uso. . EJEMPLO 1C La duración en horas de un cierto tipo de tubo de radio es una variable aleatoria que tiene una función de densidad de probabilidad dada por ⎧ ⎪ 0 X ... 100

f

¿Cuál es la probabilidad de que exactamente 2 de 5 de estos tubos en un conjunto de radio tendrá que ser reemplazado dentro de las primeras 150 horas de operación? Supongamos que los eventos Ei,me = 1, 2, 3, 4, 5, que el iEste tubo tendrá que ser reemplazado dentro de este tiempo son independientes. Sección 5,1

Introducción

Solución. A partir de la declaración del problema, hemos 150

P(Ei) = *

f(x)Dx 0

Dx Por lo tanto, de la independencia de los acontecimientos Ei, se deduce que la probabilidad deseada es . La relación entre la distribución acumulada F y la densidad de probabilidad F se expresa por F(a) = P{X ∈ (− q,a]} = * f(x)Dx a −q

Diferenciando ambos lados de la ecuación anterior rinde d F(a) f(a) De = Es decir, la densidad es la derivada de la función de distribución acumulativa. Una interpretación algo más intuitiva de la función de la densidad se puede obtener de la ecuación (1,2) como sigue:

P

... X ... Un

F(x)Dx L Ef(a)

Cuando E es pequeña y cuando f(·) es continua en X = a. En otras palabras, la probabilidad de que X estará contenida en un intervalo de longitud E alrededor del punto Un es aproximadamente εf(a). De este resultado vemos que f(a) es una medida de lo probable es que la variable aleatoria estará cerca a. EJEMPLO 1D Si X es continua con la función de distribución FX y la función de la densidad fX, encuentre la función de densidad de Y = 2X. Solución. Determinaremos fY de dos maneras. La primera forma es derivar, y luego diferenciar, la función de distribución de Y: FY(a) = P{Y ... a} = P{2X ... a} = P{X ... a/2} = FX(a/2) La diferenciación da fY Otra forma de determinar fY es notar que fY(a) L P{Un −

... Y ... Un + } 2 2 X ... a 2

... X ... 4

Un

+}

L fX(a/2) 2 Dividiendo por da el mismo resultado que antes. 5,2 EXPECTATIVA Y VARIANZA DE VARIABLES ALEATORIAS CONTINUAS

.

En el capítulo 4, definimos el valor esperado de una variable aleatoria discreta X Por E x

Si X es una variable aleatoria continua que tiene la función de densidad de probabilidad f(x), entonces, porque f(x)Dx L P{X ... X ... X + Dx} Para Dx Pequeño es fácil ver que la definición análoga es definir el valor esperado de X Por q E[X] = * Xf(x)Dx − q

EJEMPLO 2A Encontrar E[X] cuando la función de densidad de X Es 2X Si

0 ... X ... 1

f(x) = % 0

Lo contrario

Solución.

E[X] = * Xf(x)Dx

Dx

. EJEMPLO 2B La función de densidad de X es dada por 1 Si f(x) = %

0 ... X ... 1

0 de lo contrario Encontrar E[eX]. Sección 5,2

Expectativa y varianza de variables aleatorias continuas

Solución. Dejar Y = eX. Empezamos determinando FY, la función de distribución de probabilidad de Y. Ahora, por 1 ... X ... e, FY(x) = P{Y ... x} = P{eX ... x}

= P{X ... Registro(x)} Registro(x)

= *0

f(y)Dy

= Registro(x) Diferenciando FY(x), podemos concluir que la función de densidad de probabilidad de Y es dada por 1 fY(x) = x

1 ... X ... e

Ahí q

E[eX] = E[Y] = *−eQ XfY(x)Dx

= *1 Dx =Y−1

.

Aunque el método empleado en el ejemplo 2B para calcular el valor esperado de una función de X es siempre aplicable, hay, como en el caso discreto, una forma alternativa de proceder. El siguiente es un análogo directo de la Proposición 4,1. del capítulo 4. Propuesta 2,1. Si X es una variable aleatoria continua con función de densidad de probabilidad f(x), entonces, para cualquier función de valor real g, q

E[g(X)] = *−Q g(x)f(x)Dx

Una aplicación de la Proposición 2,1 al ejemplo 2B rinde 1

E[eX] = *0 eX Dx

Desdef(x) = 1

0<X<1

=Y−1 que está de acuerdo con el resultado obtenido en ese ejemplo. La prueba de la Proposición 2,1 está más involucrada que la de su discreta variable aleatoria analógica. Presentaremos tal prueba en virtud de la disposición de que la variable aleatoria g(X) no es negativo. (La prueba general, que sigue el argumento en el caso que presentamos, está indicada en los ejercicios teóricos 2 y 3.) Necesitaremos el siguiente lema, que es de interés independiente. Lemma 2,1

Para una variable aleatoria no negativa Y, q

E[Y] = *0 P{Y > y}Dy Prueba. Presentamos una prueba cuando Y es una variable aleatoria continua con función de densidad de probabilidad fY. Tenemos q

*

Q

P{Y > y}Dy = * 0

* 0

fY(x)DXDY y

donde hemos utilizado el hecho de que P{Y > y} = -yQ fY(x)Dx. Intercambie el orden de integración en la ecuación anterior rinde

FY(x)Dx q

= *0

XfY(x)Dx

= E[Y]

Prueba de la Proposición 2,1.

.

Desde Lemma 2,1, para cualquier función G para los que g(x) el 0 q

E[g(X)] = *0 P{g(X) > y}Dy q = *0 *x:g(x)>y f(x)DXDY g(x)

= *x:g(x)>0 *0

m f(x)Dx

= *x:g(x)>0 g(x)f(x)Dx que completa la prueba. EJEMPLO 2C Un palo de longitud 1 se divide en un punto U que se distribuye uniformemente sobre (0,1). Determine la longitud esperada de la pieza que contiene el punto p, 0 ... P ... 1.

Solución. Dejar Lp(U) denotan la longitud del substick que contiene el punto p, y observe que Lp(U) = % 1U− EnU <> pp (Consulte la figura 5,2.) Por lo tanto, de la Proposición 2,1,

E[Lp(U)] = *0 Lp(u)De

1

= *0 (1 − u)De + *P Niebla p 1

Sección 5,2

Expectativa y varianza de variables aleatorias continuas 1–U U

p

1

un 0

U b 0

p

U

1

FIGURA 5,2: Substick que contiene el punto p: (a) U < p; b U > p.

Desde p(1 − p) está maximizada cuando p , es interesante notar que la longitud esperada de la subvarilla que contiene el punto P está maximizada cuando P es el punto medio del palo original. . EJEMPLO 2D Supongamos que si usted está s minutos antes de una cita, entonces usted incurre en el costo Cs, y si está s minutos tarde, entonces usted incurre en el costo Ks. Supongamos también que el tiempo de viaje desde donde usted está actualmente a la ubicación de su cita es una variable aleatoria continua que tiene la función de densidad de probabilidad f. Determine la hora a la que debe salir si desea minimizar el costo esperado. Solución. Dejar X denotan el tiempo de viaje. Si te vas T minutos antes de su cita, entonces su costo — llámeme Ct(X)— está dada por Ct(X) = % k(X− − t) SiX Efectos t c(t X) SiX ... t Por lo tanto q

E[Ct(X)]*

Ct(x)f(x)Dx 0 t

q

= * c(T − x)f(x)Dx + *

k(X − t)f(x)Dx q

= Ct * f(x)Dx − c* Xf(x)Dx + k* 0

0

Xf(x)Dx − Otros * t

f(x)Dx

t

El valor de T que minimiza la E[Ct(X)] ahora puede obtenerse por cálculo. Rendimientos de diferenciación d E[Ct(X)] CT f(t) Cf(t) CT f(t) k f(t) k f(t) k[1 F(t)] Alemán = + − − + − − = (K + c)F(t) − k Igualar el lado derecho a cero muestra que el costo mínimo esperado se obtiene cuando usted deja t∗ minutos antes de su cita, donde t∗ Satisface

F(t∗) = k

K + c

.

Al igual que en el capítulo 4, podemos usar la Proposición 2,1 para mostrar lo siguiente. Corolario 2,1. Si Un Y B son constantes, entonces E[Ax + b] = Ae[X] + b La prueba de Corollary 2,1 para una variable aleatoria continua X es el mismo que el que se da para una variable aleatoria discreta. La única modificación es que la suma es reemplazada por una integral y la función de masa de probabilidad por una función de densidad de probabilidad. La varianza de una variable aleatoria continua se define exactamente como es para una variable aleatoria discreta, es decir, si X es una variable aleatoria con valor esperado μ, entonces la varianza de X se define (para cualquier tipo de variable aleatoria) Fue(X) = E[(X − m)2] La fórmula alternativa, Fue(X) = E[X2] −E[X])2 se establece de manera similar a su contraparte en el caso discreto. EJEMPLO 2E Encontrar var(X) Para X como se da en el ejemplo 2A.

Solución. Primero computamos E[X2]. q

E[X2] = * x2f(x)Dx − q

Dx Por lo tanto, desde E

, obtenemos

. Se puede demostrar que, para las constantes Un Y b, Fue(Ax + b) = a2Fue(X) La prueba imita la que se da para las variables aleatorias discretas. Hay varias clases importantes de variables aleatorias continuas que aparecen con frecuencia en aplicaciones de probabilidad; las próximas secciones están dedicadas a un estudio de algunos de ellos. 5,3LA VARIABLE ALEATORIA UNIFORME Se dice que una variable aleatoria es Uniformemente distribuido en el intervalo (0,1) si su función de densidad de probabilidad es dada por f

(3,1)

Observe que la ecuación (3,1) es una función de densidad, ya que f(x) el 0 y 1. porque f(x) > 0 sólo cuando x

Dx

(0, 1), se deduce que X debe asumir

-un valor en el intervalo (0, 1). Además, desde f(x) es constante para∈

X ∈ (0, 1), X es tan

probable que-= Sección 5,3 f ( a)

La variable aleatoria uniforme F ( a) 1

1 ——– –

a (a)

a (b )

FIGURA 5,3: Gráfico de (a) f(a) y b) F(a) para una variable aleatoria uniforme (α, β).

estar cerca de cualquier valor en (0, 1), ya que es estar cerca de cualquier otro valor. Para comprobar esta instrucción, tenga en cuenta que, para cualquier 0 < Un < B < 1 b

f(x)Dx = B − a

P{Un ... X ... b} = * a

En otras palabras, la probabilidad de que X está en cualquier subintervalo en particular de (0,1) es igual a la longitud de ese subintervalo. En general, decimos que X es una variable aleatoria uniforme en el intervalo (A,B Si la función de densidad de probabilidad de X es dada por Si A < X < b f(3,2) 0

Lo contrario

Desde F(a) = -−aQ f(x)Dx, se deduce de la ecuación (3,2) que la función de distribución(A,B es dada por una variable aleatoria uniforme en el intervalo

F La figura 5,3 presenta un gráfico de f(a) Y F(a). EJEMPLO 3A Dejar X distribuirse uniformemente sobre (A,B. Buscar (a) E[X] y (b) var(X). Solución.

un q

E[X] = *

Xf(x)Dx − BQ x

* Dx α

En palabras, el valor esperado de distribuye uniformemente en algún de ese intervalo. (b) para encontrar E[X2].

una variable aleatoria que se intervalo es igual al punto medio var(X), primero calculamos

E

Dx

Ahí

Por lo tanto, la varianza de una variable aleatoria que se distribuye uniformemente en algún intervalo es el cuadrado de la longitud de ese intervalo dividido por 12. . EJEMPLO 3B Si X se distribuye uniformemente sobre (0, 10), calcule la probabilidad de que (a) X < 3, (b) X > 6, y (c) 3 < X < 8. Solución.

. EJEMPLO 3C Los autobuses llegan a una parada especificada a intervalos de 15 minutos a partir de las 7 Es decir, llegan a 7, 7:15, 7:30, 7:45, y así sucesivamente. Si un pasajero llega a la parada en un momento que se distribuye uniformemente entre 7 y 7:30, encontrar la probabilidad de que espera A.M.

(a) menos de 5 minutos para un autobús; (b) más de 10 minutos para un autobús. Solución. Dejar X indican el número de minutos pasados 7 que el pasajero llega a la parada. Desde X es una variable aleatoria uniforme a lo largo del intervalo (0, 30), se deduce que el pasajero tendrá que esperar menos de 5 minutos si (y sólo si) llega entre 7:10 y 7:15 o entre 7:25 y 7:30. Por lo tanto, la probabilidad deseada para la parte (a) es P Del mismo modo, tendría que esperar más de 10 minutos si llega entre 7 y 7:05 o entre 7:15 y 7:20, por lo que la probabilidad de la parte (b) es . P Sección 5,3 variable aleatoria uniforme

La

El siguiente ejemplo fue considerado por primera vez por el matemático francés Joseph l. f. Bertrand en 1889 y a menudo se le denomina La paradoja de Bertrand. Representa nuestra introducción inicial a un tema comúnmente referido como probabilidad geométrica. EJEMPLO 3D Considere un acorde aleatorio de un círculo. ¿Cuál es la probabilidad de que la longitud del acorde será mayor que el lado del triángulo equilátero inscrito en ese círculo? Solución. Como se indicó, el problema es incapaz de solución porque no está claro lo que se entiende por un acorde aleatorio. Para dar sentido a esta frase, reformularemos el problema de dos maneras distintas. La primera formulación es la siguiente: la posición del acorde se puede determinar por su distancia desde el centro del círculo. Esta distancia puede variar entre 0 y r, el radio del círculo. Ahora, la longitud del acorde será mayor que el lado del triángulo equilátero inscrito en el círculo si la distancia desde el acorde al centro del círculo es menor que r/2. Por lo tanto, suponiendo que un acorde aleatorio es un acorde cuya distancia D del centro del círculo se distribuye uniformemente entre 0 y r, vemos que la probabilidad de que la longitud del acorde sea mayor que el lado de un triángulo equilátero inscrito es P Para nuestra segunda formulación del problema, considere un acorde arbitrario del círculo; a través de un extremo del acorde, dibuja una tangente. El ángulo Me entre el acorde y la tangente, que puede variar de 0◦ a 180◦, determina la posición del acorde. (Consulte la figura 5,4.) Además, la longitud del acorde será mayor que el lado del triángulo equilátero inscrito si el ángulo Me está entre 60◦ y 120◦. Por lo tanto, suponiendo que un acorde aleatorio es un acorde cuyo ángulo Me se distribuye uniformemente entre 0◦ y 180◦, vemos que la respuesta deseada en esta formulación es P Tenga en cuenta que los experimentos aleatorios podrían realizarse de tal manera que O sería la probabilidad correcta. Por ejemplo, si un disco circular de radio R se lanza sobre una mesa gobernada con líneas paralelas a una distancia 2R Aparte, entonces una y sólo una de estas líneas cruzaría el disco y formarían un acorde. Todas las distancias desde este acorde al centro del disco serían igualmente probables, de modo que la probabilidad deseada de que la longitud del acorde sea mayor que el lado de un triángulo equilátero inscrito es . En cambio, si el

A

experimento consistía en girar una aguja libremente sobre un punto Un en el borde (ver

Figura 5,4) del círculo, la respuesta deseada sería .

.

5,4VARIABLES ALEATORIAS NORMALES Decimos que X es una variable aleatoria normal, o simplemente X se distribuye normalmente, con parámetros M Y σ2 Si la densidad de X es dada por

−q<X
f

Esta función de densidad es una curva en forma de campana que es simétrica sobre μ. (Consulte la figura 5,5.) .399

–3

–2

–1

0

1

2

3

(a)

.399 ——–



+

–2

+2

( b) FIGURA 5,5: Función de densidad normal: (a) μ = 0, σ = 1; b) arbitraria μ, σ 2.

La distribución normal fue introducida por el matemático francés Abraham DeMoivre en 1733, quien la utilizó para aproximar las probabilidades asociadas a variables aleatorias binomiales cuando el parámetro binomial N es grande. Este resultado fue ampliado más tarde por Laplace y otros y ahora está abarcado en un teorema de probabilidad conocido como el teorema del límite central, que se discute en el capítulo 8. El teorema del límite central, uno de los dos resultados más importantes en la teoría de la probabilidad,† da una base teórica a la observación empírica a menudo observada que, en la práctica, muchos fenómenos aleatorios obedecen, al menos aproximadamente, una distribución de probabilidad normal. Algunos ejemplos de fenómenos aleatorios obedeciendo este comportamiento son la altura de un hombre, la velocidad en cualquier dirección de una molécula en el gas, y el error hecho en la medición de una cantidad física. Para demostrar que f(x) es de hecho una función de densidad de probabilidad, necesitamos mostrar que 1

* Q e−x− m)2/2σ2 Dx = 1

2 −q



La otra es la fuerte ley de los grandes números.

Hacer la sustitución y = (X − m)/s, vemos que

√1 2Cp

* Q e−x− m)2/2σ2 Dx = √1

* Q e−y2/2 Dy 2π

−q

−q

Por lo tanto, debemos demostrar que * Q e−y2/2 Dy = √2π −q

Hacia este extremo, deje que Me

=

-−qQ e−y2/2 Dy. Entonces2

2q

q

I2 = *−qQ e−y /2 Dy2*−2Q e−X /2 Dx q

= *− q*− q e−y +X )/2 dydx

Ahora evaluamos la doble integral por medio de un cambio de variables a coordenadas polares. (Es decir, que X = rCuerpoθ,y = rsinθY dydx = RdMe Dr.) Así Q 2π

= I2 *0 *0

e−R /2RdMe Dr q

= 2P0

2

2

re2 −R /2Dr

6 = −2πe−R /2 6q0 = 2π Por lo tanto, un hecho importante sobre las variables aleatorias normales es que siMe = √2π, y se prueba el resultado. X normalmente se dis-

parameterstributed con parámetrosaM + B Y a2CwF2YY. Para probar esta afirmación, supongamos que denotan la función de distribución acumulativa deσ2Entonces Y = Ax + B normalmente se distribuye conUn > 0. (la pruebaY. Luego, cuando Un < 0 es similar.) Dejar FY(x) = P{Y ... x} = P{Ax + B ... x} = P{X ... X −a b} = FX(X −a b) Donde FX es la función de distribución acumulativa de X. Por diferenciación, la función de densidad de Y es entonces fY(x) = a1fX(X −a b)

√2πaP Exp−X −a b − m)2/2σ2}

UnM2/2(aP2} que muestra que Y es normal con los parámetros aM + B Y a2σ2. Una implicación importante del resultado precedente es que si X normalmente se distribuye con parámetros M Y σ2Entonces Z = (X − m)/s normalmente se distribuye con los parámetros 0 y 1. Tal variable aleatoria se dice que es una Estándar, o un Unidad, variable aleatoria normal. Ahora mostramos que los parámetros M Y σ2 de una variable aleatoria normal representan, respectivamente, su valor esperado y la varianza. EJEMPLO 4A Encontrar E[X] y var(X) Cuando X es una variable aleatoria normal con parámetros M Y σ2. Solución. Comencemos encontrando la media y la varianza de la variable aleatoria normal estándar Z = (X − m)/s. Tenemos q

E[Z] = *XfZ(x)Dx q

2

=√

* Coche−X /2 Dx 2P −q

q

Así Fue(Z) = E[Z2] = √1

* Q x2e−x2/2 Dx



−q

Integración por partes (con U = X Y Fr = Coche−x2/2) ahora da 1 Fue(Z) = √

q

(−Coche−x2/2|Qq + * 2π

=



1

e−x2/2 Dx) −q

*Q

2 1 e−x2/2 Dx q

Kuz X = m + SZ, el anterior rinde los resultados E[X] = m + SE[Z] = M Y Fue(X) = S2Fue(Z) = S2

.

Es costumbre denotar la función de distribución acumulativa de una variable aleatoria normal estándar (x). Es decir 1 (x) = √

x

* 2π

e−y2/2 Dy −q

Los valores de (x) para no negativos X se dan en la tabla 5,1. Para los valores negativos de x, (x) puede obtenerse de la relación

−q<X
(

(4,1)

TABLA 5,1: ZONAx) BAJO LA CURVA NORMAL ESTÁNDAR A LA IZQUIERDA DE X

X

.00

.01

.02

.03

.04

.05

.06

.07

.08

.09

.0

.5000

.5040

.5080

.5120

.5160

.5199

.5239

.5279

.5319

.5359

.1 .2 .3 .4 .5 .6 .7 .8 .9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4

.5398 .5793 .6179 .6554 .6915 .7257 .7580 .7881 .8159 .8413 .8643 .8849 .9032 .9192 .9332 .9452 .9554 .9641 .9713 .9772 .9821 .9861 .9893 .9918 .9938 .9953 .9965 .9974 .9981 .9987 .9990 .9993 .9995 .9997

.5438 .5832 .6217 .6591 .6950 .7291 .7611 .7910 .8186 .8438 .8665 .8869 .9049 .9207 .9345 .9463 .9564 .9649 .9719 .9778 .9826 .9864 .9896 .9920 .9940 .9955 .9966 .9975 .9982 .9987 .9991 .9993 .9995 .9997

.5478 .5871 .6255 .6628 .6985 .7324 .7642 .7939 .8212 .8461 .8686 .8888 .9066 .9222 .9357 .9474 .9573 .9656 .9726 .9783 .9830 .9868 .9898 .9922 .9941 .9956 .9967 .9976 .9982 .9987 .9991 .9994 .9995 .9997

.5517 .5910 .6293 .6664 .7019 .7357 .7673 .7967 .8238 .8485 .8708 .8907 .9082 .9236 .9370 .9484 .9582 .9664 .9732 .9788 .9834 .9871 .9901 .9925 .9943 .9957 .9968 .9977 .9983 .9988 .9991 .9994 .9996 .9997

.5557 .5948 .6331 .6700 .7054 .7389 .7704 .7995 .8264 .8508 .8729 .8925 .9099 .9251 .9382 .9495 .9591 .9671 .9738 .9793 .9838 .9875 .9904 .9927 .9945 .9959 .9969 .9977 .9984 .9988 .9992 .9994 .9996 .9997

.5596 .5987 .6368 .6736 .7088 .7422 .7734 .8023 .8289 .8531 .8749 .8944 .9115 .9265 .9394 .9505 .9599 .9678 .9744 .9798 .9842 .9878 .9906 .9929 .9946 .9960 .9970 .9978 .9984 .9989 .9992 .9994 .9996 .9997

.5636 .6026 .6406 .6772 .7123 .7454 .7764 .8051 .8315 .8554 .8770 .8962 .9131 .9279 .9406 .9515 .9608 .9686 .9750 .9803 .9846 .9881 .9909 .9931 .9948 .9961 .9971 .9979 .9985 .9989 .9992 .9994 .9996 .9997

.5675 .6064 .6443 .6808 .7157 .7486 .7794 .8078 .8340 .8577 .8790 .8980 .9147 .9292 .9418 .9525 .9616 .9693 .9756 .9808 .9850 .9884 .9911 .9932 .9949 .9962 .9972 .9979 .9985 .9989 .9992 .9995 .9996 .9997

.5714 .6103 .6480 .6844 .7190 .7517 .7823 .8106 .8365 .8599 .8810 .8997 .9162 .9306 .9429 .9535 .9625 .9699 .9761 .9812 .9854 .9887 .9913 .9934 .9951 .9963 .9973 .9980 .9986 .9990 .9993 .9995 .9996 .9997

.5753 .6141 .6517 .6879 .7224 .7549 .7852 .8133 .8389 .8621 .8830 .9015 .9177 .9319 .9441 .9545 .9633 .9706 .9767 .9817 .9857 .9890 .9916 .9936 .9952 .9964 .9974 .9981 .9986 .9990 .9993 .9995 .9997 .9998

La prueba de la ecuación (4,1), que sigue de la simetría de la densidad normal estándar, se deja como ejercicio. Esta ecuación indica que si Z es una variable aleatoria normal estándar, P{Z ... −x} = P{Z > x}

−q<X
Desde Z = (X − m)/s es una variable aleatoria normal estándar cada vez que X normalmente se distribuye con parámetros M Y σ2, se deduce que la función de distribución de X puede expresarse como

μ a FX(a) = P{X ... a} =... EJEMPLO 4B SiX X<es una variable aleatoria normal con parameters5}; b P{X > 0}; c P{|X − 3| > 6}. encontrar (a) P{2 <

Solución.

m = 3 y σ2 = 9,

un

P{2 < X < 5} = P%2 −3 3 < X 3− 3 < 5 −3 3/

b

3 0 3 P{X > 0} = P%X 3− > −3 / = P{Z > −1}

J h8413 c P{|X − 3| > 6} = P{X > 9} + P{X < −3} = P%X 3− 3 > 9 − 3/ + P%X 3− 3 < −3 3− 3/ 3

2)] L.0456 .

EJEMPLO 4C

Un examen se considera con frecuencia como bueno (en el sentido de determinar una extensión válida del grado para los que lo toman) si las puntuaciones de la prueba de ésos que toman el examen se pueden aproximar por una función normal de la densidad. (En otras palabras, un gráfico de la frecuencia de las puntuaciones de grado debe tener aproximadamente la forma en forma de campana de la densidad normal.) El instructor utiliza a menudo las puntuaciones de las pruebas para estimar los parámetros normales M Y σ2 y luego asigna el grado de letra A a aquellos cuya puntuación de prueba es

P X

P

X

1

mayor que M P + S, B a

P

X

X

P 0 X

P

1

1

1

1

X

1

1587 0

3413

0 1

3413

aquellos cuya puntuación es entreM − s Y μ, D a aquellos cuya puntuación es entreM − 2σ. (Esta estrategia es a vecesM Y M + S, C a losM − 2P cuya puntuación es entre y M − s, y F a los que están obteniendo una puntuación a continuación se denomina calificación "en la curva"). Desde

P{m − 2s < X < m − s} = P −2 < X σ−

M

< −1/ (1Lla.1359

P

se deduce que aproximadamente el 16 por ciento de la clase recibirá una calificación de A en el examen, 34 por ciento de un grado B, 34 por ciento de un grado C y un 14 por ciento de grado D; 2 por ciento fallará. . EJEMPLO 4D Un testigo experto en un traje de paternidad testifica que la longitud (en días) de la gestación humana se distribuye aproximadamente normalmente con parámetros m = 270 y σ2 = 100. el acusado en la demanda es capaz de demostrar que estaba fuera del país durante un período que comenzó 290 días antes del nacimiento del niño y terminó 240 días antes del nacimiento. Si el acusado era, de hecho, el padre del niño, ¿cuál es la probabilidad de que la madre pudiera haber tenido la gestación muy larga o muy corta indicada por el testimonio? Solución. Dejar X denotan la duración de la gestación, y asumen que el acusado es el padre. Entonces la probabilidad de que el nacimiento pueda ocurrir dentro del período indicado es P{X > 290orX < 240} = P{X > 290} + P{X < 240}

= P%X −10270 > 2/ + P%X −10270 < −3/

(3Lla.0241 . EJEMPLO 4E Supongamos que un mensaje binario, ya sea 0 o 1, debe transmitirse por cable desde la ubicación Un a la ubicación B. Sin embargo, los datos enviados a través del cable están sujetos a una perturbación de ruido de canal, por lo que, para reducir la posibilidad de error, el valor 2 se envía a través del cable cuando el mensaje es 1 y el valor −2 se envía cuando el mensaje es 0. SiB, es dada porx,X = ;2, es el valor enviado en la ubicación AEntonces R, el valor recibido en la ubicación en la ubicaciónR = X + Nb, donde, el receptor lo decodifica de acuerdo con la siguiente regla:N es la perturbación del ruido del canal. Cuando se recibe el mensaje Si R Efectos.5, entonces se concluye 1. Si R < .5, luego se concluye 0. Debido a que el ruido del canal suele distribuirse normalmente, determinaremos las probabilidades de error cuando N es una variable aleatoria normal estándar. Pueden producirse dos tipos de errores: uno es que el mensaje 1 puede determinarse incorrectamente como 0, y el otro es que 0 puede determinarse incorrectamente como 1. La primera se produce si el mensaje es 0 ytipo de error se producirá si el mensaje es 1 y 2−2 + N Efectos.5. por lo tanto,+ N < .5, mientras que la segunda se

P{Error|el mensaje es 1} = P{N < −1.5} Y P{Error|el mensaje es 0} = P{N Efectos 2.5} . 5.4.1

La aproximación normal a la distribución binomial

Un resultado importante en la teoría de la probabilidad conocida como el teorema del límite DeMoivre-Laplace indica que cuando N es grande, una variable aleatoria binomial con parámetros N Y P tendrá aproximadamente la misma distribución que una variable aleatoria normal con la misma media y varianza que el binomio. Este resultado fue probado originalmente para el caso especial de p por DeMoivre en 1733 y luego se extendió a general P por Laplace en 1812. Declara formalmente que si "estandarizar" el binomio restando primero su

función de distribución de esta variable aleatoria estandarizada (que tiene. Decir Eg y luego dividiendo el resultado por su desviación estándar Eg(1 − p), entonces la varianza 1) convergirá a la función de distribución normal estándar como n→q. El teorema del límite DeMoivre-Laplace Si S n indica el número de éxitos que ocurren cuando n ensayos independientes, cada resultando en un éxito con probabilidad p , se realizan, entonces, para cualquier a b, Sn

P a

Con m

Eg

Eg 1

p

b

b

a

.

Debido a que el teorema precedente es sólo un caso especial del teorema del límite central, que se presenta en el capítulo 8, no presentaremos una prueba. Tenga en cuenta que ahora tenemos dos posibles aproximaciones a las probabilidades binomiales: la aproximación de Poisson, que es buena cuando N es grande y P es pequeño, y la aproximación normal, que se puede demostrar para ser bastante bueno whenFigure 5,6.) [La aproximación normal será, en general, bastante buena para los valores deEg(1 − p) es grande. (Véase elN Satisfactorio Eg(1 − p) el 10. EJEMPLO 4F Dejar X ser el número de veces que una moneda justa que se volteado 40 veces aterriza en las cabezas. con la solución exacta. Encuentre la probabilidad de que X = 20. Utilice la aproximación normal y, a continuación, compare (10 , 0,7)

0,30

(20 , 0,7)

0,20

0,25

0,15

0,20

0,10

0,15 0,10

0,05

0,05 0,0

0

2

4

6

8

10

0,0

0

5

10 x

x 0,16 0,14 0,12 0,10 0,08 0,06 0,04 0,02 0,0

(30 , 0,7)

0

5

10

15 x

20

25

30

0,14 0,12 0,10 0,08 0,06 0,04 0,02 0,0

15

20

(50 , 0,7)

0

10

20

30 x

40

50

FIGURA 5,6: La función de masa de probabilidad de un binomio (n, p) la variable aleatoria se vuelve cada vez más "normal" N se vuelve más grande y más grande.

Solución. Para emplear la aproximación normal, tenga en cuenta que debido a que el binomio es una variable aleatoria discreta con valores enteros, mientras que la normal es una variable aleatoria continua, es mejor escribir P{X = i} Como P{me − 1/2 < X < me + 1/2} antes de aplicar la aproximación normal (esto se denomina corrección de continuidad). Si lo hace, le P{X = 20} = P{19.5 ... X < 20.5} 19 5

20 10

X

20 10

20 5

20 10

=P

LP L (. El resultado exacto es P

.

EJEMPLO 4G El tamaño ideal de una clase de primer año en una Universidad en particular es de 150 estudiantes. La Universidad, sabiendo de la experiencia pasada que, en la media, solamente el 30 por ciento de ésos aceptados para la admisión asistirá realmente, utiliza una política de aprobar las aplicaciones de 450 estudiantes. Calcule la probabilidad de que más de 150 estudiantes de primer año asistan a esta Universidad. Solución. Si X indica el número de estudiantes que asisten, X es una variable aleatoria binomial con parámetros N = 450 y P = .3. utilizando la corrección de continuidad, vemos que la aproximación normal produce

P{X Ú L 1 −1.59) L.0559 Por lo tanto, menos del 6 por ciento del tiempo hacen más de 150 de los primeros 450 aceptados realmente asisten. (¿Qué suposiciones de independencia hemos hecho?) . EJEMPLO 4H Para determinar la efectividad de una cierta dieta en la reducción de la cantidad de colesterol en el torrente sanguíneo, 100 personas se ponen en la dieta. Después de haber estado en la dieta durante un tiempo suficiente, se tomará su recuento de colesterol. El nutricionista que

ejecuta este experimento ha decidido respaldar la dieta si al menos 65 por ciento de las personas tienen un colesterol más bajo cuenta después de ir a la dieta. ¿Cuál es la probabilidad de que el nutricionista apruebe la nueva dieta si, de hecho, no tiene ningún efecto en el nivel de colesterol? Solución. Supongamos que si la dieta no tiene ningún efecto en el recuento de colesterol, entonces, estrictamente por casualidad, el recuento de cada persona será menor de lo que era antes de la dieta con probabilidad . Por lo tanto, si X es el número de personas cuyo recuento se reduce, entonces la probabilidad de que el nutricionista respalde la dieta cuando en realidad no tiene ningún efecto sobre el recuento de colesterol es

{X Efectos 64.5} i=65

L 1 −2.9) L.0019

.

EJEMPLO 4i 52 por ciento de los residentes de la ciudad de Nueva York están a favor de la prohibición de fumar cigarrillos en las áreas de propiedad pública. Aproxime la probabilidad de que más del 50 por ciento de una muestra aleatoria de N la gente de Nueva York están a favor de esta prohibición cuando

¿Cuán grande sería N tiene que ser para hacer que esta probabilidad exceda. 95? Solución. Dejar N denotan el número de residentes de la ciudad de Nueva York. Para responder a la pregunta precedente, primero debemos entender que una muestra aleatoria de tamaño N es una muestra tal que el N personas fueron elegidos de tal manera que cada uno de los subconjuntos de N la gente tenía la misma oportunidad de ser el subconjunto elegido. Por consiguiente Sn, el número de personas en la muestra que están a favor de la prohibición de fumar, es una variable aleatoria hipergeométrica. Es decir SN tiene la misma distribución que el número de bolas blancas obtenidas N bolas se eligen de una urna de N bolas, de los cuales. 52N son de color blanco. Pero porque N y. 52N son grandes en comparación con el tamaño de la muestra n, se deduce de la aproximación binomial a la hipergeométrica (ver sección 4.8.3) que la distribución de SN se aproxima estrechamente a una distribución binomial con parámetros N Y P = .52. la aproximación normal a la distribución binomial muestra entonces que P{SN > .5n} = P

Sn 52n n 52 48

04 n

=P L (.04√n) Así 5528,Si N = 11 P{SN >

.5n} L (.4020) = .6562,Si N = 101 8973, si N = 1001

Para que esta probabilidad sea al menos. 95, necesitarían (.04√n) > .95. porque (x) es una función creciente y (1.645) = .95, esto significa que .04√N > 1.645 O N Efectos 1691.266 Es decir, el tamaño de la muestra tendría que ser al menos 1692. Notas históricas relativas a la distribución normal La distribución normal fue introducida por el matemático francés Abraham DeMoivre en 1733. DeMoivre, que utilizó esta distribución para aproximar las probabilidades conectadas con el lanzamiento de la moneda, lo llamó la curva campana-formada exponencial. Su utilidad, sin embargo, se hizo verdaderamente evidente sólo en 1809, cuando el famoso matemático alemán Karl Friedrich Gauss lo utilizó como una parte integral de su enfoque para predecir la ubicación de las entidades astronómicas. Como resultado, se hizo común después de este tiempo para llamarlo el Distribución gaussiana. Sin embargo, a mediados del siglo XIX, la mayoría de los estadísticos empezaron a creer que la mayoría de los conjuntos de datos tendrían histogramas que se ajustarían a la forma en forma de campana Gaussiana. De hecho, llegó a ser aceptado que era "normal" para cualquier conjunto de datos bien comportado para seguir esta curva. Como resultado, siguiendo el liderazgo del estadístico británico Karl Pearson, la gente comenzó a referirse a la curva gaussiana llamándola simplemente el Normal Curva. (Una explicación parcial de por qué tantos conjuntos de datos se ajustan a la curva normal es proporcionada por el teorema del límite central, que se presenta en el capítulo 8.) Abraham DeMoivre (1667 – 1754) Hoy en día no faltan consultores estadísticos, muchos de los cuales manejan su oficio en los entornos más elegantes. Sin embargo, el primero de su raza funcionó, a principios de años del siglo XVIII, de una oscura y sucia tienda de apuestas en Long acres, Londres, conocida como Slaughter ' s Coffee House. Él era Abraham DeMoivre, un refugiado protestante de la Francia católica, y, por un precio, calculaba la probabilidad de apostar apuestas en todo tipo de juegos de azar.

.

Aunque DeMoivre, el descubridor de la curva normal, se ganaba la vida en la cafetería, era un matemático de habilidades reconocidas. De hecho, fue miembro de la Royal Society y fue reportado como un íntimo de Isaac Newton. Escuche a Karl Pearson imaginando DeMoivre en el trabajo en la casa de la cafetería de Slaughter: "Me imagino demoivre trabajando en una mesa sucia en la casa de café con un jugador de posibile junto a él y Isaac Newton caminando a través de la multitud a su rincón para buscar a su amigo. Haría una gran imagen para un artista inspirado." Gauss de Karl Friedrich Karl Friedrich Gauss (1777 – 1855), uno de los primeros usuarios de la curva normal, fue uno de los más grandes matemáticos de todos los tiempos. Escuche las palabras del conocido historiador matemático e. t. Bell, como se expresa en su libro de 1954 Hombres de matemáticas: En un capítulo titulado "el príncipe de los matemáticos", escribe, "Arquímedes, Newton y Gauss; estos tres están en una clase por sí mismos entre los grandes matemáticos, y no es para los mortales ordinarios tratar de clasificarlos en orden de mérito. Las tres ondas de marea comenzaron en matemáticas puras y aplicadas. Arquímedes estima sus matemáticas puras más altamente que sus aplicaciones; Newton parece haber encontrado la justificación principal de sus invenciones matemáticas en los usos científicos a los que los puso; mientras que Gauss declaró que era todo uno para él si trabajaba en la pura o en el lado aplicado."‡ 5,5VARIABLES ALEATORIAS EXPONENCIALES Una variable aleatoria continua cuya función de densidad de probabilidad se da, para algunos L 0, por f(x) =% le−λX Si X Efectos 0 0 Si X < 0 se dice que es un Exponencial variable aleatoria (o, más sencillamente, se dice que se distribuye exponencialmente) con el parámetro λ. La función de distribución acumulativa F(a) de una variable aleatoria exponencial es dada por F(a) = P{X ... a} a

=

* λe−λX Dx

a

Un Efectos 0

Tenga en cuenta que F

X

Dx = 1, como, por supuesto, debe. El parámetro L

ahora se mostrará que es igual al recíproco del valor esperado. EJEMPLO 5A Dejar X ser una variable aleatoria exponencial con parámetros λ. Calcular (a) E[X] y (b) var(X).

Solución. (a) dado que la función de densidad se f(x) =% le−λX X Efectos 0 0 X<0 obtenemos, por N > 0 q xnλe−λX Dx

E[Xn]*

0

Integración por piezas (con λe−λX = Fr Y U = xn) rendimientos q

E[Xn] = −xne− lxq0*

e− lxNxn−1 Dx 0

N * Q λe− lxxn−1 Dx 0

Hacer[Xn−1] Dejar N = 1 y luego N = 2 da

E E b) por lo tanto,

Por lo tanto, la media de lo exponencial es el recíproco de su parámetro λ, y la varianza es la media cuadrada. . En la práctica, la distribución exponencial a menudo surge como la distribución de la cantidad de tiempo hasta que se produzca algún evento específico. Por ejemplo, la cantidad de tiempo (a partir de ahora) hasta que ocurra un terremoto, o hasta que una nueva guerra se rompa, o hasta que una llamada telefónica que recibas resulte ser un número equivocado son todas variables aleatorias que tienden en la práctica a tener distribuciones exponenciales. (Para una explicación teórica de este fenómeno, ver sección 4,7.) EJEMPLO 5B Supongamos que la duración de una llamada telefónica en minutos es una variable aleatoria exponencial con parámetro . Si alguien llega inmediatamente delante de usted en una cabina de teléfono público, encontrar la probabilidad de que usted tendrá que esperar

(a) más de 10 minutos; (b) entre 10 y 20 minutos. Solución. Dejar X indican la duración de la llamada realizada por la persona en la cabina. Entonces las probabilidades deseadas son un P{X > 10} = 1 − F(10) = e−1 L.368 b P{10 < X < 20} = F(20) − F(10) = e−1 − e−2 L.233

.

Decimos que una variable aleatoria no negativa X Es sin memoria Si P{X > s + T | X > t} = P{X > s} para todos s,T Efectos 0

(5,1)

Si pensamos en X como la vida útil de algún instrumento, la ecuación (5,1) establece que la probabilidad de que el instrumento sobrevive por lo menos s+T horas, dado que ha sobrevivido T horas, es lo mismo que la probabilidad inicial de que sobrevive por lo menos s Horas. En otras palabras, si el instrumento está vivo a la edad t, la distribución de la cantidad restante de tiempo que sobrevive es la misma que la distribución original de por vida. (Es decir, es como si el instrumento no "recuerda" que ya ha estado en uso durante un tiempo t.) La ecuación (5,1) equivale a P{X > s + t,X > t} =

{

}PX

>s P{X > t} O P{X > s + t} = P{X > s}P{X > t}

(5,2)

Puesto que la ecuación (5,2) se satisface cuando X se distribuye exponencialmente e−Ls+t) = e−λse−λt), se deduce que las variables aleatorias distribuidas exponencialmente son sin memoria. EJEMPLO 5C Considere una oficina de correos que está atendida por dos empleados. Supongamos que cuando el Sr. Smith entra en el sistema, descubre que la Sra. Jones está siendo servida por uno de los empleados y el Sr. Brown por el otro. Supongamos también que el Sr. Smith se le dice que su servicio comenzará tan pronto como se vaya la Sra. Jones o el Sr. Brown. Si la cantidad de tiempo que un empleado pasa con un cliente se distribuye exponencialmente

con el parámetro λ, ¿cuál es la probabilidad de que, de los tres clientes, el Sr. Smith es el último en abandonar la oficina de correos? Solución. La respuesta se obtiene por razonamiento de la siguiente manera: considere el momento en el que el Sr. Smith primero encuentra un empleado libre. En este punto, ya sea la Sra. Jones o el Sr. Brown sólo habría izquierda, y el otro seguiría estando en servicio. Sin embargo, debido a que el exponencial es memoryless, se deduce que la cantidad adicional de tiempo que esta otra persona (ya sea ms. Jones o Mr. Brown) todavía tendría que gastar en la oficina de correos se distribuye exponencialmente con el parámetro λ. Es decir, es lo mismo que si el servicio para esa persona estuviera empezando en este momento. Por lo tanto, por la simetría, la probabilidad de que la persona restante termine antes de que las hojas de Smith deben igual . . Resulta que no sólo es la distribución exponencial sin memoria, pero también es la distribución única que posee esta propiedad. Para ver esto, supongamos que X es MEMoryless y dejar F(x) = P{X > x}. Entonces, por la ecuación (5,2), F(s + t) = F(s)F(t) Es decir F(·) satisface la ecuación funcional g(s + t) = g(s)g(t) Sin embargo, resulta que la única solución continua correcta de esta ecuación funcional es† g(x) = e−λx

(5,3)

y, puesto que una función de la distribución es siempre correcta continua, debemos tener F(x) = e−λx

O

F(x) = P{X ... x} = 1 − e−λx

que muestra que X se distribuye exponencialmente. EJEMPLO 5D Supongamos que el número de millas que un coche puede correr antes de que su batería se desgasta se distribuye exponencialmente con un valor promedio de 10.000 millas. Si una persona desea tomar un viaje de 5000 millas, ¿cuál es la probabilidad de que él o ella será capaz de completar el viaje sin tener que reemplazar la batería del coche? ¿Qué se puede decir cuando la distribución no es exponencial? Solución. Sigue por la propiedad sin memoria de la distribución exponencial que la vida restante (en miles de millas) de la batería es exponencial con el parámetro tanto, la probabilidad deseada es

. Por lo

P{vida útil restante > 5} = 1 − F(5) = e−5L = e−1/2 L.604 Sin embargo, si la distribución de por vida F no es exponencial, entonces la probabilidad relevante es

1 P{Vida > T + 5|Vida > t} =

F(t 5) −− + 1

F(t)

Donde T es el número de millas que la batería había estado utilizando antes del inicio del viaje. Por lo tanto, si la distribución no es exponencial, se necesita información adicional (es decir, el valor de t) antes de que se pueda calcular la probabilidad deseada. . Una variación de la distribución exponencial es la distribución de una variable aleatoria que es igualmente probable que sea positiva o negativa y cuyo valor absoluto se distribuya exponencialmente con el parámetro λ,L un Transformada

Distribución‡ y

Efectos 0. tal variable aleatoria se dice que tiene

su densidad es dada por f q



Se puede probar la ecuación (5,3) como sigue: Si g(s + t) = g(s)g(t)Entonces

g m

y repitiendo este rendimiento g(m/n) = g (1/n). También

g(1) OG

/N

nnnnn

Ahí g(m/n) = (g(1))

x

, que, desde G continua, implica que la g(x) = (g(1)) .

λx

0, obtenemos g(x) = e− Donde L = −Registro(g(1)).

Kuz g ‡

m/n

También se llama a veces la variable aleatoria doble exponencial.

Su función de distribución está dada por x

⎧⎪1 q

Fx eλX Dx + Le−λX Dx −q 1eλx

X<0= ⎨

X>02 EJEMPLO 5e

x

X>0

λeλX Dx X < 0

Considere de nuevo el ejemplo 4E, que supone que un mensaje binario debe transmitirse desde Un Para B, con el valor 2 que se envía cuando el mensaje es 1 y −2 cuando es 0. Sin embargo, Supongamos ahora que, en lugar de ser una variable aleatoria normal estándar, el ruido del canal N es una variable aleatoria Laplaciana con parámetro L = 1. Supongamos de nuevo que si R es el valor recibido en la ubicación B, el mensaje se descodificó de la siguiente manera: Si R Efectos.5, entonces se concluye 1. Si R < .5, luego se concluye 0. En este caso, donde el ruido es laplaciano con parámetro L = 1, los dos tipos de errores tendrán probabilidades dadas por P{Error|se envía el mensaje 1} = P{N < −1.5}

L.1116 P{Error|se envía el mensaje 0} = P{N Efectos 2.5}

L.041 Al comparar esto con los resultados del ejemplo 4E, vemos que las probabilidades de error son mayores cuando el ruido es laplaciano con L = 1 que cuando se trata de una variable normal estándar. 5.5.1 Funciones de tasa de riesgo Considere una variable aleatoria continua positiva X que interpretamos como la vida útil de algún elemento. Dejar X tienen función de distribución F y la densidad f. Lla tasa de riesgo (a veces llamado tasa de fallas) función Lt) De F se define por f(t) Lt) = , F(t)

Donde F = 1 − F

Para interpretar Lt), supongamos que el artículo ha sobrevivido durante un tiempo T y deseamos la probabilidad de que no sobreviva por un tiempo adicional Alemán. Es decir, considere P{X ∈ (t,T + Alemán)|X > t}. Nwo P X

t, t

Al X e

t

X

t, t P X X t, t P X t f t Al F t e P

Al , X et Al e

t

P

Así Lt) representa la intensidad de probabilidad condicional que un t-unidad-el artículo viejo fallará. Supongamos ahora que la distribución de por vida es exponencial. Luego, por la propiedad sin memoria, se deduce que la distribución de la vida restante para un t-año-viejo artículo es el mismo que para un nuevo artículo. Ahí Lt) debe ser constante. De hecho, esto se verifica, ya que f(tLt) = F(t) λe− lt = e− lt =L Por lo tanto, la función de tasa de error para la distribución exponencial es constante. El parámetro L a menudo se denomina Tasa de la distribución. Resulta que la función de tasa de fallos Lt) determina de forma única la distribución F. Para probarlo, tenga en cuenta que, por definición,

La integración de ambos lados rinde Registro(1 − F(t)) = − *0 Lt)Alemán +Kt O 1 − F(t) = eK Exp0 − *0 Lt)Alemán7 t

Dejar T = 0 muestra que K = 0 Así F(t) = 1 − Exp0 − *0 Lt)Alemán7

(5,4) t

Por lo tanto, se puede especificar una función de distribución de una variable aleatoria continua positiva al dar su función de tasa de riesgo. Por ejemplo, si una variable aleatoria tiene una función de tasa de riesgo lineal, es decir, si Lt) = Un + Bt entonces su función de distribución es dada por F(t) = 1 − e−En−Bt2/2 y la diferenciación produce su densidad, es decir, f(t) = (Un + Bt)e−En+Bt2/2) T Efectos 0

Cuando Un = 0, la ecuación anterior se conoce como Función de densidad de Rayleigh. EJEMPLO 5F A menudo se oye que la tasa de mortalidad de una persona que fuma es, a cada edad, el doble que la de un no fumador. ¿Qué significa esto? ¿Significa que un no fumador tiene el doble de probabilidades de sobrevivir un número dado de años como lo hace un fumador de la misma edad? Solución. Si λs(t) indica la tasa de riesgo de un fumador de edad T Y λn(t) la de un no fumador de edad t, la declaración en cuestión equivale a la declaración que λs(t) = 2λn(t) La probabilidad de que un Aaños de edad, no fumador sobrevivirá hasta la edad B, Un < BEs P{A-año-viejo no fumador alcanza edad B} = P{vida del no fumador > B|vida del no fumador > A} = 1 − FNo(B)

De (5.4) que la probabilidad correspondiente para un fumador es, por el mismo razonamiento,

P{A-años de edad, el fumador alcanza la edad B} = λs(t)Alemán7

Exp0 − *

En otras palabras, para dos personas de la misma edad, uno de los cuales es un fumador y el otro un no fumador, la probabilidad de que el fumador sobrevive a cualquier edad dada

es el Cuadrado (no una mitad) de la probabilidad correspondiente para un no fumador. Por ejemplo, si , 50 ... T ... 60, entonces la probabilidad de que un no fumador de 50 años alcance la edad 60 es e−1/3 L.7165, mientras que la probabilidad correspondiente para un fumador es e−2/3 L.5134. .

Sección 5,6

Otras distribuciones continuas

5,6 OTRAS DISTRIBUCIONES CONTINUAS 5.6.1

La distribución gamma

Se dice que una variable aleatoria tiene una distribución gamma con parámetros (A,L, L 0 Oh. 0, si su función de densidad es dada por λe−λx(lx)α−1 ⎧

X Efectos 0

f

⎪⎩0

X<0

Donde Un, llamado función gamma, se define como q

e−yyα−1 Dy Integración de Un por piezas de rendimientos e−y α−1

+

e−y(A − 1)yα−2 Dy

Dy (6,1) Para valores integrales de αDecir A = n, obtenemos, aplicando la ecuación (6,1) repetidamente,

(n) Desde (1)

1, se deduce que, para los valores integrales de n, (n) = (N − 1)!

Cuando Un es un entero positivo, digamos, A = n, la distribución gamma con parámetros (A,L suele surgir, en la práctica, ya que la distribución de la cantidad de tiempo que uno tiene que esperar hasta un total de N se han producido eventos. Más concretamente, si los eventos ocurren aleatoriamente y de acuerdo con los tres axiomas de la sección 4,7, entonces resulta que la cantidad de tiempo que uno tiene que esperar hasta un total de N eventos se ha producido será una variable aleatoria gamma con parámetros (n,L. Para demostrarlo, deje TN denotan el tiempo en el que el nse produce el evento, y observe que TN es menor o igual que T Si y sólo si el número de eventos que han ocurrido por el tiempo T es por lo menos n. Es decir, con N(t) igual al número de eventos en [0, t], P{TN ... t} = P{N(t) el n} q

j=N Q e− lt(lt)j

! j=n

donde la identidad final sigue porque el número de eventos en [0, t] tiene una distribución de Poisson con parámetros λt. La diferenciación de lo anterior ahora produce la función de densidad de Tn: Q e− ltj(lt)j−1λ

Q

λe− lt(lt)j f ! ! j=n

j=n q

− lt(lt)j

q

λe (J − 1)! −

=

j! j=n

j=n

Ahí TN tiene la distribución gamma con parámetros (n,L. (Esta distribución se refiere a menudo en la literatura como el distribución de n-Erlang.) Tenga en cuenta que cuando N = 1, esta distribución reduce a la distribución exponencial. La distribución gamma con Y A = n/2 N un entero positivo, se denomina χn2 (lectura "Chi-cuadrada") con N grados de libertad. La distribución de Chi-cuadrada a menudo surge en la práctica como la distribución del error involucrado en el intento de golpear a un objetivo en nespacio dimensional cuando cada error de coordenadas se distribuye normalmente. Esta distribución se estudiará en el capítulo 6, donde se detalla su relación con la distribución normal. EJEMPLO 6A Dejar X ser una variable aleatoria gamma con parámetros Un Y λ. Calcular (a) E[X] y (b) var(X). Solución.

un E[X] =

1* Q λCoche− lx(lx)A −1 Dx

Q

λe−λx(lx)Un Dx

L (a) por ecuación (6.1)

b) calculando primero E[X2], podemos demostrar que

Los detalles se dejan como un ejercicio. 5.6.2

.

La distribución de Weibull

La distribución de Weibull es ampliamente utilizada en la práctica de la ingeniería debido a su versatilidad. Originalmente se propuso para la interpretación de los datos de fatiga, pero ahora su uso se ha extendido a muchos otros problemas de ingeniería. En particular, es ampliamente utilizado en el campo de los fenómenos de la vida como la distribución de la vida útil de algún objeto, especialmente cuando el modelo de "eslabón más débil" es apropiado para el objeto. Es decir, considerar un Sección 5,6

Otras distribuciones continuas

objeto que consta de muchas partes, y Supongamos que el objeto experimenta la muerte (fracaso) cuando cualquiera de sus partes fallan. Se ha demostrado (tanto teórica como empíricamente) que bajo estas condiciones una distribución de Weibull proporciona una aproximación cercana a la distribución de la vida útil del artículo. La función de distribución de Weibull tiene la forma X ... N F(6,2) X "N Se dice que una variable aleatoria cuya función de distribución acumulativa está dada por la ecuación (6,2) Variable aleatoria de Weibull con parámetros ν,αY β. La diferenciación produce la densidad: X ... N

f X "N 5.6.3

La distribución Cauchy

Se dice que una variable aleatoria tiene una distribución de Cauchy con el parámetro θ,− q < θ < q, si su densidad es dada por

f q<X
1

0

X

x -Eje

FIGURA 5,7

Como se indica en la figura 5,7, el punto X se determina por el ángulo Me entre la linterna y el y-eje, que, a partir de la situación física, parece estar distribuido uniformemente entre − p/2 y P2. la función de distribución de X se da así por F(x) = P{X ... x} = P{tan... x} = P{TH... tan−1 x} X

donde la última igualdad sigue desde θ, siendo uniforme sobre (− p/2P2)Hsa Distribución P Por lo tanto, la función de densidad de X es dada por d f(x) =

1 F(x) =

< q Dx P1

+

2

)

−q<X

x

y vemos que X tiene la distribución de Cauchy.†

5.6.4

.

La distribución beta

A variable aleatoria se dice que tiene una distribución beta si su densidad es dada por

=⎪⎨ X < 1 f(x)B(a,b) ⎪ ⎩ 0

1

xa−1(1 − x)b−1 0 <

Lo contrario

Donde B

Dx

La distribución beta se puede utilizar para modelar un fenómeno aleatorio cuyo conjunto de valores posibles es algún intervalo finito [c, d] — que, dejando C denotan el origen y la toma D − C como medida de la unidad, se puede transformar en el intervalo [0, 1]. Cuando Un = b, la densidad beta es simétrica sobre , dando más y más peso a las regiones como el valor común Un Aumenta. (Consulte la figura 5,8.) Cuando B > a, la densidad se asimetría a la izquierda (en el sentido de que los valores más pequeños se vuelven más probables); y está sesgada a la derecha cuando Un > b. (Consulte la figura 5,9.) La relación (a)(b) B(a,b) = + (6,3) (a b) puede demostrarse que existe entre B

Dx

y la función gamma. †

D

1

2

1

Que 1 (tan− x) = 1/(1 + x ) puede verse de la siguiente manera: Si y = tan− x, luego bronceadoy = xAsí d 1 = Dx

d Dy (tany) = Dy(tany)Dx = Dy

DDY Dx

O 2

Dy

Cuerpo y

1

2

1

2

2

1

2

= sin y + Cuerpo y = tan y + 1 = x + 1

Sección 5,7

La distribución de una función de una variable aleatoria

f (x) U= 10 n

U= n

U= 3 n

1– 4

U= 1 n

1– 2

0

1

x

FIGURA 5,8: Densidades beta con parámetros (a, b) cuando Un = b. f (x )

U= 6 n

U= n

3– 2

x FIGURA 5,9: Densidades beta con parámetros (a, b) cuando a/(Un + b) = 1/20.

Al usar la ecuación (6,1) junto con la identidad (6,3), es una cuestión fácil mostrar que si X es una variable aleatoria beta con parámetros Un Y bEntonces A E[X] = a

b

Ap ag Fue(X) = + + + (a b)2(a b 1) Observación. Una verificación de la ecuación (6,3) aparece en el ejemplo 7C del capítulo 6. . 5,7LA DISTRIBUCIÓN DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA

A menudo, conocemos la distribución de probabilidad de una variable aleatoria y estamos interesados en determinar la distribución de alguna función de la misma. Por ejemplo, supongamos que conocemos la distribución de X y queremos encontrar la distribución de g(X). Para ello, es necesario expresar el acontecimiento que g(X) ... y en términos de X estar en algún set. Ilustramos con los siguientes ejemplos. EJEMPLO 7A Dejar X distribuirse uniformemente sobre (0,1). Obtenemos la distribución de la variable aleatoria Y, definida por Y = Xn, como sigue: para 0 ... y ... 1

FY(y) = P{Yn......y}y} = P{X = P{X ... y1/n} = FX(y1/n) = y1/n Por ejemplo, la función de densidad de Y es dada por

fY(y) =

1 1/n−1 0 ... y ... 1 ⎨ n. y ⎪ ⎩ 0 Lo contrario

EJEMPLO 7B Si X es una variable aleatoria continua con densidad de probabilidad fX, entonces la distribución de Y = X2 se obtiene de la siguiente manera: para y Efectos 0 FY(y) = P{Y ... y}

=== FppX−X(√ √2 yy...) ... −y}XFX... (− √y} √y) Rendimientos de diferenciación

fY EJEMPLO 7C

.

Si X tiene una densidad de probabilidad fXEntonces Y = |X| tiene una función de densidad que se obtiene de la siguiente manera: para y Efectos 0 FY(y) = P{Y ... y} = P{|X| ... y} = P{−y ... X ... y} = FX(y) − FX(−y) Por lo tanto, en la diferenciación, obtenemos fY(y) = fX(y) + fX(−y)

y Efectos 0 .

Sección 5,7

La distribución de una función de una variable aleatoria

El método empleado en los ejemplos 7A a 7C puede utilizarse para demostrar Teorema 7,1. Teorema 7,1. Permitir que X sea una variable aleatoria continua con función de densidad de probabilidad fX. Supongamos que g(x) es una función estrictamente monotónica (creciente o decreciente), diferenciable (y por lo tanto continua) de x. A continuación, la variable aleatoria Y definida por Y = g(X) tiene una función de densidad de probabilidad dada por

=⎪

⎨⎪⎩

fX[g−1(y)]6666

D G−

para algunos x

fY(y)Dy 0

Si y Z g(x) para todos x

Donde g−1(y) se define para igualar ese valor de X tal que g(x) = y. Demostraremos el teorema 7,1 cuando g(x) es una función creciente. Prueba. Supongamos que y = g(x) para algunos x. Entonces, con Y = g(X), FY(y) = P{g(X) ... y} = P{X ... g−1(y)} = FX(g−1(y))

Si y = g(x)

La diferenciación da D

fY(y) = fX(g−1(y))

g−1(y) . Dy

que coincide con el teorema 7,1, ya que g−1(y) es no decreciente, por lo que su derivado es no negativo. Cuando y Z g(x) para cualquier xEntonces FY(y) es 0 o 1, y en cualquier caso fY(y) = 0. EJEMPLO 7D Dejar X ser una variable aleatoria no negativa continua con la función de la densidad f, y deje que Y = Xn. Encontrar fY, la función de densidad de probabilidad de Y. Solución. Si g(x) = xnEntonces g−1(y) = y1/n Y D {g−1(y)} = 1y1/n−1 Dy

n

Por lo tanto, desde el teorema 7,1, obtenemos =1 1/n−1f(y1/n) fY(y)

y

n Para N = 2, esto da

fY que (desde X Efectos 0) está de acuerdo con el resultado del ejemplo 7b. Resumen

.

Una variable aleatoria X Es Continua Si hay una función no negativa f, llamado función de densidad de probabilidad De X, de manera que, para cualquier conjunto B,

P{X ∈ B} = * f(x)Dx B

Si X es continua, entonces su función de distribución F será diferenciable y d Dx

F(x) f(x) =

El valor esperado de una variable aleatoria continua X se define por q E[X] = *

Xf(x)Dx

−q

Una identidad útil es que, para cualquier función g, q

E[g(X)] = *

g(x)f(x)Dx −q

Como en el caso de una variable aleatoria discreta, la varianza de X se define por Fue(X) = E[(X − E[X])2] Una variable aleatoria X se dice que es Uniforme durante el intervalo (a, b) si su función de densidad de probabilidad es dada por Un ... X ... b f(x) =

Lo contrario

⎪ Su valor esperado y su varianza son ⎩0

B−

a)2 E Una variable aleatoria X se dice que es Normal con parámetros M Y σ2 Si su función de densidad de probabilidad es dada por

f

q

Se puede demostrar que σ2 = Fue(X)

m = E[X]

Si X es normal con la media M y la varianza σ2Entonces Z, definida por X Z

μ −

es normal con la media 0 y la varianza 1. Tal variable aleatoria se dice que es una Estándar variable aleatoria normal. Probabilidades sobre X puede expresarse en términos de probabilidades sobre la variable normal estándar Z, cuya función de distribución de probabilidad puede obtenerse de la tabla 5,1 o de un sitio Web. Resumen

Cuando N es grande, la función de distribución de probabilidad de una variable aleatoria binomial con parámetros N Y P puede aproximarse por la de una variable aleatoria normal que tiene media Eg y la varianza Eg(1 − p). Una variable aleatoria cuya función de densidad de probabilidad es de la forma

f(x) =% le− lX X Efectos 0 0 Lo contrario se dice que es un Exponencial variable aleatoria con parámetro λ. Su valor esperado y su varianza son, respectivamente, E Una propiedad clave poseída sólo por variables aleatorias exponenciales es que son sin memoria, en el sentido de que, para s Y t, P{X > s + t|X > t} = P{X > s} Si X representa la vida de un elemento, entonces la propiedad sin memoria indica que, para cualquier t, la vida restante de un t-Year-Old artículo tiene la misma distribución de probabilidad que la vida de un nuevo elemento. Por lo tanto, no es necesario recordar la edad de un elemento para conocer su distribución de la vida restante. Dejar X ser una variable aleatoria continua no negativa con función de distribución F y la función de la densidad f. La función f(t) −T Efectos 0

Lt) = 1

F(t)

se denomina tasa de riesgoO tasa de fallas, función de F. Si interpretamos X como la vida de un objeto, entonces, para los valores pequeños de Alemán,Lt)Alemán es aproximadamente la probabilidad de que un t-unidad-el artículo viejo fallará dentro de un tiempo adicional Alemán. Si F es la distribución exponencial con parámetros λEntonces Lt) = L T Efectos 0 Además, la exponencial es la distribución única que tiene una tasa de fallas constante. Se dice que una variable aleatoria tiene un Gamma distribución con parámetros Un Y L Si su función de densidad de probabilidad es igual a λe−λx(lx)α−1 f

X Efectos 0

y es 0 de lo contrario. La cantidad Un se denomina función gamma y se define por q

e−xxα−1 Dx El valor esperado y la varianza de una variable aleatoria gamma son, respectivamente, E

Se dice que una variable aleatoria tiene un Beta distribución con parámetros (a, b) si su función de densidad de probabilidad es igual a = f(x)

(1 − x)b−1 0 ... X ... 1

a 1

1



x B(a,b)

y es igual a 0 en caso contrario. La constante B(a, b) está dada por 1

B(a,b)

=

xa−1(1 − x)b−1 Dx

* 0

La media y la varianza de dicha variable aleatoria son, respectivamente, a E[X] =

Apagado

+ Fue(X) = + + + a b (a b)2(a b 1)

Problemas 5,1. DejaX bearandomvariablewithprobabilitydenr función de la Sity

⎧10 f(x) 0

Lo contrario

Podría F ser una función de densidad de probabilidad? Si es así, determine C. Repita si f(x) fueron dadas por

f (a) ¿Cuál es el valor de c? (b) ¿Cuál es la función de distribución acumulativa de X? 5,2. Un sistema que consta de una unidad original más un repuesto puede funcionar durante una cantidad aleatoria de tiempo X. Si la densidad de X se administra (en unidades de meses) Cxe−x/2

X>0

x2)

C(2x −

f(x) = 0 0

Lo contrario

5,4. La función de densidad de probabilidad de X, la duración de un determinado tipo de dispositivo electrónico (medido en horas), se da por X > 10 f(x) =x2 ⎪ ⎩0 X ... 10

f(x) = 0 0

X ... 0 (a) Encontrar P{X > 20}.

¿Cuál es la probabilidad de que el sistema funcione durante al menos 5 meses? 5,3. Considere la función = 0C(2X − x3)

(b) ¿Cuál es la función de distribución acumulativa de X? (c) ¿Cuál es la probabilidad de que, de 6 tales tipos de dispositivos, al menos 3 funcionará durante al

menos 15 horas? ¿Qué suposiciones estás haciendo? 5,5. Una estación de llenado se suministra con gasolina una vez a la semana. Si su volumen semanal de ventas en miles de galones es una variable aleatoria con la función de densidad de probabilidad

f(x)

= 050(1 − x)40de lo contrario< X < 1

¿Cuál debe ser la capacidad del tanque para que la probabilidad de que el suministro se agote en una semana dada sea. 01? 5,6. Calcular E[X] si X tiene una función de densidad dada por x/2

0 b f(x)

X>0 ; Lo contrario

= 00c(1 − x2) −otherwise1 < X < 1 5 X>5 ⎧

c

2

f(x) = ⎨x

;

0 ... X ... 1

0

Lo contrario

B + b

Donde B es el beneficio neto por unidad de venta, es la pérdida neta por unidad no vendida, y F es la función de distribución acumulativa de la demanda estacional. 5,10. Trenes dirigidos al destino Un llegar a la estación de tren a intervalos de 15 minutos a partir de las 7 A.M., mientras que los trenes dirigidos a destino B llegar a intervalos de 15 minutos a partir de 7:05 A.M. (a) Si un determinado pasajero llega a la estación a la vez distribuido uniformemente entre 7 y 8 A.M. y luego se mete en el primer tren que llega, ¿qué proporción de tiempo va a destino A? (b) ¿Qué pasa si el pasajero llega en un momento uniformemente distribuido entre 7:10 y 8:10 A.M.? 5,11. Un punto se elige al azar en un segmento de línea de longitud L. Interprete esta declaración y encuentre la probabilidad de que la relación entre el segmento más

.

⎪ ⎩0 X ... 5 5,7. La función de densidad de X es dada por f(x) = 0Un + Bx2

F(s∗) =

Si E Encontrar Un Y b. 5,8. La duración en horas de un tubo electrónico es una variable aleatoria que tiene una función de densidad de probabilidad dada por f(x) = Coche−x X Efectos 0 Calcule la vida útil esperada de un tubo de este tipo. 5,9. Consideremos el ejemplo 4B del capítulo 4, pero ahora Supongamos que la demanda estacional es una variable aleatoria continua que tiene la función de densidad de probabilidad f. Mostrar que la cantidad óptima para el stock es el valor s∗ que satisface

corto y el más largo sea inferior a . 5,12. Un autobús viaja entre las dos ciudades Un Y B, que están a 100 kilómetros de distancia. Si el autobús tiene un desglose, la distancia de la avería a la ciudad Un tiene una distribución uniforme sobre (0, 100). Hay una estación de servicio de autobuses en la ciudad AEn B, y en el centro de la ruta entre Un Y B. Se sugiere que sería más eficiente tener las tres estaciones ubicadas 25, 50, y 75 millas, respectivamente, de A. ¿Estás de acuerdo? ¿Porqué? 5,13. Llegas a una parada de autobús a las 10 en punto, sabiendo que el autobús llegará en algún momento uniformemente distribuido entre 10 y 10:30. (a) ¿Cuál es la probabilidad de que usted tendrá que esperar más de 10 minutos? Problemas (b) Si, en 10:15, el autobús aún no ha llegado, ¿cuál es la probabilidad de que usted tendrá que esperar por lo menos 10 minutos adicionales? 5,14. Dejar X ser una variable aleatoria uniforme (0,1). Calcular E[Xn] mediante la Proposición 2,1 y, a continuación, compruebe el resultado utilizando la definición de expectativa. 5,15. Si X es una variable aleatoria normal con parámetros m = 10 y σ2 = 36, computación un P{X > 5};

(b) P{4 < X < 16}; (c) P{X < 8}; (d) P{X < 20}; Y P{X > 16}. 5,16. La precipitación anual (en pulgadas) en una determinada región se distribuye normalmente con m = 40 y s = 4. ¿Cuál es la probabilidad de que, comenzando con este año, se tome más de 10 años antes de que ocurra un año con una precipitación de más de 50 centímetros? ¿Qué suposiciones estás haciendo? 5,17. Un hombre apuntando a un objetivo recibe 10 puntos si su tiro está dentro de 1 pulgada del objetivo, 5 puntos si está entre 1 y 3 pulgadas del objetivo, y 3 puntos si está entre 3 y 5 pulgadas del objetivo. Encuentre el número esperado de puntos marcados si la distancia entre la toma y el objetivo se distribuye uniformemente entre 0 y 10. 5,18. Supongamos que X es una variable aleatoria normal con la media 5. Si P{X > 9} = .2, aproximadamente lo que es var(X)? 5,19. Dejar X ser una variable aleatoria normal con la media 12 y la varianza 4. Encuentre el valor de C tal que P{X > c} = .10. 5,20. Si el 65 por ciento de la población de una comunidad numerosa está a favor de un aumento propuesto de los impuestos escolares, aproxime la probabilidad de que una muestra aleatoria de 100 personas contenga un al menos 50 que están a favor de la Proposición; b entre 60 y 70 inclusive que están a favor; c menos de 75 a favor. 5,21. Supongamos que la altura, en pulgadas, de un hombre de 25 años de edad es una variable aleatoria normal con parámetros m = 71 y σ2 = 6.25. ¿Qué porcentaje de hombres de 25 años de edad tienen más de 6 pies, 2 pulgadas de alto? ¿Qué porcentaje de hombres en el Club de 6 pies es de más de 6 metros, 5 pulgadas? 5,22. La anchura de una ranura de una forja del duraluminio es (en pulgadas) distribuida normalmente con m =.9000 y s =.00:30. los límites de especificación se dieron como .9000 ; .0050. (a) ¿Qué porcentaje de forjas será defectuosa? (b) ¿Cuál es el valor máximo permisible de P que no permitirá más de 1 en 100 defectuosos cuando los anchos se distribuyen normalmente con m =.9000 y σ? 5,23. 1000 se harán rollos independientes de un dado justo. Calcule una aproximación a la probabilidad de que el

número 6 aparezca entre 150 y 200 veces inclusivamente. Si el número 6 aparece exactamente 200 veces, encontrar la probabilidad de que el número 5 aparecerá menos de 150 veces. 5,24. Los tiempos de vida de los chips informáticos interactivos producidos por un determinado fabricante de semiconductores se distribuyen normalmente con parámetros m = 1.4 * 106 horas y s = 3 * 105 Horas. ¿Cuál es la probabilidad aproximada de que un lote de 100 chips contenga al menos 20 cuyas vidas son menos de 1.8 * 106? 5,25. Cada artículo producido por un determinado fabricante es, independientemente, de calidad aceptable con probabilidad. 95. Aproxime la probabilidad de que a lo más 10 de los siguientes 150 artículos producidos sean inaceptables. 5,26. Dos tipos de monedas se producen en una fábrica: una moneda justa y una sesgada que sube cabezas 55 por ciento del tiempo. Tenemos una de estas monedas, pero no saber si se trata de una moneda justa o una sesgada. Para determinar qué tipo de moneda tenemos, realizaremos la siguiente prueba estadística: lanzaremos la moneda 1000 veces. Si la moneda aterriza en las cabezas 525 o más veces, entonces concluiremos que es una moneda sesgada, mientras que si aterriza en cabezas menos de 525 veces, entonces concluiremos que es una moneda justa. Si la moneda es realmente justa, ¿cuál es la probabilidad de que lleguemos a una conclusión falsa? ¿Qué sería si la moneda fuera parcial? 5,27. En 10.000 lanzamientos independientes de una moneda, la moneda aterrizó en cabezas 5800 veces. ¿Es razonable suponer que la moneda no es justa? Explicar. 5,28. El doce por ciento de la población es zurda. Aproxime la probabilidad de que haya al menos 20 zurdos en una escuela de 200 estudiantes. Indique sus suposiciones. 5,29. Un modelo para el movimiento de un stock supone que si el precio actual de la acción es s, entonces, después de un período, será o bien Nos con probabilidad P O Ds con probabilidad 1 − p. Suponiendo que los movimientos sucesivos son independientes, aproximar la probabilidad de que el precio de la acción será de al menos 30 por ciento después de los siguientes 1000 periodos de tiempo si U = 1.012D = 0.990, y P = .52. 5,30. Una imagen se divide en dos regiones, una blanca y la otra negra. Una lectura tomada de un punto seleccionado aleatoriamente en la sección blanca dará una lectura que normalmente se distribuye con m = 4 y σ2 = 4, mientras que una tomada de un punto elegido aleatoriamente en la región negra tendrá una lectura normalmente distribuida con parámetros (6, 9). Un

punto se elige aleatoriamente en la imagen y tiene una lectura de 5. Si la fracción de la imagen que es negra es α, por qué valor de Un ¿la probabilidad de cometer un error sería la misma, independientemente de si se llegó a la conclusión de que el punto estaba en la región negra o en la región blanca? 5,31. (a) Una estación de bomberos debe ubicarse a lo largo de un camino de longitud A,Un < q. Si los incendios ocurren en puntos uniformemente elegidos (0, A), ¿dónde debe ubicarse la estación para minimizar la distancia esperada del incendio? Es decir, elija Un Así como para minimizar E[|X − a|] Cuando X se distribuye uniformemente sobre (0, A). b Ahora Supongamos que el camino es de longitud infinita, que se extiende desde el punto 0 hacia afuera hasta q. Si la distancia de un fuego desde el punto 0 se distribuye exponencialmente con la tasa λ, ¿dónde se ubicará ahora la estación de bomberos? Es decir, queremos minimizar E[|X − a|], donde X ahora es exponencial con la tasa λ. 5,32. El tiempo (en horas) necesario para reparar una máquina es una variable aleatoria distribuida exponencialmente con Parámetro . Qué es (a) la probabilidad de que un tiempo de reparación supere las 2 horas? (b) la probabilidad condicional de que una reparación tarda al menos 10 horas, dado que su duración supera las 9 horas? 5,33. El número de años que una radio funciona se distribuye exponencialmente con el parámetro . Si Jones compra una radio usada, ¿cuál es la probabilidad de que funcione después de 8 años adicionales? 5,34. Jones calcula que el número total de miles de millas que un auto puede ser conducido antes de que necesitaría ser chatarra es una variable aleatoria exponencial con parámetro . Smith tiene un coche usado que afirma que ha sido conducido sólo 10.000 millas. Si Jones compra el coche, ¿cuál es la probabilidad de que ella consiga al menos 20.000 millas adicionales de ella? Repita bajo el supuesto de que el kilometraje de por vida del coche no se

5,35. La tasa de riesgo de cáncer de pulmón Lt) de un tfumador masculino de un año de edad es tal que Lt) = .027 + .00025(T − 40)2 T Efectos 40 Suponiendo que un fumador varón de 40 años de edad sobrevive a todos los demás peligros, ¿cuál es la probabilidad de que sobrevive a (a) edad 50 y (b) edad 60 sin contraer cáncer de pulmón? 5,36. Supongamos que la distribución de vida de un elemento tiene la función de tasa de riesgo Lt) = t3,T > 0. ¿Cuál es la probabilidad de que (a) el artículo sobrevive a los 2 años? (b) la duración del artículo es entre. 4 y 1,4? c ¿un artículo de 1 año de edad sobrevivirá a los 2 años? 5,37. Si X se distribuye uniformemente sobre (−1, 1)Encontrar ; b la función de densidad de la variable aleatoria |X|. 5,38. Si Y se distribuye uniformemente sobre (0,5), ¿cuál es la probabilidad de que las raíces de la ecuación 4x2 + 4Xy + Y + 2 = 0 son reales? Ejercicios teóricos 5,39. Si X es una variable aleatoria exponencial con parámetro L = 1, computa la función de la densidad de la probabilidad de la variable aleatoria Y definida por Y = RegistroX. 5,40. Si X se distribuye uniformemente sobre (0, 1), encuentra la función de densidad de Y = eX. 5,41. Encuentre la distribución de R = AsinθDonde Un es una constante fija y Me se distribuye uniformemente en (− p/2P2). Esta variable aleatoria R surge en la teoría de la balística. Si se dispara un proyectil desde el origen en un ángulo Un de la tierra con una velocidad ν, entonces el punto R a la que regresa a la tierra se puede expresar como R = (v2/g)sin2αDonde G es la constante gravitacional, igual a 980 centímetros por segundo al cuadrado.

EJERCICIOS TEÓRICOS distribuye exponencialmente, sino más bien (en miles de millas) distribuidos uniformemente sobre (0, 40). 5,1. La velocidad de una molécula en un gas uniforme en el equilibrio es una variable aleatoria cuya función de

densidad de probabilidad es dada por f(x) = 0Ax0 2e−Bx2 Xx

< 00

por lo tanto, la constante de Boltzmann, el

q

temperamento absolutoB = m/2Otros Y k, TY M

E[Xn]*

denotan, respecature del gas, y la masa de la molécula.

P{XN >

t}Alemán 0

Evaluar Un en términos de b.

y hacer el cambio de variables T = xn.

5,2. Mostrar que q

q

P{Y > y}Dy −0

E[Y] = *0

P{Y < −y}Dy

P Pista: Deje que X ser uniforme sobre (0,1) y definir cada EUn en términos de X. 5,7. La desviación estándar de XDenota Sd(X), es dada por Sd(X) = .Fue(X)

Pista: Mostrar que q

5,6. Definir una colección de eventos Ea, 0 < Un < 1, teniendo la propiedad que P(Ea) = 1 para todos Un Pero

0

*0 P{Y < −y}Dy = − *−Q XfY(x)Dx q q

Encontrar Sd(Ax + b) Si X tiene varianza σ2. *

P{Y > y}Dy = * 0

XfY(x)Dx 5,8. Dejar X ser una variable aleatoria que toma valores entre 0 y c. Es decir P{0 ... X ... c} = 1.

0

5,3. Muestre que si X tiene la función de la densidad fEntonces q

Mostrar que c2 Fue(X) ... 4

E[g(X)] = *−Q g(x)f(x)Dx

Pista: Un enfoque es argumentar primero que Pista: Usando el ejercicio teórico 2, empiece

q

q

E[g(X)] = *0

P{g(X) > y}Dy −0

P{g(X) < −y}Dy

E[X2] ... Este[X] y luego usar esta desigualdad para mostrar que

Fue(X) ... c2[Un1 − (a)] Donde A =

E

[X]

c y luego proceder como en la prueba dada en el texto 5,9. Mostrar que Z es una variable aleatoria normal cuando g(X) el 0. estándar, X > 0 5,4. Pruebe corolario 2,1. un P{Z > x} = P{Z < −x}; b P{|Z| > 5,5. Utilice el resultado que, para una variable aleatoria no x} = 2P{Z > x}; c P{|Z| < x} = negativa Y, 2P{Z < x} − 1. q 5,10. Dejar f(x) denotan la función de densidad de probabilidad de una variable aleatoria normal con M y la varianza σ2. Mostrar que M − s Y M + S son 0 puntos de inflexión de esta función. Es decir, mostrar para mostrar que, para una variable aleatoria no negativa X, que f 0 cuando X = m − s O X = m + S. E[Y]*

P{Y > t}Alemán

q n

E[X ]* 0

Pista: Empiece con

5,11. Dejar Z ser una variable aleatoria normal estándar Z, y deje que G ser una función diferenciable con derivado P{X > x}Dx g. (a) Mostrar que E

n 1

Nx



(b) Mostrar que E[Zn+1] = Hacer[Zn−1] c Encontrar E[Z4].

5,23. Calcule la función de tasa de riesgo de una variable aleatoria de Weibull y muéstrela que está aumentando cuando β Ú 1 y disminuyendo cuando B... 1.

5.12. Utilice la identidad del ejercicio teórico 5 para derivar 5,24. Mostrar que una parcela de registro(Registro(1 − E[X2] cuando X es una variable aleatoria exponencial con F(x))−1) contra el registro X será una línea recta con la parámetro λ. pendiente B Cuando F(·) es una función de 5.13. La mediana de una variable aleatoria continua con función distribución de Weibull. Mostrar también que de distribución F es que el valor M tal que aproximadamente 63,2 por ciento de todas las F . Es decir, una variable aleatoria es tan observaciones de dicha distribución será inferior a α. probable que sea mayor que su mediana, ya que es más Supongamos que V = 0. pequeña. Encuentra la mediana de X Si X Es un distribuidos uniformemente sobre (a, b); 5,25. Dejar b normal con parámetros μ,σ2; c exponencial con la tasa λ. Y 5,14. El modo de una variable aleatoria continua con densidad F es el valor de X para los que f(x) alcanza su máximo. Muestre que si X es una variable aleatoria de Weibull Calcule el modo de X en los casos (a), (b) y (c) del ejercicio con parámetros ν,αY βEntonces Y es una variable teórico 5,13. aleatoria exponencial con parámetro L = 1 y 5,15. Si X es una variable aleatoria exponencial con parámetro viceversa. λY C > 0, muestran que Cx es exponencial con el 5,26. Si X es una variable aleatoria beta con parámetros Un parámetro Lc. Y b, muestran que 5,16. Calcule la función de tasa de riesgo de X Cuando X se A E[X] = distribuye uniformemente sobre (0, a). a b 5,17. Si X tiene función de tasa de riesgo λX(t), calcule la función Ap de tasa de riesgo de Ax Donde Un es una constante ag positiva. Fue(X) = + + + 5,18. Compruebe que la función de densidad gamma se integra a (a b)2(a b 1) 1. 5,19. Si X es una variable aleatoria exponencial con la media 5,27. Si X se distribuye uniformemente sobre (a, b), ¿qué 1/l, muestran que variable aleatoria, que tiene una relación lineal con X, se distribuye uniformemente sobre (0, 1)? k! 5,28. Considere la distribución beta con parámetros (a, b). E[Xk] = K = 1, 2,... Lk Mostrar que (a) Cuando Un > 1 y B > 1, la densidad es unimodal Pista: Haga uso de la función de densidad gamma para (es decir, tiene un modo único) con el modo igual evaluar lo anterior. a (Un − 1)/(Un + B − 2); 5,20. Verifique que Cuando X es una variable aleatoria gamma con parámetros Un Y λ. 5,21. Mostrar que

.

(b) Cuando Un ... 1B ... 1, y Un + B < 2, la densidad es cualquiera unimodal con el modo en 0 o 1 o en forma de U con modos en 0 y 1; c Cuando Un = 1 = b, todos los puntos en [0, 1] son modos.

5.29. Dejar X ser una variable aleatoria continua que tiene una función de distribución acumulativa F. Defina la Pista: Dx. Realizar el cambio de variable aleatoria Y Por Y = F(X). Mostrar que Y se variables y = √2X y luego relacionar la expresión resultante distribuye uniformemente sobre (0,1). 5.30. Dejar X tienen densidad de probabilidad fX. Encontrar con la distribución normal. la función de densidad de probabilidad de la variable 5,22. Calcule la función de tasa de riesgo de una variable aleatoria Y definida por Y = Ax + b. aleatoria gamma con parámetros (A,L y mostrar que está aumentando cuando A ú 1 y disminuyendo cuando Un... 1.

Problemas y ejercicios de autoprueba 5,31. Encuentre la función de densidad de probabilidad de Y = eX

q

Es una identidad bien conocida que Cuando X normalmente se distribuye con parámetros M Y σ2. La variable aleatoria Y se dice que tiene un π2/6, por lo que Q1 = 6/p2. (En teoría de números, este Distribución Lognormal (desde el registro Y tiene un normal se conoce como el teorema de Legendre.) distribución) con parámetros M Y σ 2. c Ahora argumentan que 5,32. Dejar X Y Y ser variables aleatorias independientes que son igualmente propensas a ser Q

1, 2,...,(10)NDonde N es muy grande. Dejar D Denotar el máximo común divisor de X Y Y, y deje que QK P D k . = { = } (a) Dar un argumento heurístico que

Donde Pme es el iTH-más pequeño primo mayor Qk. de 1.

Pista: Tenga en cuenta que para D a igual k, k sugerencia: X Y Y será relativamente primo si deben dividir ambos X Y Y y también X/k, y no tienen factores primos comunes. Por lo tanto, de Y/K debe ser relativamente primo. (Es decir, X/k, parte b), vemos que y Y/K debe tener un divisor común más grande igual a 1.) (b) Utilice la parte (a) para mostrar que Que Fue Observó Sin ExplicaciónEn Q1 = P{X Y Y son relativamente primos} Problema 11 del capítulo 4. (La relación entre este problema y el problema 11 del capítulo 4 es que X Y Y son relativamente primos si Xy no tiene factores primos múltiples.) 5,33. Pruebe el teorema 7,1 cuando g(x) es una función decreciente.

PROBLEMAS Y EJERCICIOS DE AUTOPRUEBA 5,1. El número de minutos de tiempo de juego de un determinado 5,3. jugador de baloncesto de la escuela secundaria en un juego elegido aleatoriamente es una variable aleatoria cuya función de densidad de probabilidad se da en la siguiente figura: .050 .025

Cxn 0

20

30

Lo contrario

Buscar (a) C y b) P{X > x}, 0 < X < 1. Para algunas constantes c, la variable aleatoria X tiene la función de densidad de probabilidad 5,4. 0 Cx4

10

0<X<1

f(x) = %

0<X<2

40

f(x) = Encuentra la probabilidad de que el jugador juegue (a) más de 15 minutos; (b) entre 20 y 35 minutos; 5,5. (c) menos de 30 minutos; De más de 36 minutos. 5,2. Para algunas constantes c, la variable aleatoria X Hsa la función de densidad de probabilidad

0

Lo contrario

Buscar (a) E[X] y (b) var(X). La variable aleatoria X tiene la función de densidad de probabilidad 0 Ax + Bx2

0<X<1

f(x) =

(a) ¿Cuál es la probabilidad de que este neumático dure más de 40.000 millas? (b) ¿Cuál es la probabilidad de que dure entre 30.000 y 35.000 millas? Si E[X] = .6, encontrar (a) y (b) var(X). (c) Dado que ha sobrevivido 30.000 millas, ¿cuál es La variable aleatoria X se dice que es una variable aleatoria la probabilidad condicional de que el neumático uniforme discreta en los enteros 1, 2,...,N Si sobrevive a otras 10.000 millas? 5,11. La precipitación anual en Cleveland, Ohio es 1 aproximadamente una variable aleatoria normal con P{X = i} = me = 1, 2,...,n n media 40,2 pulgadas y desviación estándar 8,4 Para cualquier número real no negativo x, Let int(x) (a veces pulgadas. ¿Cuál es la probabilidad de que escrito como [x]) ser el número entero más grande que sea menor (a) precipitación del próximo año excederá de 44 o igual que x. Mostrar que U es una variable aleatoria uniforme pulgadas? en (0, 1), Fain X = Int(Nwo) + 1 es una variable aleatoria (b) las precipitaciones anuales en exactamente 3 de uniforme discreta en 1,...,n. los próximos 7 años excederá 44 pulgadas? 5,6. Su empresa debe hacer una licitación sellada para un Supongamos que si Ame es el caso de que la proyecto de construcción. Si tiene éxito en ganar el precipitación excede 44 pulgadas en el año me (a contrato (por tener la oferta más baja), entonces planea partir de ahora), entonces los eventos Ai,me Efectos 1, pagar otra empresa 100.000 dólares para hacer el trabajo. son independientes. Si usted cree que la puja mínima (en miles de dólares) de 5,12. La siguiente tabla utiliza 1992 datos relativos a los las otras empresas participantes puede ser modelada como porcentajes de trabajadores a tiempo completo el valor de una variable aleatoria que se distribuye masculinos y femeninos cuyos salarios anuales caen uniformemente en (70, 140), ¿cuánto debe usted hacer una en diferentes rangos: oferta para maximizar su beneficio esperado? Rango de Porcentaje Porcentaje 5,7. Para ser un ganador en un determinado juego, usted debe ganancias tener éxito en tres rondas sucesivas. El juego depende del de las de los valor de U, una variable aleatoria uniforme en (0, 1). Si U hembras machos > .1, entonces usted es acertado en la Ronda 1; Si U > .2, …9999 8,6 4,4 entonces usted es acertado en la vuelta 2; y si U > .3, entonces usted es acertado en la ronda 3. 10000 – 19999 38,0 21,1 (a) Encuentre la probabilidad de que tenga éxito en la 20000 – 24999 19,4 15,8 Ronda 1. 25000 – 49999 29,2 41,5 (b) Encuentre la probabilidad condicional de que tenga Ú50.000 4,8 17,2 éxito en la Ronda 2 dado que tuvo éxito en la Ronda Supongamos que se eligen muestras aleatorias de 200 1. hombres y mujeres trabajadoras a tiempo completo de (c) Encuentra la probabilidad condicional de que tengas 200. Aproxime la probabilidad de que éxito en la ronda 3 dado que tuviste éxito en las (a) al menos 70 de las mujeres ganan $25.000 o más; rondas 1 y 2. (b) a lo más 60 por ciento de los hombres ganan (d) Encuentra la probabilidad de que seas un ganador. $25.000 o más; 5.8. Un candidato de prueba de IQ elegido aleatoriamente (c) por lo menos tres cuartas partes de los hombres y obtiene una puntuación que es aproximadamente una al menos la mitad de las mujeres ganan $20.000 variable aleatoria normal con la media de 100 y la o más. desviación estándar 15. ¿Cuál es la probabilidad de que 5.13. En un banco determinado, la cantidad de tiempo que la puntuación de dicha persona sea (a) superior a 125; (b) un cliente gasta siendo servida por un cajero es una entre 90 y 110? variable aleatoria exponencial con media de 5 5.9. Supongamos que el tiempo de viaje desde su casa a su minutos. Si hay un cliente en servicio al entrar en el oficina se distribuye normalmente con media 40 minutos Banco, ¿cuál es la probabilidad de que él o ella seguirá y la desviación estándar de 7 minutos. Si desea estar 95 estando con el cajero después de un adicional de 4 por ciento seguro de que no va a llegar tarde para una cita minutos? de la oficina en 1 P.M., ¿cuál es la última vez que debes 5.14. Supongamos que la función de distribución irte de casa? acumulativa de la variable aleatoria X es dada por 5.10. La vida de un cierto tipo de neumático del automóvil se distribuye normalmente con la media 34.000 millas y la F(x) = 1 − e−x2 X>0 desviación estándar 4000 millas. 0

Lo contrario

Evaluar (a) P{X > 2}; b P{1 < X < 3}; c) la función de tasa de riesgo de F; De E[X]; (e) se(X). Pista: Para las partes (d) y (e), es posible que desee hacer uso de los resultados del ejercicio teórico 5. 5.15. El número de años que una lavadora funciona es una variable aleatoria cuya función de tasa de riesgo es dada por .2 2 ⎧

0
Lt) =.2 + .3(T − 2)2 ... T < 5 ⎩ 1.1

T>5

(a) ¿Cuál es la probabilidad de que la máquina siga funcionando 6 años después de haber sido comprada? (b) Si todavía está trabajando 6 años después de haber sido comprado, ¿cuál es la probabilidad condicional de que fallará en los próximos 2 años? 5,16. Una variable aleatoria estándar de Cauchy tiene la función de densidad

Variable X cuya media M depende de si el acusado es culpable. Si es inocente, m = 1 Si es culpable, m = 2. el juez de decisión gobernará al acusado culpable si X > C para un valor convenientemente elegido de c. (a) Si el juez quiere estar 95 por ciento seguro de que un hombre inocente no será condenado, ¿cuál debe ser el valor de c? (b) Usando el valor de c que se encuentra en la parte (a), ¿cuál es la probabilidad de que un acusado culpable sea condenado? 5,20. Para cualquier número real yDefinir y+ Por

y+ = y, Si y Efectos 0 0 Si y < 0 Dejar C ser una constante. un Mostrar que

E f q<X
(c))

Cuando Z es una variable aleatoria normal estándar. b Encontrar E[(X − c)+] cuando X es normal con la media M y la varianza σ2.

CHAPTER6

Variables aleatorias distribuidas conjuntamente 6,1FUNCIONES DE DISTRIBUCIÓN CONJUNTA 6,2 VARIABLES ALEATORIAS INDEPENDIENTES 6,3 SUMAS DE VARIABLES ALEATORIAS INDEPENDIENTES 6,4 DISTRIBUCIONES CONDICIONALES: CASO DISCRETO 6,5 DISTRIBUCIONES CONDICIONALES: CASO CONTINUO 6,6 ESTADÍSTICAS DE PEDIDOS 6,7 DISTRIBUCIÓN DE PROBABILIDADES CONJUNTAS DE FUNCIONES DE VARIABLES ALEATORIAS 6,8 VARIABLES ALEATORIAS INTERCAMBIABLES

6,1FUNCIONES DE DISTRIBUCIÓN CONJUNTA Hasta ahora, nos hemos preocupado solo por las distribuciones de probabilidad para las variables aleatorias individuales. Sin embargo, a menudo nos interesan las declaraciones de probabilidad relativas a dos o más variables aleatorias. Con el fin de lidiar con tales probabilidades, definimos, para cualquier dos variables aleatorias X Y YLla función de distribución de probabilidad acumulada conjunta De X Y Y Por F(a,b) = P{X ... a,Y ... b}

− q < a,B < q

La distribución de X puede obtenerse de la distribución conjunta de X Y Y de la siguiente manera: FX(a) = P{X ... a} = P{X ... a,Y < q} =

P

{X ... a,Y ... b}

= bLim→qP{X ... a,Y ... b} = bLim→qF(a,b) K F(a, q Tenga en cuenta que, en el conjunto anterior de ecualidades, hemos vuelto a hacer uso del hecho de que la probabilidad es una función de conjunto continuo (es decir, evento). Del mismo modo, la función de distribución acumulativa de Y es dada por

FY(b) = P{Y ... b} = aLim→qF(a,b) K F(q,b) 232

Las funciones de distribución FX Y FY a veces se denominan Marginal distribuciones de X Y Y. Todas las declaraciones de probabilidad conjunta sobre X Y Y puede, en teoría, ser contestada en términos de su función de distribución conjunta. Por ejemplo, supongamos que queríamos calcular la probabilidad conjunta de que X es mayor que Un Y Y es mayor que b. Esto podría hacerse de la siguiente manera: P{X > a,Y > b} = 1 − P({X > a,Y > b}c) −

(1,1)

= 1 − [P{X ... a} + P{Y ... b} − P{X ... a,Y ... b}] = 1 − FX(a) − FY(b) + F(a,b) La ecuación (1,1) es un caso especial de la siguiente ecuación, cuya verificación se deja como un ejercicio: P{a1 < X ... a2,b1 < Y ... b2} = F(a2,b2) + F(a1,b1) − F(a1,b2) − F(a2,b1)

(1,2)

Cuando a1 < a2,b1 < b2. En caso de que X Y Y son variables aleatorias discretas, es conveniente definir el función de masa de probabilidad conjunta De X Y Y Por p(x,y) = P{X = x,Y = y} La función de masa de probabilidad de X puede obtenerse de p(x,y) Por

pX y:p(x,y)>0

Semejantemente pY x:p(x,y)>0

EJEMPLO 1A Supongamos que 3 bolas son seleccionadas aleatoriamente de una urna que contiene 3 bolas rojas, 4 blancas y 5 azules. Si dejamos que X Y Y denotan, respectivamente, el número de bolas rojas y blancas elegidas, luego la función de masa de probabilidad conjunta de X Y Y,p(i,j) = P{X = i,Y = j}, es dada por

P

P

P p

P

P

P

P P p

Estas probabilidades se pueden expresar más fácilmente en forma tabular, como en la tabla 6,1. El lector debe notar que la función de masa de probabilidad de X se obtiene calculando las sumas de la fila, mientras que la función de masa de probabilidad de Y se obtiene calculando las sumas de la columna. Porque las funciones individuales de la masa de la probabilidad de X Y Y por lo tanto, aparecen en el margen de dicha tabla, a menudo se denominan funciones de masa de probabilidad marginal De X Y YRespectivamente. .

TABLA 6,1: P{X = i,Y = j}

j i

0 1 2 3

0

1

2

3

Rowsum

P X

i

Suma de columnas = P{Y = j}

EJEMPLO 1B Supongamos que el 15 por ciento de las familias de una determinada comunidad no tienen hijos, el 20 por ciento tiene 1 hijo, el 35 por ciento tiene 2 hijos y el 30 por ciento tiene 3. Supongamos además que en cada familia cada niño es igual de probable (independientemente) de ser un niño o una niña. Si una familia es elegida al azar de esta comunidad, entonces B, el número de niños y G, el número de niñas, en esta familia tendrá la función de masa de probabilidad conjunta mostrada en la tabla 6,2. TABLA 6,2: P{B = i,G = j}

j i

Columnsum = P{G = j}

0

1

2

3

.3750

.3875

.2000

.0375

Rowsum

P B

i

Las probabilidades mostradas en la tabla 6,2 se obtienen de la siguiente manera: P{B = 0G = 0} = P{ningún niño} = .15 P{B = 0G = 1} = P{1 niña y total de 1 niño} = P{1 niño (a)} P{B = 0G = 2} = P{2 niñas y un total de 2 niños}

2= P{2 niños y niñas}P{2 niñas y niños|2 niños y niñas} =

Dejamos la verificación de las probabilidades restantes en la tabla al lector. . Decimos que X Y Y Son conjuntamente continuos Si existe una función f(x,y), definida para todos los X Y y, teniendo la propiedad que, por cada conjunto C de pares de números reales (es decir, C es un conjunto en el plano bidimensional),

P{(X,Y) ∈ C} =

** f(x,y)DX DY (x,y)∈C

(1,3)

La función f(x,y) se denomina función de densidad de probabilidad conjunta De X Y Y. Si Un Y B son cualquier conjunto de números reales, entonces, definiendo C = {(x,y) : X ∈ A,y ∈ B}, vemos en la ecuación (1,3) que P{X ∈ A,Y ∈ B} = *B *Un f(x,y)DX DY

(1,4)

Kuz F(a,b) = P{X ∈ (− q,a],Y ∈ (− q,b]} = *−q*− q f(x,y)DXDY b a

se deduce, tras la diferenciación, que f ∂Un ∂b

donde se definan los derivados parciales. Otra interpretación de la función de densidad articular, obtenida de la ecuación (1,4), es d+Db

P{Un < X < Un + De,B < Y < B + Db} = *b

a+De

*a

f(x,y)DXDY

L f(a,b)dadb Cuando De Y Db son pequeñas y f(x,y) es continua en a, b. Ahí f(a,b) es una medida de cuán probable es que el vector aleatorio (X, Y) estará cerca (a, b). Si X Y Y son conjuntamente continuos, son individualmente continuos, y sus funciones de la densidad de la probabilidad se pueden obtener como sigue: P{X ∈ A} = P{X ∈qA,Y ∈ (− q, q)}

= *Un *− q f(x,y)dydx =

*Un fX(x)Dx

Donde q

fX(x) = *−Q f(x,y)Dy

es así la función de la densidad de la probabilidad de X. Del mismo modo, la densidad de probabilidad ción de Y es dada por

q

fY(y) = *−Q f(x,y)Dx

EJEMPLO 1C La función de densidad conjunta de X Y Y es dada por f(x,y)

= 002e−xe−2y

otherwise0 < X < q, 0 < y < q

Calcular (a) P{X > 1Y < 1}, (b) P{X < Y}, y (c) P{X < a}. Solución.

un 1q

P{X > 1Y < 1

}=

2e−xe−2y DXDY

*0 *1

Dy

1

= e−1 *0 2e−2y Dy = e−1(1 − e−2)

b P{X < Y} =

2e−xe−2y DXDY

** (x,y):x
=

*0 *0 2e−xe−2y DXDY q

=

2e−2y(1 − e−y)Dy

* 0

q

q

2e−3yDy

c

Un q

Px < a

}=

0

=

2e−2ye−X dydx

* * 0 X

* e− Dx a 0

= 1 − e−a

.

EJEMPLO 1D Considere un círculo de radio R, y Supongamos que un punto dentro del círculo se elige aleatoriamente de tal manera que todas las regiones dentro del círculo de la misma área son igualmente propensos a contener el punto. (En otras palabras, el punto se distribuye uniformemente dentro del círculo.) Si dejamos que el centro del círculo denotar el origen y definimos X Y Y para ser las coordenadas del punto elegido (Figura 6,1), entonces, ya que (X, Y) es igualmente probable que esté cerca de cada punto del círculo, se deduce que la función de densidad X Y Y es dada por ... R2

f 0 six2 +

2>

R2

por algún valor de c. (a) Determinar c. (b) Encuentre las funciones de densidad marginal de X Y Y. (c) Calcule la probabilidad de que D, la distancia desde el origen del punto seleccionado es menor o igual a a. (d) Encontrar Y [D]. y

R (X , Y ) (0 , 0

x

FIGURA 6,1: Distribución de probabilidad conjunta.

Solución.

(a) porque Q

*

*

f(x,y)dydx = 1

−q−q

se deduce que C 2 **2

dydx = 1

X +y …R2

Podemos evaluatemore simplemente, señalando que representa el área del círculo y es así igual--x2+y2…R2 dydx ya sea utilizando coordenadas polares o, Para πR2. Ahí c b q

fX(x) = *

f(x,y)Dy −q

* Dy = 1 * C DyDonde C = .R2 − x2 πR2 −C x2 x2 2 ... R22 R 2 R y es igual a 0 cuando x2 > R2. Por simetría, la densidad marginal de Y es dada por fY

y2

y2 ... R2 y2 > R2

=0

(c) La función de distribución de D = .X2 + Y2, la distancia desde el origen, se obtiene de la siguiente manera: para 0 ... Un ... R,

FD = 2 **2

f(x,y)dydx

X +y …a2

dydx x2+y2…a2

a2 =R

2

donde hemos utilizado el hecho de que --x2+y2…a2 dydx es el área de un círculo de radio Un y por lo tanto es igual a πa2. (d) De la parte (c), la función de densidad de D Es 2a fD(a) =

2

0 ... Un ... R

R Ahí 2

RR

E[D] =

*

a

R2

0.

EJEMPLO 1E La densidad articular de X Y Y es dada por f

Q, 0 < y < q

Encontrar la función de densidad de la variable aleatoria X/Y. Solución. Empezamos calculando la función de distribución de X/Y. Para Un > 0 FX/Y(a) = P

X ... a/ Y = ** e−x+y) DXDY x/y…a Q Es

=*

*

e−x+y) DXDY

(1 −

= e−Es)e−yDy q

0

La diferenciación muestra que la función de densidad de X/Y es dada por fX/Y(a) = 1/ (Un + 1)2, 0 < Un < q.

.

También podemos definir distribuciones de probabilidades conjuntas para N las variables aleatorias exactamente de la misma manera que lo hicimos para N = 2. por ejemplo, la función de distribución de probabilidad acumulada conjunta F(a1,a2,...,an) Dela N variables aleatorias X1,X2,...,XN se define por F(a1,a2,...,an) = P{X1 ... a1,X2 ... a2,...,XN ... an} Además, el N se dice que las variables aleatorias son conjuntamente continuos Si existe una función f(x1,x2,...,xn), llamado función de densidad de probabilidad conjunta, de manera que, para cualquier conjunto C En nespacio

P{(X1,X2,...,Xn) ∈ C

} = **

···

1

N

* f(x1,...,xn)Dx1Dx2 ···Dxn

(X ,...,X )∈C

En particular, para cualquier N conjuntos de números reales A1,A2,...,An, P{X1 ∈ A1,X2,∈ A2,...,XN ∈ An}

=

* N* N1 A

A

···

*

f(x1,...,xn)Dx1Dx2 ···Dxn A



1

EJEMPLO 1F la distribución multinomial Una de las distribuciones conjuntas más importantes es la distribución multinomial, que surge cuando una secuencia de N se realizan experimentos independientes e idénticos. Supongamos que cada experimento puede dar lugar a una R posibles resultados, con r probabilidades respectivas p 1. Si dejamos Xme denotan el número de N experimentos que resultan en el número de resultado iEntonces

{ = = = No n! ··· (1,5) P X1 n1,X2 n2,...,Xr nr

}= N !N !···nr!p1 p2

pr

R Cuando . i=1 La ecuación (1,5) se verifica señalando que cualquier secuencia de resultados para el N experimentos que conducen al resultado me Ocurriendo nme veces para me =21, 2,...R ,R voluntad, por la supuesta independencia de los experimentos, tienen probabilidad pn11pn2 ...pnR de ocurrir. Porque hay n!/(n1!n2!...nr!) tales secuencias de resultados (hay n!/n1!...nr! diferentes permutaciones de N cosas de Que n1 son iguales, n2 son iguales, ...,nR son iguales), se establece la ecuación (1,5). La distribución conjunta cuya función de masa de probabilidad conjunta es especificada por la ecuación (1,5) se denomina Distribución multinomial. Tenga en cuenta que cuando R = 2, el multinomial reduce a la distribución binomial.

Tenga en cuenta también que cualquier suma de un conjunto fijo de la Xis tendrá una distribución binomial. Es decir, si N ( {1, 2,...,r}Entonces N Xme será una variable i∈N aleatoria binomial con parámetros N Y P = . Esto sigue porque Xme representa el número de N experimentos cuyo resultado es N, y cada experimento tendrá un resultado de forma independiente con probabilidad . Como una aplicación de la distribución multinomial, supongamos que un dado justo se rodó 9 veces. La probabilidad de que 1 aparezca tres veces, 2 y 3 dos veces cada uno, 4 y 5 una vez cada uno, y 6 no es en absoluto

. 6,2VARIABLES ALEATORIAS INDEPENDIENTES Las variables aleatorias X Y Y se dice que son Independiente Si, para dos conjuntos de números reales Un Y B, P{X ∈ A,Y ∈ B} = P{X ∈ A}P{Y ∈ B}

(2,1)

En otras palabras, X Y Y son independientes si, para todos Un Y B, los eventos EUn = {X ∈ A} Y FB = {Y ∈ B} son independientes. Se puede demostrar mediante el uso de los tres axiomas de probabilidad de que la ecuación (2,1) seguirá si y sólo si, para todos los a, b, P{X ... a,Y ... b} = P{X ... a}P{Y ... b}

Por lo tanto, en términos de la función de distribución conjunta F De X Y Y, X Y Y son independientes si F(a,b) = FX(a)FY(b) para todos a,b Cuando X Y Y son variables aleatorias discretas, la condición de independencia (2,1) es equivalente a p(x,y) = pX(x)pY(y) para todos x,y (2,2) La equivalencia sigue porque, si la ecuación (2,1) se satisface, después obtenemos la ecuación (2,2) dejando Un Y B ser, respectivamente, los conjuntos de un punto Un = {x} Y B = {y}. Además, si la ecuación (2,2) es válida, entonces, para cualquier conjunto A,B, P{X ∈ A,Y y∈B x∈A

y∈B x∈A

y∈B

x∈A

= P{Y ∈ B}P{X ∈ A} y se establece la ecuación (2,1). En el caso continuo, la condición de independencia equivale a f(x,y) = fX(x)fY(y)

para todos x,y

Por lo tanto, libremente hablando, X Y Y son independientes si conocer el valor de uno no cambia la distribución de la otra. Se dice que las variables aleatorias que no son independientes Dependiente. EJEMPLO 2A Supongamos que N + M ensayos independientes que tienen una probabilidad común de éxito P se realizan. Si X es el número de éxitos en el primer N ensayos, y Y es el número de éxitos en la final M pruebas, entonces X Y Y son independientes, ya que conocer el número de éxitos en el primer N los ensayos no afecta a la distribución del número de éxitos en la última M pruebas (por la asunción de ensayos independientes). De hecho, para X Y y,

y

− − x y 0 ... y ... m

P{X = x,Y = y} = 0 ... X ... n, = P{X = x}P{Y = y}

Por el contrario, X Y Z dependerá, donde Z es el número total de éxitos en el N + M Ensayos. (¿Por qué?) .

EJEMPLO 2B Supongamos que el número de personas que ingresan a una oficina de correos en un día determinado es una variable aleatoria de Poisson con parámetro λ. Mostrar que si cada persona que entra en la oficina de correos es un macho con probabilidad P y una hembra con probabilidad 1 − p, entonces el número de machos y hembras que entran en la oficina de correos son variables aleatorias de Poisson independientes con parámetros respectivos λP Y L1 − p). Solución. Dejar X Y Y denotan, respectivamente, el número de machos y hembras que entran en la oficina de correos. Demostraremos la independencia de X Y Y estableciendo la ecuación (2,2). Para obtener una expresión para P{X = i,Y = j}, condicionamos en X + Y de la siguiente manera: P{X = i,Y = j} = P{X = i,Y = j|X + Y = me + j}P{X + Y = me + j} + P{X = i,Y = j|X + Y Z me + j}P{X + Y Z me + j}

P[Tenga en cuenta que esta ecuación es meramente un caso especial de la fórmula(E|Fc)Pp({Fxc)=.] i,Y = j|X + Y Z me + j} es claramente 0, obtenemosP(E) = P(E|F)P(F) + Desde P{X = i,Y = j} = P{X = i,Y = j|X + Y = me + j}P{X + Y = me + j}

(2,3)

Ahora, porque X + Y es el número total de personas que entran en la oficina de correos, se deduce, por supuesto, que

−λ

P{X + Y = me + j} = e

λi+j

(2,4)

(me + j)!

Además, dado que me + J personas entran en la oficina de correos, ya que cada personap, se deduce que la probabilidad de que la entrada sea exacta será masculina con probabilidad me de ellos será varón (y por lo tanto J de ellos hembra) es sólo la probabilidad binomial pi(1 − p)j. Es decir

P{X = i,Y = j Sustitución de ecuaciones (2,4) y (2,5) en la ecuación (2,3) rendimientos

j

(2,5)

j

P{X = i,Y = j} =

j)! −

e

L

(lp)i [L1



p)]J =

i!j! = e− lpi(l! p)me e− L (1−p) [L1 j−! p)]j

(2,6)

Ahí P{X = i} = e− lP (l p)me

i!

j! i! j

y del mismo modo, P{Y = j} = e− L (1−p) [L1 − p)]J j! (2,8) Las ecuaciones (2,6), (2,7) y (2,8) establecen el resultado deseado. P (l EJEMPLO 2C

p)i

.

(2,7)

Un hombre y una mujer deciden reunirse en un lugar determinado. Si cada uno de ellos llega de forma independiente a la vez distribuido uniformemente entre las 12 horas y 1 P.M., encuentre la probabilidad de que el primero en llegar tenga que esperar más de 10 minutos. Solución. Si dejamos que X Y Y denotan, respectivamente, el tiempo pasado 12 que el hombre y la mujer llegan, entonces X Y Y son variables aleatorias independientes, cada una de las cuales se distribuye uniformemente sobre (0, 60). La probabilidad deseada, P{X + 10 < Y} + P{Y + 10 < X}, que, por simetría, es igual a 2P{X + 10 < Y}, se obtiene de la siguiente manera: 2P{X + 10 < Y} = 2 * * f(x,y)DXDY x+10
=2**

fX(x)fY(y)DXDY

x+10
DXDY

Dy

. Nuestro siguiente ejemplo presenta el problema más antiguo que se ocupa de las probabilidades geométricas. Fue considerado y resuelto por primera vez por Buffon, un naturalista francés del siglo XVIII, y suele denominarse Problema con la aguja de Buffon. EJEMPLO problema de aguja de Buffon 2D Una tabla se gobierna con líneas paralelas equidistantes a una distancia D Aparte. Una aguja de longitud LDonde L ... D, se lanza aleatoriamente sobre la mesa. ¿Cuál es la probabilidad de que la aguja se intersecte con una de las líneas (la otra posibilidad es que la aguja esté completamente contenida en la tira entre dos líneas)? Solución. Determinemos la posición de la aguja especificando (1) la distancia X desde el punto medio de la aguja hasta la línea paralela más cercana y (2) el ángulo Me entre la aguja y la línea de longitud proyectada X. (Consulte la figura 6,2.) La aguja intersecará una línea si la hipotenusa del triángulo rectángulo en la figura 6,2 es menor que L/2 — es decir, si X L L < O X < Cuerpoθ Cuerpoθ 2 2 X

Como X varía entre 0 y D/2 y Me entre 0 y P2, es razonable asumir que son variables aleatorias independientes, uniformemente distribuidas sobre estas gamas respectivas. Ahí P

fX(x)fθ(y)DXDY x
P2

L/2cosy 0

0

P2 L

CuerpoEs = πD *0 2L

2

< qD ∗EJEMPLO

.

2e caracterización de la distribución normal

Dejar X Y Y denotan las distancias de Miss horizontales y verticales cuando se dispara una bala en un objetivo, y asumir que 1. X Y Y son variables aleatorias continuas independientes que tienen funciones de densidad diferenciables. 2. La densidad de la articulación f(x,y) = fX(x)fY(y) De X Y Y depende de (x, y) sólo a través de x1 + y2. Puesto libremente, la asunción 2 indica que la probabilidad del aterrizaje de la bala en cualquier punto de la x–y avión depende sólo de la distancia del punto desde el objetivo y no en su ángulo de orientación. Una forma equivalente de fraseo de esta suposición es decir que la función de densidad de la articulación es la rotación invariante. Es un hecho bastante interesante que los supuestos 1 y 2 implican que X Y Y normalmente son variables aleatorias distribuidas. Para probar esto, observe primero que las suposiciones producen la relación f(x,y) = fX(x)fY(y) = g(x2 + y2)

(2,9)

para alguna función g. Ecuación diferenciadora (2,9) con respecto a X Rendimientos fX

(2,10)

La ecuación divisoria (2,10) de la ecuación (2,9) da fX fX(x)

g(x2 + y2)

O fX 2XfX(x)

G

(2,11) g(x2 +

y2)

Dado que el valor de la parte izquierda de la ecuación (2,11) depende x, mientras que el valor de la parte derecha depende de x2 + y2, se deduce que el lado izquierdo debe ser el mismo para todos x. Para ver esto, considere cualquier x1,x2 y dejar que y1,y2 ser tal que x obtenemos

. A continuación, desde la ecuación (2,11),

f Ahí

1

2x1fX(x1)

g

g

fX (x)

=c

O

XfX(x)

D

(RegistrofX(x)) = Cx Dx

que implica, tras la integración de ambas partes, que

RegistrofX(x) = Un + Cx

2O

fX(x) = MiéCx2/2

2 Desde

1, se deduce que C es necesariamente negativo, y podemos

escribir C = −1-/s2. Así

2

fX(x) = Mié−X /2σ2 Es decir X es una variable aleatoria normal con parámetros m = 0 y σ2. Se puede aplicar un argumento similar a fY(y) para mostrar que fY

y2/2σ2

Además, de la hipótesis 2 se desprende que σ2 = S2 y que X Y Y son así independientes, las variables aleatorias normales distribuidas idénticamente con parámetros m = 0 y σ2.

.

Una condición necesaria y suficiente para las variables aleatorias X Y Y ser independiente es para su función común de la densidad de la probabilidad (o función total de la probabilidad común en el caso discreto) f(x, y) para factorizar en dos términos, uno dependiendo X y la otra depende sólo de y. Propuesta 2,1. Las variables aleatorias continuas (discretas) X Y Y son independientes si y sólo si su función de densidad de probabilidad conjunta (masa) puede expresarse como − q < X < q,− q < y < q

fX,Y(x,y) = h(x)g(y)

Prueba. Dénos la prueba en el caso continuo. En primer lugar, tenga en cuenta que la independencia implica que la densidad de la articulación es el producto de las densidades marginales de X Y Y, por lo que la factorización anterior se celebrará cuando las variables aleatorias son independientes. Ahora, supongamos que fX,Y(x,y) = h(x)g(y) Entonces Q

1=*

* −qq − q

fX,Y(x,y)DXDY q

=*

h(x)Dx* −q

g(y)Dy −q

= C1C2 Donde C

Dx Y C

Dy. También q

fX(x) = *

fX,Y(x,y)Dy = C2h(x) −qq

fY(y) = *

fX,Y(x,y)Dx = C1g(y) −q

Desde C1C2 = 1, se deduce que fX,Y(x,y) = fX(x)fY(y) y la prueba está completa. EJEMPLO 2F Si la función de densidad de la articulación X Y Y Es f(x,y) = 6e−2xe−3y

0 < X < q, 0 < y < q

y es igual a 0 fuera de esta región, ¿son las variables aleatorias independientes? ¿Qué pasa si la función de densidad articular es f(x,y) = 24Xy

0 < X < 1, 0 < y < 1, 0 < X + y < 1

y es igual a 0 de lo contrario? Solución. En la primera instancia, los factores de la función de densidad de la articulación, y por lo tanto las variables aleatorias, son independientes (siendo uno exponencial con la tasa 2 y el otro exponencial con la tasa 3). En la segunda instancia, debido a que la región en la que la densidad de la articulación es distinto de cero no se puede expresar en la forma X ∈ A,y ∈ B, la densidad de la articulación no Factoriza, por lo que las variables aleatorias no son independientes. Esto se puede ver claramente dejando 1 Si 0 < X < 1, 0 < y < 1, 0 < x y<1 I(x,y) = % + 0

Lo contrario

y escribiendo f(x,y) = 24XY I(x,y)

que claramente no se factoriza en una parte que depende sólo de X y otro dependiendo sólo de y.. El concepto de independencia puede, por supuesto, definirse para más de dos variables aleatorias. En general, el N variables aleatorias X1,X2,...,XN se dice que son independientes si, para todos los conjuntos de números reales A1,A2,...,An, n

P{X1 ∈ A1,X2 ∈ A2,...,XN Como antes, se puede demostrar que esta condición es equivalente a P{X1 ... a1,X2 ... a2,...,XN ... an} n

{Xme ... ai}

para

todos

a1,a2,...,aN i=1 Por último, decimos que una colección infinita de variables aleatorias es independiente si cada subcolección finita de ellos es independiente. EJEMPLO 2g ¿cómo puede un equipo elegir un subconjunto aleatorio? La mayoría de las computadoras son capaces de generar el valor de, o Simular, una variable aleatoria uniforme (0,1) por medio de una subrutina incorporada que (a un alto grado de aproximación) produce tales "números aleatorios". Como resultado, es bastante fácil para un ordenador simular una variable aleatoria de indicador (es decir, una Bernoulli). Supongo Me es una variable de indicador tal que P{Me = 1} = P = 1 − P{Me = 0} El ordenador puede simular Me eligiendo un número aleatorio (0, 1) uniforme U y luego dejar Me 1 si U < P = 0 si U Efectos p Supongamos que estamos interesados en que la computadora seleccione k,K ... n, de los números 1, 2,...,N de manera que cada uno de los subconjuntos de tamaño K es igualmente probable que se elija. Ahora presentamos un método que permitirá al equipo resolver esta tarea. Para generar tal subconjunto, primero simularemos, en secuencia, N variables del indicador I1,I2,...,In, de los cuales exactamente K será igual a 1. Ésos me para los que Ime = 1 constituirá entonces el subconjunto deseado. Para generar las variables aleatorias I1,...,In, empiece simulando N uniforme independiente (0,1) variables aleatorias U1,U2,...,Un. Ahora defina k

=

I1



⎨ 1 si U1 < N



0

de

lo

contrario

y luego, una vez I1,...,Ime se determinan, se establecen de forma recursiva

Ii+1 = ⎪ ⎨

1

Si Ui+1 < K −I1n+ ··· +− i

Ii)

⎩ ⎪ 0 Lo contrario

En palabras, en el (me + 1) la etapa que establecemos Ii+1 igual a 1 (y así poner me + 1 en el subconjunto deseado) con una probabilidad igual al número restante de lugares en el subconjunto ⎛a saberK saber, me ⎝

⎞, dividido por el número restante de posibilidades (a

N − i). Por lo tanto, la distribución conjunta de I1,I2,...,IN se determina a partir de k P{I1 = 1} = n i

K P{Ii+1 = 1|I1,...,Ii} =

Ij N −j=1i

1 < me < n

La prueba de que la fórmula anterior da como resultado todos los subconjuntos de tamaño K es igualmente probable que se elija es por inducción en K + n. Es inmediato cuando K + N = 2 (es decir, cuando K = 1l,+N =1, y considere cualquier subconjunto de size1), así que asuma que es verdad siempre quekdecirK y+1 …n i…2 …l. Ahora, supongamos··· ... ik— y que K + N = considerar los dos casos siguientes. Caso 1:

i1 = 1

P{I1 = Ii2 = ··· = IMe = 1IJ = 0 de lo contrario} = P{I1 = 1}P{Ii2 = ··· = IMe = 1IJ = 0 de lo contrario|I1 = 1} Ahora, dado que I1 = 1, los elementos restantes del subconjunto se eligen como si un subconjunto de tamaño K − 1 iban a ser elegidos de la N − 1 elementos 2, 3,...,n. Por lo tanto, por la hipótesis de la inducción, la probabilidad condicional que esto dará lugar a un dado subconjunto de tamaño K − 1 seleccionado es 1

. Ahí

P{I1 = Ii2 = ··· = IMe = 1IJ = 0 de lo contrario}

N Caso 2:

i1 Z 1 P{Ii1 = Ii2 = ··· = IMe = 1IJ = 0 de lo contrario} = P{Ii1 = ··· = IMe = 1IJ = 0 de lo contrario|I1 = 0}P{I1 = 0} 1 n K

donde se utilizó la hipótesis de inducción para evaluar la probabilidad condicional precedente. Así, en todos los casos, la probabilidad de que un subconjunto determinado de tamaño K será el subconjunto elegido es 1<

.

.

Observación. El método anterior para generar un subconjunto aleatorio tiene un requisito de memoria muy bajo. Un algoritmo más rápido que requiere algo más de memoria se presenta en la sección 10,1. (Este último algoritmo utiliza el último K elementos de una permutación aleatoria de 1, 2,...,n.) . EJEMPLO 2H Dejar X, Y, Z ser independientes y distribuidos uniformemente sobre (0,1). Calcular P{X Efectos Yz}. Solución. Desde fX,Y,Z(x,y,z) = fX(x)fY(y)fZ(z) = 1 0 ... X ... 1, 0 ... y ... 1, 0 ... Z ... 1 tenemos

P{X Efectos Yz} = * * * fX, Y, Z(x,y,z)dxdydz xÚYz

=

*0 *0 *Yz

dxdydz 1

1

1

* * (1 − Yz)dydz 1 1 0

0

Coll . EJEMPLO 2i interpretación probabilística de la vida media Dejar N(t) denotan el número de núcleos contenidos en una masa radiactiva de material en el tiempo t. El concepto de vida media a menudo se define de una manera determinista al afirmar esto es un hecho empírico que, por algún valor h, llamado vida media, N(t) = 2−t/hN(0)

T>0

[Tenga en cuenta que N(h) = N(0)/2.] dado que lo anterior implica que, para cualquier s Y t, N(T + s) = 2−(s+t)/hN(0) = 2−t/hN(s) sigue que no importa cuánto tiempo s ya ha transcurrido, en un tiempo adicional T el número de núcleos existentes disminuirá por el factor 2−t/h. Debido a que la relación determinista acaba de dar resultados de las observaciones de masas radiactivas que contienen un gran número de núcleos, parecería que podría ser consistente con una interpretación probabilística. La pista para derivar el modelo de probabilidad apropiado para la vida media reside en la observación empírica de que la proporción de descomposición en cualquier intervalo de tiempo depende ni del número total de núcleos al principio en el intervalo ni en la ubicación de este intervalo (ya que N(T + s)/N(s) depende ni en N(s) ni en s). Por lo tanto, parece que los núcleos individuales actúan de forma independiente y con una distribución de la vida sin memoria. Consecuentemente, puesto que la distribución única de la vida que es sin memoria es la distribución exponencial, y puesto que exactamente la mitad de una cantidad dada de masa decae cada H unidades de tiempo, proponemos el siguiente modelo probabilístico para la descomposición radiactiva. Interpretación probabilística de la vida media h: Las vidas de los núcleos individuales son variables aleatorias independientes que tienen una distribución de la vida que es exponencial con mediana igual a h. Es decir, si L representa la vida útil de un núcleo dado, P{L < t} = 1 − 2−t/h

(Debido a que P

y el precedente puede escribirse como P{L < t} =

se puede ver que L de hecho tiene una distribución exponencial con mediana h.) Tenga en cuenta que, bajo la interpretación probabilística de la vida media acaba de dar, si uno comienza con N(0) núcleos en el momento 0, a continuación, N(t), el número de núcleos que permanecen en el tiempo t, tendrá una distribución binomial con parámetros N = N(0) Y P = 2−t/h. Los resultados del capítulo 8 demostrarán que esta interpretación de la vida media es consistente con el modelo determinista cuando se considera la proporción de un gran número de núcleos que decaen en un determinado período de tiempo. Sin embargo, la diferencia entre la interpretación determinista y probabilística se hace evidente cuando se considera el número real de núcleos decaído. Ahora lo indicaremos con respecto a la cuestión de si los protones decaen. Hay cierta controversia sobre si los protones decaen o no. De hecho, una teoría predice que los protones deben decaer con una vida media de alrededor de H = 1030 Años. Para comprobar esta predicción empíricamente, se ha sugerido que se siga un gran número de protones para, digamos, uno o dos años y determinar si alguno de ellos decae dentro de ese período. (Evidentemente, no sea factible seguir una masa de protones durante 1030 años para ver si la mitad de la misma decae.) Supongamos que somos capaces de realizar un seguimiento de N(0) = 1030 protones para C Años. El número de decesos pronosticados por el modelo determinista sería entonces dado por N(0) − N(c) = h(1 − 2−c/h) = 1 − 2−c/h 1/h −30 L

Lim

Desde = 10 x→0 x h Por la regla del = Lim (c2−Cx LOG2) Hopital ˆ L x→0

0

1 − 2−Cx1

= cLOG2 L.6931c Por ejemplo, el modelo determinista predice que en 2 años debe haber 1,3863 decae, y por lo tanto parecería ser un golpe serio a la hipótesis de que los protones decaen con una vida media de 1030 años si no se observan decesos durante esos 2 años. Ahora Contrastemos las conclusiones que acabamos de extraer con las obtenidas del modelo probabilístico. Una vez más, consideremos la hipótesis de que la vida media de los protones es H = 1030 años, y Supongamos que seguimos H protones para C Años. Dado que hay un gran número de protones independientes, cada uno de los cuales tendrá una probabilidad muy pequeña de descomposición dentro de este período de tiempo, se deduce

que el número de protones que se decae tendrá (a una aproximación muy fuerte) una distribución de Poisson con parámetro igual a h(1 − 2−c/h) L cLOG2. Así P{0 decae} = e−cLOG2 = e−Registro(2c) = 2 1c y, en general, 2−c[cLOG2n P{N Decae} =

N Efectos 0 n!

Así vemos que a pesar de que el número promedio de decesos durante 2 años es (según lo pronosticado por el modelo determinista) 1,3863, hay 1 oportunidad en 4 que no habrá ningún decae, lo que indica que tal resultado de ninguna manera invalida la hipótesis original de proto n decadencia. . Observación. La independencia es una relación simétrica. Las variables aleatorias X Y Y son independientes si su función de densidad de la articulación (o función de masa en el caso discreto) es el producto de sus funciones individuales de densidad (o masa). Por lo tanto, para decir que X es independiente de Y equivale a decir que Y es independiente de X— o simplemente que X Y Y Son Independiente. Como resultado, al considerar si X es independiente de Y en situaciones en las que no es en absoluto intuitivo que conocer el valor de Y no cambiará las probabilidades relativas a X, puede ser beneficioso intercambiar las funciones de X Y Y y preguntar en su lugar si Y es independiente de X. El siguiente ejemplo ilustra este punto. . EJEMPLO 2J Si el lanzamiento inicial de los dados en el juego de dados da como resultado la suma de los dados equivalentes a 4, entonces el jugador continuará arrojando los dados hasta que la suma sea 4 o 7. Si esta suma es 4, entonces el jugador gana, y si es 7, entonces el jugador pierde. Dejar N indican el número de tiros necesarios hasta que 4 o 7 aparece, y dejar que X denotan el valor (ya sea 4 o 7) del lanzamiento final. Es N independiente de X? Es decir, ¿saber cuál de los 4 o 7 ocurre primero afecta a la distribución del número de tiros necesarios hasta que aparezca ese número? La mayoría de la gente no encuentra la respuesta a esta pregunta para ser intuitivamente obvio. Sin embargo, supongamos que lo damos vuelta y preguntarnos si X es independiente de N. Es decir, ¿saber cuántos tiros se tarda en obtener una suma de 4 o 7 afecta a la probabilidad de que esa suma sea igual a 4? Por ejemplo, supongamos que sabemos que se necesita N tiros de los dados para obtener una suma de 4 o 7. ¿Afecta esto a la distribución de probabilidad de la suma final? Claramente no, ya que todo lo que es importante es que su valor es 4 o 7, y el hecho de que ninguno de los primeros N − 1 tiros eran 4 o 7 no cambia las probabilidades para el nTH tiro. Por lo tanto, podemos concluir que X es independiente de N, o equivalentemente, que N es independiente de X. Como otro ejemplo, deje que X1,X2,... ser una secuencia de variables aleatorias continuas independientes y distribuidas idénticamente, y Supongamos que observamos estas variables

aleatorias en secuencia. Si XN > Xme para cada me = 1...,N − 1, entonces decimos que XN es un valor de registro. Es decir, cada variable aleatoria que es mayor que todos los anteriores se denomina un valor de registro. Dejar AN denotan el evento que XN es un valor récord. Es An+1 independiente de An? Es decir, ¿sabe que el nla variable aleatoria es la mayor de las primeras N cambiar la probabilidad de que el (N + 1)la variable aleatoria St es la más grande de la primera N + 1? Si bien es cierto que An+1 es independiente de An, esto puede no ser intuitivamente obvio. Sin embargo, si damos la vuelta a la pregunta y preguntamos si AN es independiente de An+1, entonces el resultado se entiende más fácilmente. Por saber que el (N + 1)valor de St es mayor que X1,...,XN claramente no nos da ninguna información sobre el tamaño relativo de XN entre los primeros N variables aleatorias. De hecho, por simetría, está claro que cada uno de estos N las variables aleatorias es igual de probable que sea la más grande de este conjunto, eventos soindependent.P(An|An+1) = P(An) = 1/n. Por lo tanto, podemos concluir que AN Y An+1 Son.

Observación. Se deduce de la identidad P{X1 ... a1,...,XN ... an} = P{X1 ... a1}P{X2 ... a2|X1 ... a1}···P{XN ... an|X1 ... a1,...,Xn−1 ... an−1} que la independencia de X1,...,XN puede establecerse secuencialmente. Es decir, podemos demostrar que estas variables aleatorias son independientes mostrando que X2 es independiente de X1 X3 es independiente de X1,X2 X4 es independiente de X1,X2,X3 # # # XN es independiente de X1,...,Xn−1 6,3SUMAS DE VARIABLES ALEATORIAS INDEPENDIENTES A menudo es importante ser capaz de calcular la distribución de X + Y de las distribuciones de X Y Y Cuando X Y Y son independientes. Supongamos que X Y Y son variables aleatorias continuas independientes que tienen funciones de densidad de probabilidad fX Y fY. La función de distribución acumulativa de X + Y se obtiene de la siguiente manera:

FX+Y(a) = P{X + Y ... a}

= **

fX(x)fY(y)DXDY

x+y…a Q a−y

=* * fX(x)fY(y)DXDY

(3,1)

−y

=fX(x)DxfY(y)Dy −qq − q

FX(Un − y)fY(y)Dy

=* −q

La función de distribución acumulativa FX+Y se denomina Circunvolución de las distribuciones FX Y FY (las funciones de distribución acumulativas de X Y Y, respectivamente). Diferenciando la ecuación (3,1), encontramos que la función de densidad de probabilidad fX+Y De X + Y es dada por d

q

*−Q FX(Un − y)fY(y)Dy

fX+Y(a) = De

Qd

FX(Un − y)fY(y)Dy

=* −

Qq De

(3,2)

= * fX(Un −

y)fY(y)Dy −q

6.3.1 Variables aleatorias uniformes distribuidas idénticamente No es difícil determinar la función de densidad de la suma de dos uniformes independientes (0, 1) variables aleatorias. EJEMPLO 3A suma de dos variables aleatorias uniformes independientes Si X Y Y son variables aleatorias independientes, distribuidas uniformemente en (0, 1), calculan la densidad de probabilidad de X + Y. Solución. Desde la ecuación (3,2),

fX obtenemos 1

fX+Y(a)

=

*0 fX(Un − y)Dy

Para 0 ... Un ... 1, esto rinde a

fX+Y(a)

=

*0 Dy = a

f(x)

1

0

1

x

2

FIGURA 6,3: Función de densidad triangular.

Para 1 < Un < 2, nosotros consiguen fX

Un

Ahí fX+Y(a) =

⎧ 2 − a 1 < Un < 2 a 0 ... Un ... 1 ⎩ 0 Lo contrario

Debido a la forma de su función de densidad (ver figura 6,3), la variable aleatoria X + Y se dice que tiene un Triangular Distribución.

.

Ahora, supongamos que X1,X2,...,XN son uniformes independientes (0, 1) variables aleatorias, y dejar que Fn(x) = P{X1 + ... + XN ... x} Considerando que una fórmula general para Fn(x) es desordenado, tiene una forma particularmente agradable cuando X ... 1. De hecho, ahora usamos la inducción matemática para demostrar que Fn(x) = xn/n!,

0 ... X ... 1

Debido a que la ecuación de procedimiento es verdadera para N = 1, asuma que Fn−1(x) = xn−1/(N − 1)!,

0 ... X ... 1

Ahora, escribiendo n

n−1

i=1

i=1

Xn

y utilizando el hecho de que el Xme son todos no negativos, vemos en la ecuación 3,1 que, para 0 ... X ... 1

1

Fn(x)

=

Fn−1(X − y)fXn(y)Dy

*

x

(X − y)n−1 Dy

por la hipótesis de inducción

( = X /n! que completa la prueba. Para una aplicación interesante de la fórmula precedente, vamos a utilizar para determinar el número esperado de uniforme independiente (0, 1) variables aleatorias que necesitan ser sumadas para exceder 1. Es decir, con X1,X2,... siendo uniforme independiente (0, 1) variables aleatorias, queremos determinar E[N], donde N = Min{N : X1 + ... + XN > 1} Observando que N es mayor que N > 0 si y sólo si X1 + ... + XN ... 1, vemos que P{N > n} = Fn(1) = 1/n!, P{N > 0} = 1 = 1/0!

Kuz

N>0

vemos que, para N > 0 P{N = n} = P{N > N Por lo tanto q

n(n 1) E[N] = − ! nq =1

(n n=2

2)! −

=e Es decir, el número medio de uniformes independientes (0, 1) las variables aleatorias que se deben sumar para que la suma supere 1 es igual a e. 6.3.2

Variables aleatorias gamma

Recuerde que una variable aleatoria gamma tiene una densidad de la forma λe−λy(ly)t−1 f(y) =

0
(t) Una propiedad importante de esta familia de distribuciones es que, por un valor fijo de λ, se cierra bajo convoluciones. Propuesta 3,1. Si X Y Y son variables aleatorias gamma independientes con parámetros respectivos (s,L Y (t,LEntonces X + Y es una variable aleatoria gamma con parámetros (s + t,L. Prueba. Usando la ecuación (3,2), obtenemos 1 fX+Y Dy

)(t)

= Mié−λUn *

(Un − y)s−1yt−1Dy

=

y − x) −1 = Mié− s xt−1 Dx dejando x

λaas+t−1 * 1(1

a

0

= Este− laas+t−1 Donde C es una constante que no depende de a. Pero, como el precedente es una función de densidad y por lo tanto debe integrarse a 1, el valor de C se determina, y tenemos λe− la(la)s+t−1 fX+Y(a) =

(s + t)

Por lo tanto, el resultado se demuestra. Ahora es un asunto simple para establecer, mediante el uso de la Proposición 3,1 y la inducción, que si Xi,me = 1...,N son variables aleatorias gamma independientes con parámetros respectivos n

(ti,L,me = 1...,nEntonces

Xme es gamma con parámetros

.

Dejamos el

prueba de esta afirmación como un ejercicio. EJEMPLO 3B Dejar X1,X2,...,XN Ser N variables aleatorias exponenciales independientes, cada una con parámetros λ. Entonces, como una variable aleatoria exponencial con parámetro L es la misma que una variable aleatoria gamma con parámetros (1L, de la Proposición 3,1 se desprende que X1 + X2 + ··· + XN es una variable aleatoria gamma con parámetros (n,L. . Si Z1,Z2,...,ZN son variables aleatorias normales estándar independientes, Y K n

Zi2 se dice que tiene la Chi cuadrado (a veces visto como χ2) distribución con n grados de libertad. Calculemos la función de densidad de Y. Cuando n , y del ejemplo 7B del capítulo 5, vemos que su función de densidad de probabilidad es dada por

fZ Pero reconocemos lo anterior como la distribución gamma con parámetros

.

.] Pero como cada Zi2 es gamma

[Un subproducto de este análisis es que

, de la Proposición 3,1 se desprende que la χ2 distribución con N grados de la libertad es sólo la distribución gamma con parámetros función de densidad de probabilidad dada por

y por lo tanto tiene una

n/2−1

f

y>0

e−y/2yn/2−1 = y>0 Cuando N es un entero par, (n/2) = [(n/2) − 1]!, mientras que cuando N es extraño, (n/2) puede obtenerse

de

iterar

la

relación

y luego

usando el resultado obtenido previamente que

. [Por ejemplo,

En la práctica, la distribución de Chi-cuadrada a menudo surge como la distribución del cuadrado del error involucrado cuando uno intenta golpear a un objetivo en nespacio dimensional cuando se toman los errores de coordenadas para ser variables aleatorias normales estándar independientes. También es importante en el análisis estadístico. 6.3.3

Variables aleatorias normales

También podemos usar la ecuación (3,2) para probar el siguiente resultado importante sobre las variables aleatorias normales. Propuesta 3,2. Si Xi,me = 1...,n, son variables aleatorias independientes que no sonn

se distribuye con los parámetros respectivos μi,σi2,me = 1...,nEntoncesXme es normalmente n

n

μme Y

distribuido con parámetros i

σi2. =1

=1

i

Prueba de la Proposición 3,2: Para comenzar, deje que X Y Y ser variables aleatorias normales independientes con X que tiene la media 0 y la varianza σ2 Y Y que tiene la media 0 y la varianza 1. Determinaremos la función de densidad de X + Y mediante la utilización de la ecuación (3,2). Ahora, con c Tenemos fX(Un

Por lo tanto, de la ecuación (3,2), 1

a2 Cp Exp0 −2

fX+Y(a) = 2

a2 σ2 7Exp02

σ2(1 + S2) 7

Dy −

1

=

Exp0 −

a

+2

7q

{−Cx2}Dx exp 2Cp 2(1

σ2)

−q

=C Donde C no depende de a. Pero esto implica que X + Y es normal con la media 0 y la varianza 1 + S2. Ahora, supongamos que X1 Y X2 son variables aleatorias normales independientes con Xme tener la media μme y la varianza σi2,me = 1, 2. entonces

X Pero desde (X1 − m1)/S2 es normal con la media 0 y la varianza

σ 2/s 1

2

2Y

(X2 − m2)/S2 es

normal con la media 0 y la varianza 1, se deduce de nuestro resultado anterior que (X1 − m1)/S2 + (X2 − m2)/S2 es normal con la media 0 y la varianza 1

, implicando que X1

+ X2 es normal con la media μ1 + M2 y la varianza

.

Por lo tanto, la Proposición 3,2 se establece cuando N = 2. el caso general sigue ahora por inducción. Es decir, supongamos que la Proposición 3,2 es verdadera cuando hay N − 1 variables aleatorias. Ahora considere el caso de ny escriba n

n−1

Xn

Por la hipótesis de la inducción,

Xme es normal con la media i=1

Por lo tanto, por el resultado de N = 2 N

n

me y

i=1

Xme es normal con la media

la varianza

σi2.

i=1

n me y

la varianza

σi2.

EJEMPLO 3C Un equipo de baloncesto jugará una temporada de 44 juegos. Veintiséis de estos juegos están contra equipos de la clase a y 18 están contra los equipos de la clase B. Supongamos que el equipo ganará cada partido contra un equipo de clase A con probabilidad 4 y ganará cada partido contra un equipo de clase B con probabilidad. 7. Supongamos también que los resultados de los diferentes juegos son independientes. Aproxime la probabilidad de que (a) el equipo gana 25 juegos o más; (b) el equipo gana más partidos contra los equipos de la clase A que contra la clase Bteams. Solución. (a) deje XUn Y XB respectivamente, denotan el número de partidas que gana el equipo contra la clase A y contra los equipos de la clase B. Tenga en cuenta que XUn Y XB son independientes variables aleatorias binomiales y

E[XA] = 26(.4) = 10.4 Fue(XA) = 26(.4)(.6) = 6.24 E[XB] = 18(.7) = 12.6 Fue(XB) = 18(.7)(.3) = 3.78

Por la aproximación normal al binomio, XUn Y XB tendrá aproximadamente la misma distribución que las variables aleatorias normales independientes con los valores esperados anteriores y varianzas. Por lo tanto, por la Proposición 3,2, XUn + XB tendrá aproximadamente una distribución normal con la media de 23 y la varianza 10,02. Por lo tanto, dejar Z denotan una variable aleatoria normal estándar, tenemos P{XUn + XB Efectos 25} = P{XUn + XB Efectos 24.5} XA

XB

23

10 02

24 5

23

10 02

=P

LP L 1 − P{Z < .4739} L.3178 b) observamos que XUn − XB tendrá aproximadamente una distribución normal con la media −2,2 y varianza 10,02. Ahí P{XUn − XB Efectos 1} = P{XUn − XB Efectos.5}

=P

L

P0Z Efectos L 1 − P{Z < .8530} L.1968 Por lo tanto, hay aproximadamente un 31,78 por ciento de probabilidades de que el equipo gane al menos 25 partidos y aproximadamente un 19,68 por ciento de probabilidades de que ganará más partidos contra los equipos de la clase A que contra los equipos de la clase B. . La variable aleatoria Y se dice que es un Lognormal variable aleatoria con parámetros M Y P Si el registro (Y) es una variable aleatoria normal con M y la varianza σ2. Es decir Y es lognormal si se puede expresar como Y = eX Donde X es una variable aleatoria normal.

EJEMPLO 3D A partir de un tiempo fijo, deje que S(n) denotan el precio de una cierta seguridad al final de N semanas adicionales, N Efectos 1. un modelo popular para la evolución de estos precios asume que las proporciones de precios S(n)/S(N − 1),N Efectos 1, son variables aleatorias lognormal independientes y distribuidas idénticamente. Suponiendo este modelo, con parámetros m =.0165,s =.0730, ¿cuál es la probabilidad de que a) el precio de los aumentos de seguridad durante cada una de las dos próximas semanas? b) el precio al final de dos semanas es mayor que el actual? Solución. Dejar Z ser una variable aleatoria normal estándar. Para resolver la parte (a), usamos el hecho de que el registro(x) aumentos en X para concluir que X > 1 si y sólo si el registro(x) > Registro(1) = 0. Como resultado, hemos

P = .5894 En otras palabras, la probabilidad de que el precio se levanta después de una semana es. 5894. Dado que las proporciones de precios sucesivas son independientes, la probabilidad de que el precio aumente en cada una de las próximas dos semanas es (.5894)2 = .3474. para resolver la parte (b), razonamos como sigue: P

=P Sin embargo, el registro , siendo la suma de dos variables aleatorias normales independientes con una media común. 0165 y una desviación estándar común. 0730, es una variable aleatoria normal con media. 0330 y varianza 2(.0730)2. Por consiguiente

P = .6254

.

6.3.4

Variables aleatorias de Poisson y binomial

En lugar de intentar derivar una expresión general para la distribución de X + Y en el caso discreto, consideraremos algunos ejemplos. EJEMPLO 3e sumas de variables aleatorias de Poisson independientes Si X Y Y son variables aleatorias de Poisson independientes con parámetros respectivos λ1 Y λ2, calcule la distribución de X + Y. Solución. Debido a que el evento {X + Y = n} puede ser escrito como la Unión de los eventos disconjuntos {X = k,Y = N − k}, 0 ... K ... nTenemos n

N − k}

P k=0

N

N

− k} k=0

λn2−k λ1 e− l k! (N − k)! N e− l1 k

2

k=0 n

λkλn−k

= Y− ! k=0

n!

k!(Nn−!

k)!λk1λn2−K a=0 e− (l1+ L2) =

n

(l1 + L2) n!

Así X1 + X2 tiene una distribución de Poisson con parámetros λ1 + L2. EJEMPLO 3F sumas de variables aleatorias binomiales independientes

.

Dejar X Y Y ser variables aleatorias binomiales independientes con parámetros respectivos (n, pym, p). Calcule la distribución de X + Y. Solución. Recordando la interpretación de una variable aleatoria binomial, y sin ningún cálculo en absoluto, podemos concluir inmediatamente que X + Y es binomial con parámetros (N + m,p). Esto sigue porque X representa el número de éxitos en N ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p; Semejantemente Y representa el número de éxitos en M ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p. Por lo tanto, dado que X Y Y se asume independiente, se deduce que X + Y representa el número de éxitos en N + M pruebas independientes cuando cada ensayo tiene una probabilidad P de resultar en un éxito. Por lo tanto X + Y es una variable aleatoria binomial con parámetros (N + m,p). Para comprobar esta conclusión analíticamente, tenga en cuenta que n

=P{X = i,Y = K − i}

P{X + Y = k}

i=0 n

me} i=0

Pk−iqm−k+i Donde Q = 1 − P y donde

0 cuando J < 0. por lo tanto, n

P i=0

y la conclusión sigue a la aplicación de la identidad combinatoria

. 6.3.5

Variables aleatorias geométricas

Dejar X1,...,XN ser variables aleatorias geométricas independientes, con Xme teniendo parámetro pme Para me = 1...,n. Estamos interesados en computar la función de la masa de la probabilidad de su suma SN ni=1 Xi. Para una solicitud, considere N monedas, con monedas me tener probabilidad pme de subir cabezas cuando volteado, me = 1...,n. Supongamos que la moneda 1 se volteó hasta que aparezca la cabeza, en cuyo punto

la moneda 2 se volteó hasta que muestra las cabezas, y luego la moneda 3 se volteó hasta que muestra las cabezas, y así sucesivamente. Si dejamos que Xme denotan el número de volteretas hechas con monedas iEntonces X1,X2,...,XN será aleatorio geométrico independiente el número total de volteretas. Si todos los lasvariables con los parámetros respectivospme son iguales — digamos, todosp1,p2,...,pnYPsme n= p, a continuación,in=1 XSme nrepresentarátiene el mismo distribución como el número de volteretas de una moneda que tiene probabilidad P de subir cabezas que son necesarias para obtener un total de N cabezas, y así SN es una variable aleatoria binomial negativa con función de masa de probabilidad n

P{SN = k} =

, K Efectos n

Como preludio para determinar la función de masa de probabilidad de SN Cuando el pme son todos distintos, consideremos primero el caso N = 2. Dejar qJ = 1 − pj, J = 1, 2, obtenemos

P{X1 = j,X2 = K − j}

P j=1

P{X1 = j}P{X2 = K − j}

=

(por la independencia)

j=1 j=1 k 2

k 1

1

1 p 1 p 2 q k2 1 q2 q1 p 2 q k2

1

p1

p1

q1 q2 q1 q2 p1p 2q1 q2 q1

p2

p 1 q k1

= p1p2q2 k−1

p2

1

p2

p1

Si ahora dejamos N = 3 y computar P{S3 = k} empezando por la identidad k−1

k−1

P

J,X3 = K

j=1

j=1

y luego sustituir la fórmula derivada para la función de masa de S2, nos gustaría obtener, después de algunos cálculos,

P{S3 = k} = p1qk1−1 p2 p−2 p1 p3 p−3 p1 + k 3q3

+p

1

p1

p2

p1 − p3 p2 − p3 p2qk2−1 p 1 p−1 p2 p3 p−3 p2 Las funciones masivas de S2 Y S3 que conducen a la siguiente conjetura para la función de masa de Sn. Propuesta 3,3. Dejar X1,...,XN ser variables aleatorias geométricas independientes, con Xme teniendo parámetro pme Para me = 1...,n. Si todos los pme son distintos, entonces, para K Efectos n, n

pj −

P{SN = k} = pj

pi

Prueba de la Proposición 3,3: Demostraremos esta proposición por inducción sobre el valor de N + k. Porque la proposición es verdadera cuando N = 2K = 2, tomar como la hipótesis de inducción que es cierto para cualquier K Efectos N para los que N + K ... r. Ahora, supongamos K Efectos N Son tal que N + K = R + 1. para calcular P{SN = k}, condicionamos si XN = 1. Esto da P{SN = k} = P{SN = k|XN = 1}P{XN = 1} + P{SN = k|XN > 1}P{XN > 1} = P{SN = k|XN = 1}pN + P{SN = k|XN > 1}qn Nwo P{SN = k|XN = 1} = P{Sn−1 = K − 1|XN = 1} = P{Sn−1 = K − 1} (por la independencia) pj

n−1

(por la hipótesis de inducción) p i=1

iZj…n−1

J



pi

Ahora, si X es geométrica con parámetro p, entonces la distribución condicional de X Dado que es mayor que 1 es el mismo que la distribución de 1 (el primer ensayo fallido) más un geométrico con parámetro P (el número de ensayos adicionales después de la primera hasta que se produzca un éxito). Por consiguiente P{SN = k|XN > 1} = P{X1 + ... + Xn−1 + XN + 1 = k} = P{SN = K − 1} n

pj

J

iZj…N p

i=1



pi

donde la igualdad final se desprende de la hipótesis de inducción. Así, de lo anterior, obtenemos pj

n pj

P{SN = k} = pn iZj…n−1 pJ − pEn pJ − pi

i=1

pj

n−1



= pn i=1

pj

n−1



iZj…n−1 pj

pEn pj

pi

kpj



+ qnpnqn pj pN J
qn

n−1

pj

kpj

) i=1

pN − pi

pnqn iZj…n−1 pJ − pi

j
Sección 6,4

Distribuciones condicionales: caso discreto

Ahora, usando ese 1+−

− + − qN pN pme qN qi pn

pipn

pi

el precedente da

{

=}

k−1

− pj

= n−1

P Sn

pj

+

Kpnqn iZj…N p

i=1

J



pi

j
pn

n

pj i=1

J−

jZi

i

y la prueba por inducción es completa.

. p

p

6,4DISTRIBUCIONES CONDICIONALES: CASO DISCRETO Recordemos que, para dos eventos Y Y F, la probabilidad condicional de Y Dado F se define, siempre que P(F) > 0, por P(Si) P(E|F) = P(F) Por lo tanto, si X Y Y son variables aleatorias discretas, es natural definir la función de masa de probabilidad condicional de X Dado que Y = yPor pX|Y(x P =

x,Y

y

{ P={Y = y=} }

pY(y) para todos los valores de y tal que pY(y) > 0. de forma similar, la función de distribución de probabilidad condicional de X Dado que Y = y se define, para todos y tal que pY(y) > 0, por FX|Y(x|y) = P{X ... x|Y = y}

a…x

En otras palabras, las definiciones son exactamente las mismas que en el caso incondicional, excepto que todo está ahora condicionado al evento que Y = y. Si X es independiente de Y, la función de masa condicional y la función de distribución son las mismos que los respectivos incondicionales. Esto sigue porque si X es independiente de YEntonces pX|Y(x|y) = P{X = x|Y = y} = P{X = x,Y = y} P Y y P X x P Y P Y y

y

= P{X = x} EJEMPLO 4A Supongamos que p(x,y), la función de masa de probabilidad conjunta de X Y Y, es dada por p(0, 0) = .4

p(0, 1) = .2

p(1, 0) = .1

p(1, 1) = .3

Calcule la función de masa de probabilidad condicional de X Dado que Y = 1. Solución. Primero observamos que pY x

Ahí p(0, 1) pX|Y(0|1) = pY(1) = 5

2

Y p(1, 1)

3 pX|Y(1|1) = pY(1) = 5

.

EJEMPLO 4B Si X Y Y son variables aleatorias de Poisson independientes con parámetros respectivos λ1 Y λ2, calcule la distribución condicional de X Dado que X + Y = n. Solución.Y = N como sigue: calculamos la función de la masa de la probabilidad condicional de X Dado que X +

P{X = k|X + Y = n} = P{Xp={Xk,+Xy+=En=} n} P

= {XP{=Xk+,YY==N n− k} P = {XP={Xk}P+{YY==nn} − k} donde la última igualdad se desprende de la supuesta independencia de X Y Y. Recordando (ejemplo 3e) que X + Y tiene una distribución de Poisson con parámetros λ1 + L2, vemos que lo anterior es igual a e

P{X = k|X + Y = n} =

k! !

k

(N − k)! k! (l1 +

L2)n

n−k

En otras palabras, la distribución condicional de X Dado que X + Y = N es la distribución binomial con parámetros N Y λ1/(L1 + λ2). . También podemos hablar de distribuciones condicionales conjuntas, como se indica en los siguientes dos ejemplos. Sección 6,4

Distribuciones condicionales: caso discreto

EJEMPLO 4C Considerar la distribución multinomial con función de masa de probabilidad conjunta k

n! }= P{Xme = ni,me = 1...,k n

n1

Nk

1!···nk!p1 ···pK ,

nme Efectos 0 nme = n i=1

Esta función masiva resulta cuando N se realizan ensayos independientes, con cada ensayo que resulte en me con probabilidad pi, 1. las variables aleatorias Xi, me = 1...,k, representan, respectivamente, el número de ensayos que dan como resultado i, me = 1...,k. Supongamos que se nos da que nJ de los ensayos resultó en un resultado jPara J = R + 1...,kDonde M ... n. Entonces, porque cada uno de los otros N − M los ensayos deben haber dado lugar a uno de los ensayos 1,...,r, parecería que la distribución condicional de X1,...,XR es la distribución multinomial en N − M ensayos con las probabilidades de resultados del ensayo respectivas

pi P{Resultado i|resultado no es ninguno de R + 1...,k} = where1,...,r.FR resultados

r

i=1

, me = 1...,r Fr

pme es la probabilidad de que un ensayo resulte en uno de los

Solución. Para verificar esta intuición, deje que n1,...,nr, sea tal que Entonces

M.

P{X1 = n1,...,XR = nr|Xr+1 = nr+1,...XK = nk} =

P{X1 = n1,...,XK = nk}

P{X1 r+!n 1 = nn1r···+1,...X n = nkp}Nkk n K p r r p r r 11 n nk p n m nr 1 n! pr 1 n m!···!n r ! 1 !1 n k ! Fr

n

pk k donde se obtuvo la probabilidad en el denominador con respecto a los resultados 1,...,R como un único resultado con probabilidad Fr, demostrando así que la probabilidad es una probabilidad multinomial en N ensayos con probabilidades de resultado Fr,pr+1,...,pk. Kuz M, el precedente puede escribirse como P{X1 = n1,...,XR = nr|Xr+1 = nr+1,...XK = nk} = (N − m)! p1 n1

pR N n1!···nr!

FR ··· Fr ( y se confirma nuestra intuición.

)

(

)r .

EJEMPLO 4D Considerar N ensayos independientes, siendo cada ensayo un éxito con probabilidad p. Dado un total de K éxitos, demuestran que todos los posibles ordenamientos K éxitos y N − K los fallos son igualmente probables. Solución. Queremos mostrar que, dado un total de K éxitos, cada uno de los posibles ordenamientos de K éxitos y N − K las fallas es igualmente probable. Dejar X denotan el número de éxitos, y considerar cualquier orden de K éxitos y N − K fallas, digamos, Lla = (s,s,f,f,...,f). Entonces P(o,X

k) P(X k)

P(o|X = k) =

== P o P(X = k) pk(1 − n p)n−k k k p 1

p

n

1

k

n k

. 6,5 DISTRIBUCIONES CONDICIONALES: CASO CONTINUO Si X Y Y tienen una función de densidad de probabilidad conjunta f(x,y), entonces la función de densidad de probabilidad condicional de X Dado que Y = y se define, para todos los valores de y tal que fY(y) > 0, por fX|Y(x|y) =

f(x,y) fY(y)

Para motivar esta definición, multiplique la parte izquierda Dx y el lado derecho por (DXDY)/Dy para obtener f(x,y)DXDY fX|Y(x|y)Dx =

fY(y)Dy

L P{X ... X ... X + Dx,y ... Y ... y + Dy} P{y ... Y ... y + Dy} = P{X ... X ... X + Dx|y ... Y ... y + Dy} En otras palabras, para valores pequeños de Dx Y Dy,fX|Y(x|y)Dx representa la probabilidad condicional de que X está entre X Y X + Dx Dado que Y está entre y Y y + Dy. El uso de densidades condicionales nos permite definir probabilidades condicionales de eventos asociados a una variable aleatoria cuando se nos da el valor de una segunda variable aleatoria. Es decir, si X Y Y son conjuntamente continuos, entonces, para cualquier conjunto A,

P{X ∈ A|Y = y} = * fX|Y(x|y)Dx A

En particular, dejando Un = (− q,a], podemos definir la función de distribución acumulativa condicional de X Dado que Y = y Por FX|Y(a|y) K P{X ... a|Y = y} = *−Q fX|Y(x|y)Dx a El lector debe notar que, mediante el uso de las ideas presentadas en el debate anterior, hemos sido capaces de dar expresiones viables para probabilidades condicionales, a pesar

de que el evento en el que estamos condicionados (es decir, el evento {Y = y}) tiene probabilidad 0. EJEMPLO 5A La densidad articular de X Y Y es dada por =125 x(2 − X − y)

0 < X < 1, 0 < y < 1

f(x,y) 0

Lo contrario

Calcule la densidad condicional de X Dado que Y = y, donde 0 < y < 1. Sección 6,5

Distribuciones condicionales: caso continuo

Solución. Para 0 < X < 1, 0 < y < 1, tenemos f(x,y) fX|Y(x|y) = F (y) Y

f(x,y) == qQ f(x−,y)Dx− −

x(2

x

y) − − y)DX

=x(2 x y) y/2 = 6x(2 − X − y) 4 − 3y

.

EJEMPLO 5B Supongamos que la densidad de la articulación de X Y Y es dada por ⎧

e−x/ye−y q, 0 < y < q

f

Encontrar P{X > 1|Y = y}. Solución. Primero obtenemos la densidad condicional de X Dado que Y = y. f(x,y)

fX

Y

xy

fY y e e y 0 1 xy e y

x y

e y y 1 y e x/y Dx

Ahí P{X > 1|Y = y} = * Q 1 e−x/y Dx 1

y q

e =−

6

= e−1/y

.

Si X Y Y son variables aleatorias continuas independientes, la densidad condicional de X Dado que Y = y es sólo la densidad incondicional de X. Esto es así porque, en el caso independiente, f(x,y) fX|Y(x|y) = fY(y) =

fX(x)fY(y) fY(y)

= fX(x)

También podemos hablar de distribuciones condicionales cuando las variables aleatorias no son ni continuas ni discretas conjuntamente. Por ejemplo, supongamos que X es una variable aleatoria continua que tiene la función de densidad de probabilidad F Y N es una variable aleatoria discreta, y considerar la distribución condicional de X Dado que N = n. Entonces P{X < X < X + Dx|N = n} Dx = P{N = n|X < X < X + Dx} P{X < X < X + Dx} P{N = n}

Dx

y dejando Dx enfoque 0 da

Lim Dx

→0

Px<X<x

DX N

{

+

|f(x) P{N = n}

Dx

lo que demuestra que la densidad condicional de X Dado que N = N es dada por PN fX|N(x|n) =

NX

x

{ P={N =| n=} }f(x)

EJEMPLO 5C la distribución normal bivariate Una de las distribuciones conjuntas más importantes es la distribución normal bivariada. Decimos que las variables aleatorias X,Y tienen una distribución normal bivariada si, para las constantes μx,μy,σX > 0 σy > 0 −1 < R < 1, su función de la densidad común se da, para todos − q < x,y < qPor

f Ahora determinamos la densidad condicional de X Dado que Y = y. Al hacerlo, recopilaremos continuamente todos los factores que no dependen de X y representarlos por el tenemos

-

Constantes Ci. La constante final se encontrará entonces usando ese f(x,y) fX|Y(x|y) = fY(y)

Reconociendo la ecuación precedente como una densidad normal, podemos concluir que, dado Y = y, la variable aleatoria X normalmente se distribuye con la media y la varianza σx2(1 − r2). También, porque la densidad de la articulación de Y,X es exactamente el mismo que el de X,Y, excepto que μx,σX se intercambien con μy,σy, de igual manera sigue que Sección 6,5

Distribuciones condicionales: caso continuo

la distribución condicional de Y Dado X = X es la distribución normal con la media y la varianza σy2(1 − r2). De estos resultados se desprende que la

condición necesaria y suficiente para las variables aleatorias normales bivariadas X Y Y ser independiente es que R = 0 (un resultado que también sigue directamente de su densidad de Unión, porque es sólo cuando R = 0 que los factores de densidad de la articulación en dos términos, uno que depende sólo de X y el otro sólo en y). Con C =

xy



1

2CP S

, la densidad marginal de X puede obtenerse de

2

1− R q

fX(x) = *

f(x,y)Dy −q



=C

Dy Realizar el cambio de variables En = y−σyμy Da

fX(x) = Cσy

Dw

= Cσy

Dw Kuz

.

Dw = 1

vemos que

fX √2Cpx

Es decir X es normal con la media μX y la varianza σx2. Semejantemente Y es normal con la media μy y la varianza σy2. . EJEMPLO 5D Considerar N + M probabilidades comunes de éxito. Supongamos, sin embargo, que esta probabilidad de éxito no se fija por adelantado, sino que se elige a partir de una población uniforme (0,1). ¿Cuál es la distribución condicional de la probabilidad de éxito dado que el N + M los ensayos resultan en N ¿Éxitos?

Solución. Si dejamos que X denotan la probabilidad de que un ensayo dado sea un éxito, X es una variable aleatoria uniforme (0,1). Además, dado que X = xLla N + M los ensayos son independientes con la probabilidad común de éxito xAsí N, el número de éxitos, es una variable aleatoria binomial con parámetros (N + m,x). Por lo tanto, la densidad condicional de X Dado que N = N Es

fX|N(x m

= PN = Cxn(1 − x)m

{

=}0<X<1

n

Donde C no depende de x. Por lo tanto, la densidad condicional es la de una variable aleatoria beta con parámetros N + 1M + 1. El resultado anterior es bastante interesante, ya que indica que si el original o Antes (a la recolección de datos) la distribución de una probabilidad de éxito del ensayo se distribuye uniformemente sobre (0,1) [o, equivalentemente, es beta con parámetros (1, 1)] y luego la distribución posterior (o condicional) dada un total de N éxitos en N + M ensayos es beta con parámetros (1 + n, 1 + m). Esto es valioso, ya que mejora nuestra intuición en cuanto a lo que significa asumir que una variable aleatoria tiene una distribución beta. . ∗6,6ESTADÍSTICAS

DE PEDIDOS Dejar X1,X2,...,XN Ser N variables aleatorias continuas independientes y distribuidas idénticamente con una densidad común F y la función de distribución F. Definir X(1) = más pequeño de X1, X2, ..., Xn X(2) = segundo más pequeño de X1, X2, ..., Xn #

# # X(j) = jTH más pequeño de X1, X2, ..., Xn # # # X(n) = más grande de X1, X2, ..., Xn

Los valores ordenados X(1) ... X(2)

...

··· ... X(n) se conocen como el estadísticas de pedidos

correspondientes a las variables aleatorias X1,X2,...,Xn. En otras palabras, X(1),...,X(n) son los valores ordenados de X1,...,Xn. La función de densidad conjunta de las estadísticas de orden se obtiene señalando que las ... estadísticas de orden X(1),...,X(n) tomará en los valores x1 ... x2 ··· ... xN Si y sólo si, para alguna permutación (i1,i2,...,in) De (1, 2,...,n), X1 = xi1,X2 = xi2,...,XN = xin Sección 6,6

Estadísticas de pedidos

Ya que, para cualquier permutación (i1,...,in) De (1, 2,...,n),

P

,xEn

XN

L EnfX1,··· ,Xn(xi1,...,xin) = Enf(xi1)···f(xEn) = Enf(x1)···f(xn) se deduce que, para x1 < x2 < ··· < xn,

P

,xN L n! εnf(x1)···f(xn)

Dividiendo por εN y dejando ε→0 rendimientos

fX(1),...,X(n)(x1,x2,...,xn) = n!f(x1)···f(xn)

x1 < x2 < ··· < xn

(6,1)

La ecuación (6,1) se explica más sencillamente argumentando que, para que el vector a igual , es necesario y suficiente para Para

igual a uno de los n! permutaciones de . Dado que la probabilidad (densidad) que es igual a cualquier permutación dada de es sólo f(x1)···f(xn)Justo ción (6,1). EJEMPLO 6A A lo largo de una carretera de 1 milla de largo son 3 personas "distribuidos al azar." Encontrar la probabilidad de que no 2 personas son menos de una distancia de D millas de distancia cuando D ... . Solución. Supongamos que "distribuidos al azar" significa que las posiciones de las 3 personas son independientes y distribuidas uniformemente por el camino. Si Xme indica la posición de la ipersona, entonces la probabilidad deseada es P{X(i) > X(i−1) + d,me = 2, 3}. Kuz

fX(1),X(2),X(3)(x1,x2,x3) = 3!

0 < x1 < x2 < x3 < 1

se deduce que

P{X(i) > X(i−1) + d,me = 2, 3

}=

* * *xi>xj−1+D fX(1),X(2),X(3)(x1,x2,x3)Dx1 Dx2 Dx3

1

= 3!Dx3 Dx2 Dx1 D

x2)Dx2 Dx1 1−2d = 6*

* 0

1−2d−x1

y2 Dy2 Dx1 0

donde hemos hecho el cambio de variables y2 = 1 − D − x2. Continuando con la cadena de ecualidades produce

=

3* 1−2d(1 − 2D − x1)2 Dx1 0 1−2d

= 3*

y 0

= (1 − 2d)3

Por lo tanto, la probabilidad deseada de que no 2 personas están a una distancia D el uno del otro cuando 3 personas se distribuyen uniformemente e independientemente en un intervalo de tamaño 1 es (1 − 2d)3 Cuando D ... . De hecho, el mismo método se puede utilizar para demostrar que cuando N la gente se distribuye al azar sobre el intervalo de la unidad, la probabilidad deseada es [1 −N − 1)d]n

Cuando D



1



n

1 La prueba se deja como un ejercicio.

.

La función de densidad del jestadístico de orden-ésimo X(j) puede obtenerse mediante la integración de la función de densidad de la articulación (6,1) o por razonamiento directo como sigue: para X(j) a igual x, es necesario para J − 1 del N Valores X1,...,XN a ser menor que x,N − J de ellos para ser mayor que x, y 1 de ellos a igual x. Ahora, la densidad de probabilidad que cualquier conjunto dado de J − 1 del Xison menos de x, otro conjunto dado de N − J son mayores que x, y el valor restante es igual a X Iguales [F(x)]j−1[1 − F(x)]n−jf(x) Por lo tanto, ya que hay ! J − 1)! diferentes particiones de la N variables aleatorias X1,...,XN en los tres grupos precedentes, se deduce que la función de densidad de X(j) es dada por

(j)

=



n!

j 1 − [1



F(x)]n−jf(x)

(6,2)

fX (x)

[F(x)] (n

j)!(J − 1)!

EJEMPLO 6B Cuando una muestra de 2N + 1 variables aleatorias (es decir, cuando 2N + se observan 1 variables aleatorias independientes e idénticamente distribuidas), (N + 1)St más pequeño se

llama el mediana de la muestra. Si se observa una muestra de tamaño 3 de una distribución uniforme sobre (0,1), encontrar la probabilidad de que la mediana de la muestra esté entre Y . Solución. De la ecuación (6,2), la densidad de X(2) es dada por

fX

0<X<1 Sección 6,6

Estadísticas de pedidos

Ahí

X(1 − x)Dx

P

x=1/4

.

La función de distribución acumulativa de X(j) se puede encontrar mediante la integración de la ecuación (6,2). Es decir

FX(j)(y)

=

n!

* y [F(x)]j−1[1 − F(x)]n−jf(x)Dx (6,3) (N − j)!(J −

1)! − q Sin embargo FX(j)(y) también podrían haberse derivado directamente señalando que el jestadístico de orden es menor o igual que y Si y sólo si hay J o más de la Xison menores o iguales que y. Por lo tanto, porque el número de Xison menores o iguales que y es una variable aleatoria binomial con parámetros n,P = F(y), se deduce que FX(j)(y) = P{X(j) ... y} = P{J o más de la Xison ... y} n

[F(y)]k[1 − F(y)]n−k

(6,4)

k=j

Si, en ecuaciones (6,3) y (6,4), tomamos F ser la distribución uniforme (0,1) [es decir, f(x) = 1, 0 < X < 1], obtenemos la interesante identidad analítica

!

x − (1 − x)n−J Dx

y j 1

0 ... y ... 1 (6,5)

kj

Empleando el mismo tipo de argumento que usamos para establecer Ecuación (6,2), podemos demostrar que la función de densidad conjunta de las estadísticas de la orden X(i) Y X(j) Cuando me < J Es

= ()()

− − n! i−1 [F(xi)]

(6,6) (i

1)!(j

fX

me

,X

J

(xi,xj)

me − 1)!(N − j)!

* [F(xj) − F(xi)]j−i−1[1 − F(xj)]n−jf(xi)f(xj) para todos xme < xj. EJEMPLO 6C distribución del rango de una muestra aleatoria Supongamos que N variables aleatorias independientes y distribuidas idénticamente R X1,X2,..., XN se observan. La variable aleatoria R definida por = X(n) − X(1) se denomina Gama de las variables aleatorias observadas. Si las variables aleatorias Xme tienen función de distribución F y la función de la densidad f, entonces la distribución de R puede obtenerse de la ecuación (6,6) de la siguiente manera: para Un Efectos 0 P{R ... a} = P{X(n) − X(1) ... a}

=

* * fX(1),X(n)(x1,xn)Dx1 Dxn xn−X

…a

f(x1)f(xn)DxN Dx1 Hacer el cambio de variable y = F(xn) − F(x1),Dy = f(xn)DxN Rendimientos

F(x1+a) −F(x1) yn−2Dy

Así q

P{R ... a} = n* [F(x1 + a) − F(x1)]n−1f(x1)Dx1

(6,7) − q

La ecuación (6,7) se puede evaluar explícitamente sólo en algunos casos especiales. Uno de estos casos es cuando el Xiestán distribuidos uniformemente en (0,1). En este caso obtenemos, de Ecuación (6,7), que para 0 < Un < 1 1

P{R < a} = n* [F(x1 + a) − F(x1)]n−1f(x1)Dx1 0

= * 1−A n−1 Dx1 + n* 1 (1 − x1)n−1 Dx1 n

a

1−a

0

1 = n( − a)an−1 + an La diferenciación produce la función de densidad de la gama: dada en este caso por 1)an−2(1

n(n −

fR(a) = 0 0

a)

0 ... Un ... 1

− Lo contrario

Es decir, el rango de N el uniforme independiente (0,1) las variables aleatorias es una variable aleatoria beta con parámetros N − 1, 2. .

6,7 DISTRIBUCIÓN DE PROBABILIDADES CONJUNTAS DE FUNCIONES DE VARIABLES ALEATORIAS Dejar X1 Y X2 ser conjuntamente variables aleatorias continuas con función de densidad de probabilidad conjunta fX1,X2. A veces es necesario obtener la distribución conjunta de las variables aleatorias Y1 Y Y2, que surgen como funciones de X1 Y X2. En concreto, supongamos que Y1 = g1(X1,X2) Y Y2 = g2(X1,X2) para algunas funciones g1 Y g2. Supongamos que las funciones g1 Y g2 satisfacer las siguientes condiciones: 1. Las ecuaciones y1 = g1(x1,x2) Y y2 = g2(x1,x2) puede resolverse de forma única x1 Y x2 en términos de y1 Y y2, con soluciones dadas por, digamos, x1 = h1(y1,y2),x2 = h2(y1, y2). 2. Las funciones g1 Y g2 tienen derivados parciales continuos en todos los puntos (x1,x2) y son tales que los 2 * 2 determinante

J(x1 1

2

6

6

en todos los puntos (x1,x2). En estas dos condiciones, se puede demostrar que las variables aleatorias Y1 Y Y2 son conjuntamente continuos con la función de la densidad común dada por fY1Y2(y1,y2) = fX1,X2(x1,x2)|J(x1,x2)|−1

(7,1)

Donde x1 = h1(y1, y2), x2 = h2(y1,y2). Una prueba de la ecuación (7,1) procedería a lo largo de las siguientes líneas:

P{Y1 ... y1,Y2 ... y2} =

**

fX1,X2(x1,x2)Dx1 Dx2

(7,2)

(x1,x2) : ) g1(x1,x2 ... y1 ) g2(x1,x2 ... y2

La función de densidad de la articulación puede obtenerse ahora diferenciando la ecuación (7,2) con respecto a y1 Y y2. Que el resultado de esta diferenciación será igual al lado derecho de la ecuación (7,1) es un ejercicio en cálculo avanzado cuya prueba no se presentará en este libro. EJEMPLO 7A Dejar X1 Y X2 ser conjuntamente variables aleatorias continuas con la función de densidad de probabilidad fX1,X2. Dejar Y1 = X1 + X2,Y2 = X1 − X2. Encuentre la función de densidad conjunta de Y1 Y Y2 en términos de fX1,X2. Solución. Dejar g1(x1,x2) = x1 + x2 Y g2(x1,x2) = x1 − x2. Entonces

J6

6

Además, ya que las ecuaciones y1 = x1 + x2 Y y2 = x1 − x2 Hve x1 = (y1 + y2)/2 x2 = (y1 − y2)/2 como su solución, se deduce de la ecuación (7,1) que la densidad deseada es

fY Por ejemplo, si X1 Y X2 son variables aleatorias uniformes independientes (0,1), =12 0 ... y1 + y2 ... 2,0 ... y1 − y2 ... 2 fY1,Y2(y1,y2) 0 Lo contrario o si X1 Y X2 son variables aleatorias exponenciales independientes con parámetros respectivos

λ1

Y

λ2Entonces

R

fY

Y

X

FIGURA 6,4: • = Punto aleatorio. (X,Y) = (R, i).

Por último, si X1 Y X2 son variables aleatorias normales estándar independientes,

fY1,Y2 Por lo tanto, no sólo obtenemos (de acuerdo con la Proposición 3,2) que X1 + X2 Y X1 − X2 son normales con la media 0 y la varianza 2, pero también concluimos que estos dos

aleatorios las variables son independientes. (De hecho, se puede demostrar que si X1 Y X2 son variables aleatorias independientes que tienen una función de distribución común FEntonces X1 + X2 será independiente de X1 − X2 Si y sólo si F es una función de distribución normal.) . EJEMPLO 7B VamosX, Y) denotan un punto aleatorio en el plano y asumen que las coordenadas rectangulares X Y Y son variables aleatorias normales estándar independientes. Estamos interesados en la distribución conjunta de R, Θ, la representación de coordenadas polares de (x, y). (Consulte la figura 6,4.) Supongamos primero que X Y Y son ambos positivos. Para X Y y positivo, dejando R = g1(x,y) = .x2 + y2 Y i = g2(x,y) = tan−1 y/x, vemos que

y + y2

Ahí x, y 1

x x2

y y2 3 2

x2

y2 3 2

x2

y2

2 2

1 r

J Debido a que la función de densidad de la articulación condicional X, Y Dado que ambos son positivos es

f(x,y

, X > 0y > 0

tan−1(Y/X), dado que X Y Y son positivas, es = . + = vemos que la función de densidad de la articulación condicional de R X2 Y2 Y f Del mismo modo, podemos demostrar que

q

, P2 < Θ < PI, 0 < R < q f

r2/2

f

Q f Q

Como la densidad de la articulación es un promedio igualmente ponderado de estas 4 densidades de articulación condicional, obtenemos que la densidad articular de R,Me es dada por 0 < Θ < 2π,

f

0
Ahora, estos factores de densidad conjunta en las densidades marginales para R Y ΘAsí R Y Me son variables aleatorias independientes, con Me uniformemente distribuidos sobre (0, 2P Y R con la distribución de Rayleigh con densidad f(r) = re−r2/2

0
(Por ejemplo, cuando uno apunta a un objetivo en el plano, si las distancias de falta horizontales y verticales son normales estándar independientes, entonces el valor absoluto del error tiene la distribución anterior de Rayleigh). Este resultado es bastante interesante, pues ciertamente no es evidente a priori que un vector aleatorio cuyas coordenadas son variables aleatorias normales estándar independientes tendrá un ángulo de orientación que no sólo se distribuye uniformemente, sino que también es independiente de la distancia del vector del origen. Si quisiéramos la distribución conjunta de R2 Y Θ, entonces, desde la transformación D = g1(x,y) = x2 + y2 Y i = g2(x,y) = tan−1 y/X tiene el Jacobio

J se deduce que

66

f

66

q,

0 < Θ < 2π

Por lo tanto R2 Y Me son independientes, con R2 con una distribución exponencial con parámetros . Pero porque R2 = X2 + Y2, se deduce por definición que R2 tiene una distribución de Chi-cuadrada con 2 grados de libertad. Por lo tanto, tenemos una verificación del resultado que la distribución exponencial con parámetro distribución de Chi-cuadrada con 2 grados de libertad.

es la misma que la

El resultado anterior se puede utilizar para simular (o generar) variables aleatorias normales haciendo una transformación adecuada en variables aleatorias uniformes. Dejar U1 Y U2 ser variables aleatorias independientes, distribuidas uniformemente sobre (0,1). Transformaremos U1,U2 en dos variables aleatorias normales de unidad independiente X1 Y X2 en primer lugar teniendo en cuenta la representación de coordenadas polares (R,Me del vector aleatorio (X1,X2). De lo anterior, R2 Y Me será independiente y, además, tendrá una distribución exponencial con parámetros −2EntrarU1 tiene tal distribución, ya que, para X > 0

. Pero

P = P{U1 > e−x/2} = 1 − e−x/2 También, porque 2πU2 es un uniforme (0, 2P variable aleatoria, podemos usarla para generar Θ. Es decir, si dejamos R2 = −2EntrarU1 i = 2πU2 Entonces R2 se puede tomar para ser el cuadrado de la distancia desde el origen y Me se puede tomar para ser el ángulo de orientación de (X1,X2). Ahora, desde X1 = RCuerpoΘ,X2 = RsinΘ, se deduce que X1 =. − −2EntrarU1 Cuerpo(2πU2)

X2 = . 2EntrarU1 sin(2πU2)

son variables aleatorias normales estándar independientes.

.

EJEMPLO 7C Si X Y Y son variables aleatorias gamma independientes con parámetros (A,L Y (b),L, respectivamente, computa la densidad de la articulación de U = X + Y Y V = X/(X + Y). Solución. La densidad articular de X Y Y es dada por λe−λx(lx)α−1 λe−λy(ly)β−1

fX,Y

Ahora, si g1(x,y) = X + y,g2(x,y) = x/(X + y)Entonces ∂g1

∂g1

= ∂x

∂g2

=

1

∂y

= ∂x

∂g2

y

=−

+ (x

x

2

y)

∂y

+ y)2

(x

Así J

y

Finalmente, como las ecuaciones U = xmás de 6 y,V = x/(X + y) tienen como sus soluciones6 X = Uv,y = u(1 − v), vemos que fU,V(u,v) = fX,Y[Uv,u(1 − v)]u (A

Ahí X + Y Y X/(X + Y) son independientes, con X + Y tener una distribución gamma con parámetros (A + b,L Y X/(X + Y) tener una distribución beta con parámetros (A,B. El razonamiento precedente también muestra que B(A,B, el factor normalizador en la densidad beta, es tal que

B

Fr

Todo este resultado es bastante interesante. Para suponer que hay N + M trabajos a realizar, cada uno (independientemente) tomando una cantidad exponencial de tiempo con la tasa L que se completen y Supongamos que tenemos dos trabajadores para realizar estos trabajos. Trabajador voy a hacer trabajos 1, 2,...,n, y el trabajador II hará el resto M Trabajos. Si dejamos que X Y Y indican el tiempo total de trabajo de los trabajadores I y II, respectivamente, entonces (ya sea del resultado anterior o del ejemplo 3B) X Y Y serán variables aleatorias gamma independientes con parámetros (n,L Y (m,LRespectivamente. A continuación, se deduce que, independientemente del tiempo de trabajo necesario para completar todos los N + M empleos (es decir, de X + Y), la proporción de este trabajo que realizará el trabajador I tiene una distribución beta con parámetros (n, m). . Cuando la función de densidad de la articulación N variables aleatorias X1,X2,...,XN se da y queremos calcular la función de densidad de la articulación de Y1,Y2,...,YnDonde Y1 = g1(X1,...,Xn) Y2 = g2(X1,...,Xn),... YN = gn(X1,...,Xn) el enfoque es el mismo, es decir, suponemos que las funciones gme tienen derivados parciales continuos y que el determinante jacobiano.

J x1,

, xn

∂g1 ∂x1 ∂g2 ∂x1 ∂gn ∂x1

∂g1 ∂x2 ∂g2 ∂x2 ∂gn ∂x2

∂g1 ∂xn ∂g2 ∂xn

0

atallpoints x1, , xn . Además, wesupposethattheecuaciones y1 g1 x1, , xn , y2 g2 x1, , xn , , yn gn x1, , xn haveauniquesolution, digamos, 6

∂gn

6

6

∂xn

x1 = h1(y1,...,yn),...,xN = hn(y1,...,yn). En estas hipótesis, la función de densidad conjunta de las variables aleatorias Yme es dada por fY1,...,Yn(y1,...,yn) = fX1,...,Xn(x1,...,xn)|J(x1,...,xn)|−1

(7,3)

Donde xme = hi(y1,...,yn),me = 1, 2,...,n. EJEMPLO 7D Dejar X1,X2Y X3 ser variables aleatorias normales estándar independientes. Si Y1 = X1 + X2 + X3,Y2 = X1 − X2Y Y3 = X1 − X3, calcule la función de densidad conjunta de Y1,Y2,Y3. Solución. Dejar Y1 = X1 + X2 + X3,Y2 = X1 − X2,Y3 = X1 − X3, el Jacobio de estas transformaciones es dada por 1

1 1

J = 666661 −1 −0 666666

=3

1

0

1

A medida que las transformaciones precedentes producen X 1 = Y1 + Y2 + Y3 3 vemos en la ecuación (7,3) que

X2 = Y1 − 2Y2 + Y3

X3 = Y1 + Y2 − 2Y3

3

3

fY1,Y2,Y3(y1, y2, y3) fX Por lo tanto, como

fX1,X2,X3

X2me /2

fY1,Y2,Y3

Q(y1,y2,y3)/2

vemos que

Donde

Q

. EJEMPLO 7e

Dejar X1,X2,...,XN ser independientes y distribuidas idénticamente variables aleatorias exponenciales con tasa λ. Dejar Yme = X1 + ··· + Xi

me = 1...,n

(a) Encuentre la función de densidad conjunta de Y1,...,Yn. (b) Utilice el resultado de la parte (a) para encontrar la densidad de Yn. Solución.

a) el Jacobio de las transformaciones Y1 = X1, Y2 = X1 + X2, ...,

YN = X1 + ··· + XN Es

J

Dado que sólo el primer término del determinante será distinto de cero, J = 1. ahora, la función de densidad conjunta de X1,...,XN es dada por n

fX1,...,Xn

q, me = 1...,n

Por lo tanto, dado que las transformaciones precedentes producen X1 = Y1,X2 = Y2 − Y1,...,Xme = Yme − Yi−1,...,XN = YN − Yn−1 se deduce de la ecuación (7,3) que la función de densidad articular de Y1,...,YN Es fY1,...,Yn(y1,y2,...,yn) = Lne−λyn 0 < y1, 0 < yme − yi−1,me = 2...,n = Lne−λyn 0 < y1 < y2 < ··· < yn b) obtener la densidad marginal de los Yn, vamos a integrar las otras variables una a la vez. Hacer esto da y2

λne− lynDy1

fY2,...,Yn(y2,...,yn)*

0

= Lny2e− lyn

0 < y2 < y3 < ··· < yn

Continuando, obtenemos y3

λny2e− lynDy2

fY3,...,Yn(y3,...,yn)*

0

= LN y

2 yn

La próxima integración produce y3 fY4,...,Yn(y4,...,yn) = LN

yn

Continuando de esta manera da fYn(yn) = Ln

y−Nn−1 e− lyn < yN (n

0

1)!

que, de acuerdo con el resultado obtenido en el ejemplo 3B, muestra que X1 + ··· + XN es una variable aleatoria gamma con parámetros N Y λ. .

∗6,8VARIABLES

ALEATORIAS INTERCAMBIABLES Las variables aleatorias X1,X2,...,XN se dice que son Cambiable Si, por cada permutación i1,...,iN de los enteros 1,...,n, P{Xi1 ... x1,Xi2 ... x2,...,XEn

... xn} = P{X1 ... x1,X2 ... x2,...,XN ... xn}

para todos x1,...,xn. Es decir, el N las variables aleatorias son intercambiables si su distribución conjunta es la misma, no importa en qué orden se observan las variables. Las variables aleatorias discretas serán intercambiables si P{Xi1 = x1,Xi2 = x2,...,XEn = xn} = P{X1 = x1,X2 = x2,...,XN = xn} para todas las permutaciones i1,...,in, y todos los valores x1,...,xn. Esto equivale a afirmar que p(x1,x2,...,xn) = P{X1 = x1,...,XN = xn} es una función simétrica del vector (x1,...,xn), lo que significa que su valor no cambia cuando se permutan los valores del vector.

EJEMPLO 8A Supongamos que las bolas se retiran una a la vez y sin reemplazo de una urna que inicialmente contiene N bolas, de los cuales K se consideran especiales, de tal manera que cada retirada es igualmente probable que sea cualquiera de las bolas que permanecen en la urna en el momento. Dejar Xme = 1 si el iTH pelota retirada es especial y dejar Xme = 0 en caso contrario. Demostraremos que las variables aleatorias X1,...,XN son intercambiables. Para ello, deje que (x1,...,xn) ser un vector que consiste en K unos y N − K Ceros. Sin embargo, antes de considerar la función de masa conjunta evaluada en (x1,...,xn), intentemos obtener alguna

Sección 6,8

Variables aleatorias intercambiables

considerando un vector fijo de este tipo, por ejemplo, considere el vector (1, 1, 0, 1, 0,..., 0, 1), que se asume que K unos y N − K Ceros. Entonces Ka

1n −−

p(1, 1, 0, 1, 0,..., 0, 1) = nn

Ka −−

1n

2n

k 1 11 −−− ···

3

n

−− 2n

4

21

que sigue porque la probabilidad de que la primera pelota es especial es k/n, la probabilidad condicional de que el siguiente sea especial es (K − 1)/(N − 1), la probabilidad condicional de que el siguiente no sea especial es (N − k)/(N − 2), y así sucesivamente. Por el mismo argumento, se deduce que p(x1,...,xn) puede expresarse como el producto de N Fracciones. Los términos sucesivos del denominador de estas fracciones van de N hasta 1. El término del numerador en la ubicación donde el vector (x1,...,xn) es 1 para el itiempo es K −me − 1), y donde es 0 para el iTH tiempo es N − K −me − 1). Por lo tanto, ya que el vector (x1,...,xn) consiste en K unos y N − K ceros, obtenemos n

k!(n

k)! −

p(x1,...,xn) =

xik

n! i=1 Dado

que se trata de una

función simétrica de (x1,...,xn), se deduce que las variables aleatorias son intercambiables. . Observación. Otra forma de obtener la fórmula precedente para la función de masa de probabilidad conjunta es considerar N bolas como distinguibles entre sí. Entonces, ya que el resultado del experimento es una ordenación de estas bolas, se deduce que hay n! resultados igualmente probables. Finalmente, porque el número de resultados que tienen bolas especiales y no especiales en lugares especificados es igual al número de maneras de permutando las bolas especiales y no especiales entre sí, a saber k!(N − k)!, obtenemos la función de densidad precedente. . Se ve fácilmente que si X1,X2,...,XN son intercambiables, entonces cada Xme tiene la misma distribución de probabilidad. Por ejemplo, si X Y Y son variables aleatorias discretas intercambiables, P

X,Y y

y,Y = x} = P{Y = x} y

Por ejemplo, del ejemplo 8A se desprende que el iTH pelota retirada será especial con probabilidad k/n, que es intuitivamente claro, ya que cada uno de los N bolas es igualmente probable que sea el iuno seleccionado. EJEMPLO 8B En el ejemplo 8A, deje Yme indican el número de selección de la primera bola especial retirada, deje Y2 indican el número adicional de bolas que luego se retiran hasta que aparece

la segunda bola especial, y, en general, deje que Yme indican el número adicional de bolas retiradas después de la (me − 1)bola especial de la St se selecciona hasta iTH está seleccionado, me = 1...,k. Por ejemplo, si N = 4K = 2 Y X1 = 1X2 = 0X3 = 0X4 = 1, entonces Y1 = 1Y2 = 3. ahora, Y1 = i1,Y2 = i2,...,YK = iK 3 Xi1 = Xi1+i2 = ··· = Xi1+···

+iK =

1XJ = 0, de lo contrario; por lo tanto, de la función de masa conjunta de la Xi,

obtenemos P{Y1 = i1,Y2 = i2,...,YK = ik} = k!(N − k)! n!

i1 + ··· + iK ... n

Por lo tanto, las variables aleatorias Y1,...,YK son intercambiables. Tenga en cuenta que de este resultado se deduce que el número de cartas que se debe seleccionar de un mazo bien-barajan hasta que un as aparece tiene la misma distribución que el número de cartas adicionales que uno debe seleccionar después de que aparezca el primer as hasta que el siguiente lo haga , y así sucesivamente. . EJEMPLO 8C Lo siguiente se conoce como modelo de urna de Polya: Supongamos que una urna contiene inicialmente N rojo y M bolas azules. En cada etapa, una pelota es elegida aleatoriamente, su color es observado, y luego se reemplaza junto con otra bola del mismo color. Letselected es rojo y lo deja igual a 0 si el ila bola es azul, me Efectos 1. para obtener una sensación deXme = 1 si el ilas probabilidades conjuntas de estas Xi, tenga en cuenta los siguientes casos especiales: P{X1 = 1X2 = 1X3 = 0X4 = 1X5 = 0}

= N +N m N +N m+ 1+ 1 N + mM + 2 N +N m+ 2+ 3 N +M m+ +1 4 n n 1 n 2m m 1 (N + m)(N + M + 1)(N + M + 2)(N + M + 3)(N + M + 4)

Y P{X1 = 0X2 = 1X3 = 0X4 = 1X5 = 1}

== n(n+m+Mm)(Nn++Mnm++n1(n1n)(+n+m1+)(m+Nm+1++222)Nm)(+n(Nm+m++ m1+1)+3 n3)(+s m++ 2+M 4+ 4)

Por el mismo razonamiento, para cualquier secuencia x1,...,xK que contiene R unos y K − R ceros, tenemos P{X1 = x1,...,XK = xk} = n(N + 1)··· ((Nn++Rm−) · · ·1)m(n(m+ +M 1+)···K (−m1+) K − R − 1)

Por lo tanto, para cualquier valor de k, las variables aleatorias X1,...,XK son intercambiables. Un interesante corolario de la intercambiabilidad en este modelo es que la probabilidad de que el ila bola seleccionada es roja es la misma que la probabilidad de que la primera bola seleccionada sea roja, es decir, n+nm. (Para un argumento intuitivo para este resultado inicialmente no intuitivo, Imagine que todos los N + M las bolas inicialmente en la urna son de diferentes tipos. Es decir, uno..., uno es un tipo de bola roja de n, una es una bola roja de tipo 1, una es una bola roja de tipo 2, una bola azul de tipo 1, y así sucesivamente, hasta la bola azul de tipo m. Supongamos que cuando se selecciona una pelota se reemplaza junto con otra de su tipo. Entonces, por simetría, el de estosila bola seleccionada es igualmente probable queN + M los tipos son rojos, la probabilidad es n+nmn.) + M tipos distintos. Kuz .n

Nuestro ejemplo final se ocupa de variables aleatorias continuas que son intercambiables. EJEMPLO 8D Dejar X1,X2,...,XN independientes (0,1) variables aleatorias, y denotan sus estadísticas de orden por X(1),...,X(n). Es decir X(j) es el jTH más pequeño de X1,X2,...,Xn. Resumen

Además, deje que Y1 = X(1), Yme = X(i) − X(i−1),

me = 2...n

Mostrar que Y1,...,YN son intercambiables. Solución. Las transformaciones y1 = x1,...,yme = xme − xi−1

me = 2...,n

Rendimiento xme = y1 + ··· + yi

me = 1...,n

Como es fácil ver que el jacobiano de las transformaciones precedentes es igual a 1, por lo tanto, de la ecuación (7,3), obtenemos fY1,...,Yn(y1,y2,...,yn) = f(y1,y1 + y2,...,y1 + ··· + yn)

Donde F es la función de densidad conjunta de las estadísticas de la orden. Por lo tanto, de la ecuación (6,1), obtenemos que fY1,...,Yn(y1,y2,...,yn) = n! 0 < y1 < y1 + y2 < ··· < y1 + ··· + yN < 1 o, de manera equivalente, fY1,...,Yn(y1,y2,...,yn) = n!

0 < yme < 1 me = 1...,n,

y1 + ··· + yN < 1

Debido a que la densidad de la articulación precedente es una función simétrica de y1,...,yn, vemos que las variables aleatorias Y1,...,YN son intercambiables. . Resumen Lla función de distribución de probabilidad acumulada conjunta del par de variables aleatorias X Y Y se define por − q < x,y < q

F(x,y) = P{X ... x,Y ... y}

Todas las probabilidades con respecto a la pareja se pueden obtener de F. Para encontrar las funciones de distribución de probabilidad individuales de X Y YUso FX(x) = Lim→ F(x,y) FY(y) = Lim→ F(x,y) y q Xq

Si X Y Y son variables aleatorias discretas, entonces su función de masa de probabilidad conjunta se define por p(i,j) = P{X = i,Y = j} Las funciones de masa individuales son P

P

ji

Las variables aleatorias X Y Y se dice que son conjuntamente continuos Si hay una función f(x, y), llamado función de densidad de probabilidad conjunta, de modo que para cualquier conjunto bidimensional C, P{(X,Y) ∈ C} = * * f(x,y)DXDY C

De la fórmula precedente se desprende que P{X < X < X + Dx, y < Y < y + Dy} L f(x,y)DXDY Si X Y Y son conjuntamente continuos, entonces son individualmente continuos con las funciones de la densidad q

Q fX(x)

−q

=*

f(x,y)Dy fY(y) = * f(x,y)Dx −q

Las variables aleatorias X Y Y Son Independiente Si, para todos los conjuntos Un Y B, P{X ∈ A,Y ∈ B} = P{X ∈ A}P{Y ∈ B}

Si la función de distribución conjunta (o la función de masa de probabilidad conjunta en el caso discreto, o la función de densidad de la articulación en el caso continuo) factores en una pieza en función de X y una parte que depende sólo de yEntonces X Y Y son independientes. En general, las variables aleatorias X1,...,XN son independientes si, para todos los conjuntos de números reales A1,...,An, P{X1 ∈ A1,...,XN ∈ An} = P{X1 ∈ A1}···P{XN ∈ An} Si X Y Y son variables aleatorias continuas independientes, entonces la función de distribución de su suma se puede obtener de la identidad q FX+Y(a)

=

*−Q FX(Un − y)fY(y)Dy

Si Xi,me = 1...,n, son variables aleatorias normales independientes con parámetros respectivosn

n

n

Comedores μme Y= Si2,me = 1...,nEntoncesXme es normal con los parámetrosme Y

Si Xi,i

me .

1...,n, son variables aleatorias de Poisson independientes con parámetrosi=1i=1 n

Comedores λi,me = 1...,nEntonces

n

Xme es Poisson con parámetro

. Si X Y Y son variables aleatorias discretas, función de masa de probabilidad condicional De X Dado que Y = y se define por p(x,y) P{X = x|Y = y} = pY(y) Donde P es su función de masa de probabilidad conjunta. Además, si X Y Y son conjuntamente continuos con la función de la densidad común f, entonces el función de densidad de probabilidad condicional De X Dado que Y = y es dada por f(x,y) fX|Y(x|y) = fY(y) ... Los valores ordenados X(1) ... X(2) ··· ... X(n) de un conjunto de variables aleatorias independientes y distribuidas idénticamente se denominan estadísticas de pedidos de ese conjunto. Si las variables aleatorias son continuas y tienen la función de densidad f, entonces la función de la densidad común de las estadísticas de la orden es f(x1,...,xn) = n!f(x1)···f(xn)

x1 ... x2 ... ··· ... xn

Las variables aleatorias X1,...,XN se denominan Cambiable Si la distribución conjunta de Xi1,...,XEn es el mismo para cada permutación i1,...,iN de 1,...,n. Problemas

Problemas 6,1. Dos dados justos se enrollan. Encuentre la función de masa de probabilidad conjunta de X Y Y Cuando un X es el valor más grande obtenido en cualquier muere y Y es la suma de los valores; (b) X es el valor en el primer dado y Y es el mayor de los dos valores; (c) X es el más pequeño y Y es el valor más grande obtenido en los dados. 6,2. Supongamos que se eligen 3 bolas sin reemplazo de una urna que consta de 5 bolas blancas y 8 rojas. Dejar Xme igual a 1 si el ila bola seleccionada es blanca, y deja que sea igual a 0 en caso contrario. Dar la función de masa de probabilidad conjunta de un X1,X2; b X1,X2,X3. 6,3. En el problema 2, supongamos que las bolas blancas están numeradas, y dejar Yme igual a 1 si el ise selecciona la bola blanca y 0 en caso contrario. Encuentre la función de masa de probabilidad conjunta de un Y1,Y2; b Y1,Y2,Y3. 6,4. Repita el problema 2 cuando la bola seleccionada se sustituye en la urna antes de la siguiente selección. 6,5. Repita el problema 3A cuando la bola seleccionada se sustituye en la urna antes de la siguiente selección. 6,6. Se sabe que un bin de 5 transistores contiene 2 que son defectuosos. Los transistores deben ser probados, uno a la vez, hasta que se identifiquen los defectuosos. Denote por N1 el número de pruebas realizadas hasta que se identifique el primer defectuoso y N2 el número de pruebas adicionales hasta que se identifique el segundo defectuoso. Encuentre la función de masa de probabilidad conjunta de N1 Y N2. 6,7. Considere una secuencia de ensayos independientes de Bernoulli, cada uno de los cuales es un éxito con probabilidad p. Dejar X1 ser el número de fallas previas al primer éxito, y dejar que X2 ser el número de fallas entre los dos primeros éxitos. Encontrar la función de masa conjunta de X1 Y X2. 6,8. La función de densidad de probabilidad conjunta de X Y Y es dada por f(x,y) = c(y2 − x2)e−y

− y ... X ... y, 0 < y < q

(a) Encontrar c. (b) Encuentre las densidades marginales de X Y Y. c Encontrar E[X]. 6,9. La función de densidad de probabilidad conjunta de X Y Y es dada por f (a) Compruebe que se trata efectivamente de una función de densidad conjunta. (b) Calcule la función de densidad de X. c Encontrar P{X > Y}. (d) Encontrar P . (e) Encontrar E[X]. f Encontrar E[Y]. 6.10. La función de densidad de probabilidad conjunta de X Y Y es dada por f(x,y) = e−(x+y)

0 ... X < q, 0 ... y < q

Buscar (a) P{X < Y} y b) P{X < a}. 6.11. Un propietario de una tienda de televisión calcula que el 45 por ciento de los clientes que ingresan a su tienda comprará un televisor ordinario, el 15 por ciento comprará un televisor de plasma y el 40 por ciento solo estará navegando. Si 5 clientes entran en su tienda en un día determinado, ¿cuál es la probabilidad de que él venderá exactamente 2 sets ordinarios y 1 plasma en ese día? 6.12. El número de personas que entran en una farmacia en una hora determinada es una variable aleatoria de Poisson con parámetro L = 10. Calcule la probabilidad condicional de que a lo más 3 hombres ingresaron a la farmacia, dado que 10 mujeres entraron en esa hora. ¿Qué suposiciones has hecho? 6.13. Un hombre y una mujer acuerdan reunirse en un lugar determinado alrededor de 12:30 P.M. Si el hombre llega en un momento uniformemente distribuido entre 12:15 y 12:45, y si la mujer llega de forma independiente a la vez distribuida uniformemente entre 12:00 y 1 P.M., encontrar la probabilidad de que el primero llegue espera no más de 5 minutos. ¿Cuál es la probabilidad de que el hombre llegue primero? 6.14. Una ambulancia viaja hacia adelante y hacia atrás a una velocidad constante a lo largo de un camino de

longitud L. En un momento determinado, un accidente ocurre en un punto uniformemente distribuido en la carretera. [Es decir, la distancia del punto desde uno de los extremos fijos de la carretera se distribuye uniformemente sobre (0, L).] Suponiendo que la ubicación de la ambulancia en el momento del accidente también se distribuya uniformemente, y asumiendo la independencia de las variables, computar la distribución de la distancia de la ambulancia del accidente. 6.15. El vector aleatorio (X, Y) se dice que se distribuye uniformemente en una región R en el avión si, por alguna constante c, su densidad articular es

(b) ¿Son los Ame mutuamente excluyentes? c Encontrar P(A). 6.17. Tres puntos X1,X2,X3 se seleccionan aleatoriamente en una línea L. ¿Cuál es la probabilidad de que X2 se encuentra entre X1 Y X3? 6.18. Dos puntos se seleccionan aleatoriamente en una línea de longitud L para estar en lados opuestos del punto medio de la línea. [En otras palabras, los dos puntos X Y Y son variables aleatorias independientes X se distribuye uniformemente sobre (0, L/2) y Y se distribuye uniformemente sobre (L/2 L).] Encuentre la probabilidad de que la distancia entre los dos puntos sea mayor que L/3.

C Si(x,y) R 0 de lo contrario f(x,y) = % ∈ (a) Muestre que 1/C = área de la región R.

6.19. Mostrar que f(x,y) = 1/x, 0 < y < X < 1, es una función de la densidad común. Suponiendo que F es la función de densidad conjunta de X,YEncontrar un la densidad marginal de Y; b la densidad marginal de X; c E[X];

Supongamos que (X, Y) se distribuye uniformemente sobre el cuadrado centrado en (0, 0) y con los lados de la longitud 2. (b) Mostrar que X Y Y independientes, y cada uno de ellos se distribuye uniformemente (−1, 1).

(c) E[Y]. 6,20. La densidad articular de X Y Y es dada por

(c) ¿Cuál es la probabilidad de que (X, Y) se encuentra en el círculo de radio 1 centrado en el origen? Es decir, encontrar P{X2 + Y2 ... 1}. 6,16. Supongamos que N los puntos se eligen de forma independiente al azar en la circunferencia de un círculo, y queremos la probabilidad de que todos se encuentran en algún semicírcírculo. Es decir, queremos la probabilidad de que haya una línea que pase a través del centro del círculo de tal manera que todos los puntos estén en un lado de esa línea, como se muestra en el siguiente diagrama:

Coche−x+y)

X>0y>0

f(x,y) = 0 0

Lo contrario

Son X Y Y ¿Independiente? Si, en cambio, f(x, y) fueron dadas por 2

0 < X < y, 0 < y < 1

f(x,y) = % 0

Lo contrario

Wld X Y Y ser independiente? 6,21. Dejar f(x,y) = 24Xy

0 ... X ... 1, 0 ... y ... 1, 0 ... X + y ... 1

y dejar que sea igual a 0 en caso contrario. (a) Mostrar que f(x, y) es una función de densidad de probabilidad conjunta. (b) Encontrar E[X]. c Encontrar E[Y]. 6,22. La función de densidad conjunta de X Y Y Es Dejar P1,...,PN denotan la N Puntos. Dejar Un denotan el evento que todos los puntos están contenidos en algún semicírcito, y dejar Ame ser el caso de que todos los puntos se encuentran en el semicirculo comenzando en el punto Pme y va en sentido horario para 180◦,me = 1...,n. (a) Express Un en términos de la Ai.

x f(x,y) = % + 0

y

0 < X < 1, 0 < y < 1 Lo contrario

(a) Son X Y Y ¿Independiente? (b) Encuentre la función de densidad de X. (c) Encontrar P{X + Y < 1}.

6,23. Las variables aleatorias X Y Y tienen la función de la densidad común f(x,y) = 12Xy(1 − x)

0 < X < 1, 0 < y < 1

e igual a 0 en caso contrario. (a) Son X Y Y ¿Independiente? (b) Encontrar E[X]. c Encontrar E[Y]. De Encontrar var(X). Y Encontrar var(Y). 6,24. Considerar ensayos independientes, cada uno de los cuales da como resultado i,me = 0, 1,...,k, con probabilidad k pi, pme = 1. deje que N denotan el número de ensayos necesarios para obtener un resultado que no es igual a 0, y que X ser ese resultado. un Encontrar P{N = n},N Efectos 1. (b) Encontrar P{X = j},J = 1...,k. (c) Mostrar que P{N = n,X = j} = P{N = n}P{X = j}. (d) ¿Es intuitivo para usted que N es independiente de X? (e) ¿Es intuitivo para usted que X es independiente de N? 6.25. Supongamos que 106 las personas llegan a una estación de servicio a veces que son variables aleatorias independientes, cada uno de los cuales se distribuye uniformemente sobre (0, 106). Dejar N denotan el número que llega en la primera hora. Encuentre una aproximación para P{N = i}. 6.26. Supongamos que A, B, C, son variables aleatorias independientes, cada una distribuida uniformemente sobre (0,1). (a) ¿Cuál es la función de distribución acumulada conjunta de A, B, C? (b) ¿Cuál es la probabilidad de que todas las raíces de la ecuación Ax2 + Bx + C = 0 son reales? 6.27. Si X1 Y X2 son variables aleatorias exponenciales independientes con parámetros respectivos λ1 Y λ2, encontrar la distribución de Z = X1/X2. También computar P{X1 < X2}. 6.28. El tiempo que se tarda en el servicio de un coche es una variable aleatoria exponencial con la tasa 1. (a) Si a. j. trae su coche en el momento 0 y m. j. trae su coche en el momento t, ¿cuál es la probabilidad de que el coche de m. j. esté listo antes del coche de a. j.? (Suponga que los tiempos de servicio son

independientes y el servicio comienza a la llegada del automóvil.) (b) Si ambos coches se traen en el tiempo 0, con el trabajo que comienza en el coche de m. j. solamente cuando el coche de a. j. ha sido completamente reparado, ¿cuál es la probabilidad de que el coche de m. j. esté listo antes del tiempo 2? 6,29. Las ventas semanales brutas en un determinado restaurante es una variable aleatoria normal con la media $2200 y la desviación estándar $230. ¿Cuál es la probabilidad de que (a) las ventas brutas totales durante las próximas 2 semanas superan los $5000; (b) las ventas semanales superan los $2000 en al menos 2 de las próximas 3 semanas? ¿Qué suposiciones de independencia has hecho? 6,30. Las puntuaciones de los bolos de Jill se distribuyen aproximadamente normalmente con la media 170 y la desviación estándar 20, mientras que las puntuaciones de Jack se distribuyen aproximadamente normalmente con la media 160 y la desviación estándar 15. Si Jack y Jill cada tazón de un juego, a continuación, suponiendo que sus puntuaciones son variables aleatorias independientes, aproximan la probabilidad de que un La puntuación de Jack es más alta; b el total de sus puntuaciones es superior a 350. 6,31. Según el Centro Nacional de estadísticas sanitarias de los Estados Unidos, el 25,2 por ciento de los varones y el 23,6 por ciento de las hembras nunca comen desayuno. Supongamos que se eligen muestras aleatorias de 200 hombres y 200 mujeres. Aproxime la probabilidad de que (a) al menos 110 de estas 400 personas nunca desayunan; (b) el número de las mujeres que nunca comen el desayuno es por lo menos tan grande como el número de los hombres que nunca comen el desayuno. Problemas 6.32. El número esperado de errores tipográficos en una página de una determinada revista es. 2. ¿Cuál es la probabilidad de que un artículo de 10 páginas contenga (a) 0 y (b) 2 o más errores tipográficos? ¡ Explique su razonamiento! 6.33. El número promedio mundial mensual de accidentes aéreos de aerolíneas comerciales es de 2,2. ¿Cuál es la probabilidad de que se (a) más de 2 de estos accidentes en el próximo mes? (b) más de 4 de estos accidentes en los próximos 2 meses?

(c) más de 5 de estos accidentes en los próximos 3 meses? ¡ Explique su razonamiento! 6.34. Jay tiene dos trabajos que hacer, uno tras otro. Cada intento de trabajo me tarda una hora y tiene éxito con la probabilidad pi. Si p1 = .3 y p2 = .4, ¿cuál es la probabilidad de que se lleve a Jay más de 12 horas para tener éxito en ambos trabajos? 6.35. En el problema 4, calcule la función de masa de probabilidad condicional de X1 Dado que un X2 = 1 b X2 =

6,41. La función de densidad conjunta de X Y Y es dada por f(x,y) = Coche−x(y+1) X > 0 y > 0

(a) Encuentre la densidad condicional de XDado Y =y, y la de YDado X = x. (b) Encuentre la función de densidad de Z = Xy. 6.42. La densidad articular de X Y Y Es f(x,y) = c(x2 − y2)e−x

0. 6,36. En el problema 3, calcule la función de masa de probabilidad condicional de Y1 Dado que un Y2 = 1 b Y2 = 0. 6,37. En el problema 5, calcule la función de masa de probabilidad condicional de Y1 Dado que (a) Y2 = 1 b Y2 = 0. 6,38. Elija un número X al azar del conjunto de números {1, 2, 3, 4, 5}. Ahora elija un número al azar del subconjunto no mayor que X, es decir, de {1...,X}. Llame a este segundo número Y. un Encontrar la función de masa conjunta de X Y Y. (b) Encuentre la función de masa condicional de X Dado que Y = i. Hazlo por me = 1, 2, 3, 4, 5. c Son X Y Y ¿Independiente? ¿Porqué? 6.39. Dos dados están enrollados. Dejar X Y Y denotan, respectivamente, los valores más grandes y más pequeños obtenidos. Calcule la función de masa condicional de Y Dado X = iPara me = 1, 2,...6. Son X Y Y ¿Independiente? ¿Porqué? 6.40. La función de masa de probabilidad conjunta de X Y Y es dada por p

P p

p

(a) Calcule la función de masa condicional de X Dado Y = i,me = 1, 2. (b) Son X Y Y ¿Independiente? (c) Calcular P{Xy ... 3},P{X + Y > 2}, P{X/Y > 1}.

0 ... X < q, −X ... y ... x

Encuentre la distribución condicional de YDado X = x. 6.43. Una compañía de seguros supone que cada persona tiene un parámetro de accidente y que el número anual de accidentes de alguien cuyo parámetro de accidente es L es Poisson distribuido con media λ. También suponen que se puede suponer que el valor de parámetro de una persona recién asegurada es el valor de una variable aleatoria gamma con parámetros s Y α. Si una persona recién asegurada ha N accidentes en su primer año, encontrar la densidad condicional de su parámetro de accidente. Además, determine el número esperado de accidentes que tendrá en el año siguiente. 6.44. Si X1,X2,X3 son variables aleatorias independientes que se distribuyen uniformemente sobre (0,1), calculan la probabilidad de que el mayor de los tres sea mayor que la suma de los otros dos. 6.45. Una máquina compleja es capaz de funcionar eficazmente siempre y cuando al menos 3 de sus 5 motores funcionen. Si cada motor funciona de forma independiente durante una cantidad aleatoria de tiempo con la función de densidad f(x) = Coche−x,X > 0, calcule la función de densidad de la longitud del tiempo que funciona la máquina. 6.46. Si 3 camiones se descomponen en puntos distribuidos aleatoriamente en un camino de longitud L, encontrar la probabilidad de que no 2 de los camiones están a una distancia D el uno del otro cuando D ... L/2. 6.47. Considere una muestra de tamaño 5 de una distribución uniforme sobre (0,1). Calcule la probabilidad de que la mediana esté en el intervalo . 6.48. Si X1,X2,X3,X4,X5 son variables aleatorias exponenciales independientes y distribuidas idénticamente con el parámetro λCalcular un P{Min(X ,...,X ) ... a}; b.

6.49. Dejar X(1),X(2),...,X(n) ser las estadísticas de orden de un conjunto de N uniforme independiente (0, 1) variables aleatorias. Encuentre la distribución condicional de X(n) Dado que X(1) = s1,X(2) = s2,...,X(n−1) = sn−1. 6.50. Dejar Z1 Y Z2 ser variables aleatorias normales estándar independientes. Mostrar que X,Y tiene una distribución normal bivariada cuando X = Z1, Y = Z1 + Z2. 6.51. Derivar la distribución del rango de una muestra de tamaño 2 de una distribución que tiene la función de densidad f(x) = 2x, 0 < X < 1. 6.52. Dejar X Y Y denotan las coordenadas de un punto elegido uniformemente en el círculo de radio 1 centrado en el origen. Es decir, su densidad articular es

6,56. Si X Y Y son variables aleatorias uniformes independientes y distribuidas idénticamente en (0,1), calcular la densidad articular de (a) U = X + Y,V = X/Y; (b) U = X,V = X/Y; c U = X + Y,V = X/(X + Y). 6.57. Repita el problema 6,56 cuando X Y Y son variables aleatorias exponenciales independientes, cada una con parámetros L = 1. 6.58. Si X1 Y X2 son variables aleatorias exponenciales independientes, cada una con parámetros λ, encuentre la función de densidad conjunta de Y1 = X1 + X2 Y Y2 = eX1. 6.59. Si X, YY Z son variables aleatorias independientes que

f

tienen funciones de densidad idénticas f(x) = e−x, 0 < X

Encontrar la función de densidad de las coordenadas polares R = (X2 + Y2)1/2 Y = tan−1 Y/X. 6.53. Si X Y Y son variables aleatorias independientes distribuidas uniformemente sobre (0, 1), encuentran el

tan−1 Y/X.

Y2,Θ

X2

función de densidad conjunta de R =.

+

=

6.54. Si U es uniforme en (0, 2P Y Z, independiente de U, es exponencial con la tasa 1, Mostrar directamente (sin utilizar los resultados del ejemplo 7b) que X Y Y definida por X = √ √2ZCuerpoU Y = son variables independientes.

2ZsinU

aleatorias

normales

estándar

6,55. X Y Y tienen la función de la densidad común f(x,y) X Efectos 1 y Efectos 1 x y (a) Calcule la función de densidad de la articulación U = Xy,V = X/Y. (b) ¿Cuáles son las densidades marginales?

< q, derivar la distribución conjunta de U = X + Y, V = X + Z,En = Y + Z.

Ejercicios teóricos k

6,60. En el ejemplo 8B, deje

Yk+1Nuevoi. Mostrar

Que Y1,...,Yk,Yk+1 son intercambiables. Tenga en cuenta que Yk+1 es el número de bolas que uno debe observar para obtener una bola especial si uno considera las bolas en numeradas

6,61. Considere una urna que contenga N bolas

Retirado. Dejar Xme igual a 1 si el número de pelota me se retira y se deja Xme ser 0 en caso contrario. Mostrar que X1,...,XN son intercambiables.

1...,n, y Supongamos que K de ellos son aleatoriamente

su orden inverso de retirada.

EJERCICIOS TEÓRICOS 6.1. Verifique la ecuación (1,2). 6.2. Supongamos que el número de eventos que ocurren en un período de tiempo dado es una variable aleatoria de Poisson con parámetro λ. Si cada evento se clasifica como un tipo me evento con probabilidad pi, me = 1, independientemente de otros eventos, demuestran que los números de tipo me eventos que ocurren, me = 1...,n, son variables aleatorias de Poisson independientes con parámetros respectivos λpi, me = 1...,n. 6.3. Sugiera un procedimiento para usar el problema de la aguja de Buffon para estimar π. Sorprendentemente, esto fue una vez un método común para evaluar π. 6.4. Resuelva el problema de la aguja de Buffon cuando L > D. 2L Respuesta: (1 − sini) + 2T/P, donde cosi = PD D/L. 6.5. Si X Y Y son variables aleatorias positivas continuas independientes, expresan la función de densidad de (a) Z = X/Y y b) Z = Xy en términos de las funciones de densidad de X Y Y. Evalúe las funciones de densidad en el caso especial donde X Y Y son ambas variables aleatorias exponenciales. 6.6. Si X Y Y son conjuntamente continuos con la función de la densidad común fX,Y(x,y), muestran que X + Y es continuo con la función de la densidad q

fX+Y(t)

=

*−Q fX,Y(x,T − x)Dx

6.7. un Si X tiene una distribución gamma con parámetros (t,L, ¿cuál es la distribución de Cx,C > 0? (b) Mostrar que 1 2

Ex22n

tiene una distribución gamma con parámetros n,L Cuando N es un entero positivo y χ22N es una variable aleatoria de Chi-cuadrada con 2N grados de libertad. 6,8. Dejar X Y Y ser variables aleatorias continuas independientes con las respectivas funciones de tasa de riesgo λX(t) Y λY(t)y establezca En = Min(X,Y). (a) Determine la función de distribución de En en términos de los de X Y Y. (b) Mostrar que λW(t), la función de tasa de riesgo de W, es dada por λW(t) = LX(t) + λY(t) 6.9. Dejar X1,...,XN ser variables aleatorias exponenciales independientes que tengan un parámetro común λ. Determine la distribución de min(X1,...,Xn). 6.10. Los tiempos de vida de las baterías son variables aleatorias exponenciales independientes, cada una con parámetros λ. Una linterna necesita 2 baterías para trabajar. Si uno tiene una linterna y una reserva de N baterías, ¿cuál es la distribución del tiempo que la linterna puede operar? 6.11. Dejar X1, X2, X3, X4, X5 ser variables aleatorias continuas independientes que tienen una función de distribución común F y la función de la densidad fy establezca

Me = P{X1 < X2 < X3 < X4 < X5} (a) Mostrar que Me no depende de F. Pista: Escribir Me como una integral de cinco dimensiones y hacer el cambio de variables ume = F(xi),me = 1...5. (b) Evaluar I. (c) Dé una explicación intuitiva para su respuesta a (b). 6.12. Mostrar que las variables aleatorias (discretas) conjuntas continuas X1,...,XN son independientes si y sólo si su función de densidad de probabilidad conjunta (masa) f(x1,...,xn) puede escribirse como n

Dejar X denotan el número de cabezas en el primer N voltea y Y el número en el segundo N Voltea. Argumentan que dado un total de M cabezas, el número de cabezas en el primer N voltea tiene la misma distribución que el número de bolas blancas seleccionadas cuando una muestra de tamaño M se elige de N blanco y N bolas negras. 6,17. Supongamos que Xi,me = 1, 2, 3 son variables aleatorias de Poisson independientes con los medios respectivos λi,me = 1, 2, 3. deje que X = X1 + X2 Y Y = X2 + X3. El vector aleatorio X,Y se dice que tiene una distribución bivariada de Poisson. Encuentra su función de masa de probabilidad conjunta. Es decir, encontrar P{X = n, Y = m}.

f i=1

6,18. Supongo X Y Y son variables aleatorias con valores enteros. Dejar

para funciones no negativas gi(x),me = 1...,n. 6.13. En el ejemplo 5C computamos la densidad condicional de una probabilidad de éxito para una secuencia de ensayos cuando el primer N + M los ensayos resultaron en N Éxitos. ¿Cambiaría la densidad condicional si especificamos qué N de estos ensayos resultó en éxitos? 6.14. Supongamos que X Y Y son variables aleatorias geométricas independientes con el mismo parámetro p. un Sin ningún cálculo, ¿Cuál crees que es el valor de P{X = i|X + Y = n}? Pista: Imagine que usted continuamente voltear una moneda con probabilidad P de subir cabezas. Si la segunda cabeza se nTH Flip, ¿cuál es la función de masa de probabilidad de la época de la primera cabeza? b Verifique su conjetura en parte (a). 6,15. Considere una secuencia de ensayos independientes, siendo cada ensayo un éxito con probabilidad p. Dado que el kTH éxito se produce en el juicio n, demuestran que todos los posibles resultados de la primera N − 1 ensayos que consisten en K − 1 éxitos y N − K los fallos son igualmente probables. 6,16. Si X Y Y son variables aleatorias binomiales independientes con parámetros idénticos N Y p, muestran analíticamente que la distribución condicional de X Dado que X + Y = M es la distribución hipergeométrica. Además, dé un segundo argumento que produzca el mismo resultado sin ningún cálculo. Pista: Supongamos que 2N las monedas son Volteado.

p(i|j) = P(X = i|Y = j) Y q(j|i) = P(Y = j|X = i) Mostrar que ) P(X = i,Y = j)

p ij p ij y q(j|i)

6,19. Dejar X1,X2,X3 ser variables aleatorias continuas independientes y distribuidas idénticamente. Calcular ; ; c P{X1 > X2|X2 > X3}; De P{X1 > X2|X2 < X3}. 6,20. Dejar U denotan una variable aleatoria distribuida uniformemente sobre (0,1). Calcule la distribución condicional de U Dado que un U > a; b U < a; donde 0 < Un < 1. 6,21. Supongamos que W, la cantidad de humedad en el aire en un día determinado, es una variable aleatoria gamma con parámetros (t,B. Es decir, su densidad es f 0. Supongamos también que dado que En = w, el número de accidentes durante ese día — llámeme N: tiene una distribución de Poisson con w. Mostrar que la distribución

condicional de En Dado que N = N es la distribución gamma con parámetros (T + n,G N 1). 6,22. Dejar En ser una variable aleatoria gamma con parámetros (t,B, y suponga que condicional en En = w,X1,X2,...,XN son variables aleatorias exponenciales independientes con Tasa w. Mostrar que la distribución condicional de En Dado que X1 = x1,X2 = x2,...,XN = xN es gamma con Parame-

Inversa . 6,23. Una matriz rectangular de Mn números dispuestos en N filas, cada una de las cuales consiste M columnas, se dice que contiene un saddlepoint Si hay un número que es tanto el mínimo de su fila y el máximo de su columna. Por ejemplo, en la matriz 1 0

3 −2

2 6

.5

12

3

el número 1 en la primera fila, la primera columna es un punto de saddlepoint. La existencia de un punto de saddlepoint es de importancia en la teoría de los juegos. Considere una matriz rectangular de números como se describió anteriormente y suponga que hay dos individuos, Un Y B— que están reproduciendo el siguiente juego: Un es elegir uno de los números 1, 2,...,N Y B uno de los números 1, 2,...,m. Estas opciones se anuncian simultáneamente, y si Un Eligió me Y B Eligió jEntonces Un gana de B la cantidad especificada por el número en el iésima fila, jcolumna de la matriz. Ahora Supongamos que la matriz contiene un punto de saddlepoint, digamos el número de la fila R y la columna k— Llame a este número xRk. Ahora, si el jugador Un elige fila r, entonces ese jugador puede garantizarse una victoria de al menos xRk (ya que xRk es el número mínimo en la fila r). Por otro lado, si el jugador B elige la columna k, entonces él puede garantizar que perderá no más de xRk (ya que xRk es el número máximo en la columna k). Por lo tanto, como Un tiene una forma de jugar que le garantiza una victoria de xRk y como B tiene una forma de jugar que garantiza que perderá no más de xRk, parece razonable tomar estas dos estrategias como óptimas y declarar que el valor del juego al jugador Un Es xRk. Si el Nm los números en la matriz rectangular descrita se eligen independientemente de una distribución continua arbitraria, ¿cuál es la probabilidad de que la matriz resultante contenga un punto de sillín? 6,24. Si X es exponencial con la tasa λEncontrar P{[X] = n,X − [X] ... x}dondex] se define como el número entero

más grande menor o igual que x. ¿Puede concluir que [X] y X − [X] son independientes? 6,25. Supongamos que F(x) es una función de distribución acumulativa. Muestre que (a) Fn(x) y b) 1 − [1 − F(x)]N también son funciones de distribución acumulativas N es un entero positivo. Pista: Deje que X1,...,XN ser variables aleatorias independientes que tengan la función de distribución común F. Definir variables aleatorias Y Y Z en términos de la Xme Para P{Y ... x} = Fn(x) Y P{Z ... x} = 1 − [1 − F(x)]n. 6,26. Muestre que si N las personas se distribuyen al azar a lo largo de una carretera L millas de largo, entonces la probabilidad de que no 2 personas son menos de una distancia D millas de distancia es cuando D ... L/(N − 1), [1 −N − 1)D/L]n. Y si D > L/(N − 1)? 6,27. Establezca la ecuación (6,2) diferenciando la ecuación (6,4). 6,28. Mostrar que la mediana de una muestra de tamaño 2N + 1 de una distribución uniforme en (0, 1) tiene una distribución beta con parámetros (N + 1 N + 1). 6,29. Verifique la ecuación (6,6), que da la densidad de la articulación de X(i) Y X(j). 6,30. Calcule la densidad del rango de una muestra de tamaño N de una distribución continua con función de densidad f. ... 6,31. Dejar X(1) ... X(2) ··· ... X(n) ser los valores ordenados de N variables aleatorias uniformes independientes (0,1). Problemas y ejercicios de autoprueba Pruebe que durante 1 ... K ... N + 1 P{X(k) − X(k−1) > t} = (1 − t)n Donde X(0) K 0X(n+1) K t. 6,32. Dejar X1,...,XN ser un conjunto de variables aleatorias continuas independientes y distribuidas idénticamente que tienen función de distribución F, y deje que X(i),me = 1...,N denotan sus valores ordenados. Si X, independiente del Xi,me = 1...,n, también tiene distribución FDeterminar un P{X > X(n)}; { } , 1 ... me < J ... n.

6,33. Dejar X1,...,XN ser independientes y distribuidas idénticamente variables aleatorias con función de distribución F y la densidad f. La cantidad M K [X(1) + X(n)]/2, definida como el promedio de los valores más pequeños y X1,...,Xn, se denomina Medios de la secuencia. Mostrar que su función de distribución es m

[F(2M − x) − F(x)]n−1f(x)Dx

FM(m) = n* −q

6,34. Dejar X1,...,XN ser uniformes independientes (0,1) variables aleatorias. Dejar R = X(n) − X(1) denotan el rango y M = [X(n) + X(1)]/2 el rango medio de X1,...,Xn. Calcule la función de densidad de la articulación R Y M. 6,35. Si X Y Y son variables aleatorias normales estándar independientes, determinan la función de densidad X U=X V= Y A continuación, utilice el resultado para mostrar que X/Y tiene un Distribución Cauchy.

PROBLEMAS Y EJERCICIOS DE AUTOPRUEBA

6,1. Cada tiro de una muerte injusta aterriza en cada uno de los números impares 1, 3, 5 con probabilidad C y en cada uno de los números pares con probabilidad 2C. (a) Encontrar C. (b) Supongamos que el dado es sacudido. Dejar X igual a 1 si el resultado es un número par, y dejar que sea 0 de lo contrario. Además, deje que Y igual a 1 si el resultado es un número mayor de tres y (d) Encuentre la probabilidad de que 4 de los resultados sean uno o dos, 4 sean tres o cuatro, y 4 sean cinco o seis. (e) Encontrar la probabilidad de que al menos 8 de los lanzamientos aterrizan en números pares. 6,2. La función de masa de probabilidad conjunta de las variables aleatorias X, Y, Z Es (a) Encontrar C.

c

que sea 0 de lo contrario. Encuentre el prob- P capacidad de la función de masa de X Y Y. Supongo Ahora que se hacen 12 lanzamientos independientes Buscar (a) E[Xyz] y b) E[Xy + Xz + Yz]. 6,3. La del dado. Encuentre la probabilidad de que cada uno de los seisdensidad articular de X Y Y es dada por resultados se produzca exactamente dos veces. e f(x,y) = C(y − x) −y − y < X < y, 0
(b) Encuentre la función de densidad de X. c Encuentre la función de densidad de Y. De Encontrar E[X]. Y Encontrar E[Y]. 6,4. Dejar R = r1 + ... + rk, donde todos los rme son enteros positivos. Argumentar que si X1,...,XR tiene una distribución multinomial, entonces también lo hace Y1,...,YK donde, con r0 = 0 ri−1+ri

Yi

XJ ,

me ... k

Es decir Y1 es la suma de la primera r1 Dela X es la suma de la siguiente r2, y así sucesivamente. 6,5. Supongamos que X, YY Z son variables aleatorias independientes que tienen igual probabilidad de ser 1 o 2. Encontrar la función de masa de probabilidad de (a) Xyz, (b) Xy + Xz + Yz, y (c) X2 + Yz. 6,6. Dejar X Y Y ser variables aleatorias continuas con la función de densidad de la articulación x =

+ Cy

0 < X < 1, 1 < y < 5

f(x,y)5 ⎩0

Lo contrario

Donde C es una constante. (a) ¿Cuál es el valor de c? (b) Son X Y Y ¿Independiente? c Encontrar P{X + Y > 3}. 6,7. La función de densidad conjunta de X Y Y Es Xy f(x,y) = % 0 (a) (b) (d) (e)

0 < X < 1, 0 < y < 2 Lo contrario

Son X Y Y ¿Independiente? Encuentre la función de densidad de X. c Encuentre la función de densidad de Y. Encuentre la función de distribución conjunta. Encontrar E[Y].

Sección 7,2

Expectativa de sumas de RVariables de Andom

378

(f) Encontrar P{X + Y < 1}. 6.8. Considere dos componentes y tres tipos de choques. Un choque de tipo 1 hace que el componente 1 falle, un choque de tipo 2 hace que el componente 2 falle y un choque de tipo 3 hace que los componentes 1 y 2 fallen. Los tiempos hasta que los choques 1, 2 y 3 ocurren son variables aleatorias exponenciales independientes con tasas respectivas λ 1,λ2, Y λ3. Dejar Xme indican el tiempo en el que el componente me Falla me = 1, 2. las variables aleatorias X1,X2 se dice que tienen una distribución exponencial bivariada conjunta. Encontrar P{X1 > s,X2 > t}. 6.9. Considere un directorio de anuncios clasificados que consiste en M páginas, donde M es muy grande. Supongamos que el número de anuncios por página varía y que su único método para averiguar cuántos anuncios hay en una página especificada es contar. Además, supongamos que hay demasiadas páginas para que sea factible hacer un recuento completo del número total de anuncios y que su objetivo es elegir un anuncio de directorio de tal manera que cada uno de ellos tiene la misma oportunidad de ser seleccionado. un Si eliges aleatoriamente una página y luego eliges aleatoriamente un anuncio de esa página, ¿eso satisfaría tu objetivo? ¿Por qué o por qué no? Dejar n(i) denotan el número de anuncios en la página i,me = 1...,m, y Supongamos que, mientras que estas cantidades son desconocidas, podemos suponer que son todos menos o igual a un valor especificado n. Considere el siguiente algoritmo para elegir un anuncio. Paso 1. Elija una página al azar. Supongamos que es la página X. Determinar n(X) contando el número de anuncios en la página X. Paso 2. Página "Aceptar" X con probabilidad n(X)/n. Si la página X se acepte, vaya al paso 3. De lo contrario, regrese al paso 1. Paso 3. Elija aleatoriamente uno de los anuncios en la página X.

(b) (c) (d) (e) (f)

Llame a cada pase del algoritmo a través del paso 1 una iteración. Por ejemplo, si se rechaza la primera página elegida aleatoriamente y la segunda aceptada, de lo que habríamos necesitado 2 iteraciones del algoritmo para obtener un anuncio. ¿Cuál es la probabilidad de que una sola iteración del algoritmo resulte en la aceptación de un anuncio en la página i? ¿Cuál es la probabilidad de que una sola iteración del algoritmo resulte en la aceptación de un anuncio? ¿Cuál es la probabilidad de que el algoritmo pase por K iteraciones, aceptando el jTH anuncio en la página me en la iteración final? ¿Cuál es la probabilidad de que el jTH anuncio en la página me es el anuncio obtenido del algoritmo? ¿Cuál es el número esperado de iteraciones tomadas por el algoritmo?

6,10. Las partes "aleatorias" del algoritmo en el problema de auto-prueba 8 se pueden escribir en términos de los valores generados de una secuencia de variables aleatorias uniformes independientes (0,1), conocidas como números aleatorios. Conx] definido como el número entero más grande menor o igual que x, el primer paso puede escribirse de la siguiente manera: Paso 1. Generar una variable aleatoria uniforme (0,1) U. Dejar X = [Él] + 1, y determinar el valor de n(X). (a) Explique por qué lo anterior equivale al paso 1 del problema 8. Pista: ¿Cuál es la función de masa de probabilidad de X? (b) Escriba los pasos restantes del algoritmo en un estilo similar. 6,11. Dejar X1,X2,... ser una secuencia de variables aleatorias uniformes independientes (0,1). Para una constante fija c, defina la variable aleatoria N Por N = Min{N : XN > c} Es N independiente de XN? Es decir, ¿sabe el valor de la primera variable aleatoria que es mayor que C afectar a la distribución de probabilidad cuando se produce esta variable aleatoria? Dé una explicación intuitiva para su respuesta. 6,12. El Diana que acompaña es un cuadrado cuyos lados son de la longitud 6:

Sección 7,2

Expectativa de sumas de RVariables de Andom

379

10 20 30

Los tres círculos están centrados en el centro del tablero y son de radios 1, 2 y 3, respectivamente. Dardos aterrizaje dentro del círculo de radio 1 puntuación 30 puntos, los que aterrizan fuera de este círculo, pero dentro del círculo de radio 2, valen 20 puntos, y aquellos que aterrizan fuera del círculo de radio 2, pero dentro del círculo de radio 3, valen 10 puntos. Los dardos que no aterrizan dentro del círculo de radio 3 no puntuan ningún punto. Suponiendo que cada dardo que lanzas, independientemente de lo ocurrido en tus lanzamientos anteriores, aterriza en un punto uniformemente distribuido en la Plaza, encuentra las probabilidades de los eventos acompañantes: (a) Usted tiene 20 en un tiro del dardo. (b) Usted anotar al menos 20 en un tiro del dardo. (c) Usted puntuación 0 en un tiro del dardo. (d) El valor esperado de su puntuación en un tiro del dardo. (e) Los dos primeros tiros tienen una puntuación de al menos 10. f Su puntuación total después de dos tiros es de 30. 6,13. Un modelo propuesto para el baloncesto de la NBA supone que cuando dos equipos con aproximadamente el mismo récord juegan entre sí, el número de puntos marcados en un trimestre por el equipo local menos el número Problemas y ejercicios de autoprueba marcados por el equipo visitante es aproximadamente una variable aleatoria normal con la media 1,5 y la varianza 6. Además, el modelo supone que los diferenciales de puntos para los cuatro trimestres son independientes. Suponga que este modelo es correcto. (a) ¿Cuál es la probabilidad de que el equipo local gane? (b) ¿Cuál es la probabilidad condicional de que el equipo local gane, dado que está detrás de 5 puntos en el medio tiempo? (c) ¿Cuál es la probabilidad condicional de que el equipo local gane, dado que está adelantado por 5 puntos al final del primer trimestre? 6,14. Dejar N ser una variable aleatoria geométrica con parámetro p. Supongamos que la distribución condicional de X Dado que N = N es la distribución gamma con parámetros N Y λ. Encuentre la función de masa de probabilidad condicional de N Dado que X = x. 15. Dejar X Y Y ser uniformes independientes (0,1) variables aleatorias. (a) Encontrar la densidad de la articulación de U = X,V = X + Y. (b) Utilice el resultado obtenido en la parte (a) para calcular la función de densidad de V. 6.16. Usted y otras tres personas deben realizar ofertas para un objeto, con la alta puja ganadora. Si usted gana, usted planea vender el objeto inmediatamente por 10000 dólares. ¿Cuánto debe usted ofertar para maximizar su beneficio esperado si usted cree que las pujas de los otros pueden considerarse independientes y distribuidas uniformemente entre 7 y 11000 dólares? 6.17. Encuentre la probabilidad de que X1,X2,...,XN es una permutación de 1, 2,...,nCuando X1,X2,...,XN son independientes y (a) cada uno es igualmente probable que sea cualquiera de los valores 1,..., n; (b) cada uno tiene la función de la masa de la probabilidad P{Xme = j} = pj,J = 1..., n. 6,18. Dejar X1,...,XN Y Y1,...,YN ser vectores aleatorios independientes, con cada vector siendo un orden aleatorio de K unos y N − K Ceros. Es decir, sus funciones de masa de probabilidad conjunta son P{X1 = i1,...,XN = in}=P{Y1 = i1,...,YN = in} n

Sección 7,2

Expectativa de sumas de RVariables de Andom

, ij

380

iJ = k

Dejar n

N denotan el número de coordenadas en las que los dos vectores tienen valores diferentes. Además, deje que M denotan el número de valores de me para los que Xme = 1Yme = 0. (a) Relacionar N Para M. (b) ¿Cuál es la distribución de M? (c) Encontrar E[N]. (d) Encontrar var(N). ∗6,19. Dejar Z1,Z2,...,ZN ser variables aleatorias normales estándar independientes, y dejar que j

Sj ZEn=1 (a) ¿Cuál es la distribución condicional de SN Dado que SK = yPara K = 1...,n? (b) Muestre que, por 1 ... K ... n, la distribución condicional de SK Dado que SN = X es normal con la media Xk/N y la varianza k(N − k)/n. 6,20. Dejar X1,X2,... ser una secuencia de variables aleatorias continuas independientes y distribuidas idénticamente. Encontrar (a) P{X6 > X1|X1 = Max(X1,...,X5)} (b) P{X6 > X2|X1 = Max(X1,...,X5)}

CHAPTER7

Propiedades de la expectativa 7,1 INTRODUCCIÓN 7,2 EXPECTATIVA DE SUMAS DE VARIABLES ALEATORIAS 7,3 MOMENTOS DEL NÚMERO DE EVENTOS QUE OCURREN 7,4 COVARIANZA, VARIANZA DE SUMAS Y CORRELACIONES 7,5 EXPECTATIVA CONDICIONAL 7,6 EXPECTATIVA CONDICIONAL Y PREDICCIÓN 7,7 FUNCIONES DE GENERACIÓN DE MOMENTOS 7,8 PROPIEDADES ADICIONALES DE LAS VARIABLES ALEATORIAS NORMALES 7,9 DEFINICIÓN GENERAL DE EXPECTATIVA

7,1

Introducción

Sección 7,2

Expectativa de sumas de RVariables de Andom

381

En este capítulo, desarrollamos y explotamos propiedades adicionales de los valores esperados. Para comenzar, recuerde que el valor esperado de la variable aleatoria X se define por E x

Donde X es una variable aleatoria discreta con función de masa de probabilidad p (x), y por q E[X] = *

Xf(x)Dx −q

Cuando X es una variable aleatoria continua con función de densidad de probabilidad f (x). Desde y [X] es un promedio ponderado de los posibles valores de X, se deduce que si X debe mentir entre Un Y b, entonces también debe su valor esperado. Es decir, si P{Un ... X ... b} = 1 Entonces Un ... E[X] ... b Para comprobar la instrucción anterior, suponga que X es una variable aleatoria discreta para la que P{Un ... X ... b} = 1. dado que esto implica que p(x) = 0 para todos X fuera del intervalo [a, b], se deduce que E x:p(x)>0

Ú x:p(x)>0

297 x:p(x)>0

=a De la misma manera, se puede demostrar que E[X] ... b, por lo que el resultado sigue para las variables aleatorias discretas. Como la prueba en el caso continuo es similar, el resultado sigue. 7,2EXPECTATIVA DE SUMAS DE VARIABLES ALEATORIAS Para un análogo bidimensional de proposiciones 4,1 del capítulo 4 y 2,1 del capítulo 5, que dan las fórmulas computacionales para el valor esperado de una función de una variable aleatoria, suponga que X Y Y son variables aleatorias y G es una función de dos variables. Entonces tenemos el siguiente resultado.

Sección 7,2

Expectativa de sumas de RVariables de Andom

382

Propuesta 2,1. Si X Y Y tienen una función de masa de probabilidad conjunta p(x,y)Entonces E[g(X,Y) y

x

Si X Y Y tienen una función de densidad de probabilidad conjunta f(x,y)Entonces Q

E[g(X,Y)] = *

*

g(x,y)f(x,y)DXDY

−q−q

Dénos una prueba de la Proposición 2,1 cuando las variables aleatorias X Y Y son conjuntamente continuos con la función de la densidad común f(x,y) y cuando g(X,Y) es una variable aleatoria no negativa. Kuz g(X,Y) el 0, tenemos, por Lemma 2,1 del capítulo 5, que q

E[g(X,Y)]*

P{g(X,Y) > t}Alemán 0

Escritura P{g(X,Y) > t} = * *

f(x,y)dydx (x,y):g(x,y)>t

muestra que q

E[g(X,Y)]*

** 0

f(x,y)dydxdt (x,y):g(x,y)>t

Intercambiar el orden de integración da x,y)

E[g(X,Y) =f(x,y)DT

dydx

* * g(x,y)f(x,y)dydx

= x

y

Por lo tanto, el resultado se prueba cuando g(X,Y) es una variable aleatoria no negativa. El caso general entonces sigue como en el caso unidimensional. (Véanse los ejercicios teóricos 2 y 3 del capítulo 5.) EJEMPLO 2A Un accidente ocurre en un punto X que se distribuye uniformemente en un camino de longitud L. En el momento del accidente, una ambulancia está en un lugar Y que también se

Sección 7,2

Expectativa de sumas de RVariables de Andom

383

distribuye uniformemente en la carretera. Suponiendo que X Y Y son independientes, encuentran la distancia esperada entre la ambulancia y el punto del accidente. Solución. Necesitamos calcular E[|X − Y|]. Dado que la función de densidad conjunta de X Y Y Es 1 f(x,y) = L

2,

0 < X < L,

0
se desprende de la Proposición 2,1 que L

E[|X − Y|] = L

|X − y|dydx

Nwo L

x

L

|X − y|Dy = * (X − y)Dy + *

* 0

0

x2 =2+

x

L2 2

L2 =2

(y − x)Dy

x2 − 2 − x(L − x)

2

+x

− Xl

Por lo tanto E[|X − Y|]

Dx L .

Para una aplicación importante de la Proposición 2,1, supongamos que E[X] y E[Y] son finitos y dejan g(X,Y) = X + Y. Entonces, en el caso continuo, Q

E[X + Y] = *−qq*− QQ(X + y)f(x,y)DXDYQ

=

+ *−qq*− q Xf(x,y)dydxQ *− q*− q Yf(x,y)DXDY

= *−Q YfY(y)Dy

Sección 7,2

Expectativa de sumas de RVariables de Andom

384

El mismo resultado se sostiene en general; así, siempre que E[X] y E[Y] son finitos, E[X + Y] = E[X] + E[Y]

(2,1)

EJEMPLO 2B Supongamos que, para las variables aleatorias X Y Y, X Efectos Y Es decir, para cualquier resultado del experimento de probabilidad, el valor de la variable aleatoria X es mayor o igual que el valor de la variable aleatoria Y. Desde X Efectos y es equivalente a la desigualdad X − Y Efectos 0, se deduce que E[X − Y] Efectos 0, o, equivalentemente, E[X] Efectos E[Y] . Usando la ecuación (2,1), podemos demostrar por una prueba simple de la inducción que si E[Xi] es finito para todos me = 1...,nEntonces E[X1 + ··· + Xn] = E[X1] + ··· + E[Xn]

(2,2)

La ecuación (2,2) es una fórmula extremadamente útil cuya utilidad se ilustrará ahora mediante una serie de ejemplos. EJEMPLO 2C la media de la muestra Dejar X1,...,XN ser independientes y distribuidas idénticamente variables aleatorias con función de distribución F y el valor esperado μ. Tal secuencia de variables aleatorias se dice que constituye una muestra de la distribución F. La cantidad n

Xi X N i=1 se denomina media de la muestra. Calcular E[X]. Solución.

E[X] = E

=n i

⎣i=1 n

1



Sección 7,2

Expectativa de sumas de RVariables de Andom

385

=n =M

Desde E[Xi] K m

Es decir, el valor esperado de la media de la muestra es μ, la media de la distribución. Cuando la distribución significa M se desconoce, la media de la muestra se utiliza a menudo en las estadísticas para calcula. . EJEMPLO de desigualdad de Boole 2D Dejar A1,...,AN denotan eventos y definen las variables del indicador Xi,me = 1...,nPor Xi Si Ame ocurre de otra manera Dejar n

X

Xi

Así X indica el número de eventos Ame que ocurren. Por último, deje que Si X Y Efectos 1 Lo contrario Así Y es igual a 1 si al menos uno de los Ame se produce y es 0 en caso contrario. Ahora, es inmediato que X Efectos Y Así E[X] Efectos E[Y] Pero desde n

n

E Y

E[Y] = P{al menos uno de los Ame Ocurrir} = P obtenemos la desigualdad de Boole, a saber, n

P . i=1

i=1

...

Sección 7,2

Expectativa de sumas de RVariables de Andom

386

Los siguientes tres ejemplos muestran cómo se puede utilizar la ecuación (2,2) para calcular el valor esperado de las variables binomiales, binomiales negativas e hipergeométricas aleatorias. Estas derivaciones deben compararse con las presentadas en el capítulo 4. EJEMPLO 2e expectativa de una variable aleatoria binomial Dejar X ser una variable aleatoria binomial con parámetros N Y p. Recordando que esa variable aleatoria representa el número de éxitos en N pruebas independientes cuando cada ensayo tiene probabilidad P de ser un éxito, tenemos que X = X1 + X2 + ··· + Xn Donde 1 Xme

Si el iel juicio es un éxito

= %0

Si el iel juicio es un fracaso

Ahí Xme es una variable aleatoria de Bernoulli que tiene expectativa E[Xi] = 1(p) + 0(1 − p). Así E[X] = E[X1] + E[X2] + ··· + E[Xn] = Eg

.

EJEMPLO 2F media de una variable aleatoria binomial negativa Si los ensayos independientes tienen una probabilidad constante P de ser exitosos, determinar el número esperado de ensayos requeridos para amasar un total de R Éxitos. Solución. Si X indica el número de ensayos necesarios para amasar un total de R éxitos, entonces X es una variable aleatoria binomial negativa que puede ser representada por X = X1 + X2 + ··· + Xr Donde X1 es el número de ensayos requeridos para obtener el primer éxito, X2 el número de ensayos adicionales hasta que se obtenga el segundo éxito, X3 el número de ensayos adicionales hasta que se obtenga el tercer éxito, etc. Es decir Xme representa el número de ensayos adicionales requeridos después de la (me − 1) éxito de St hasta un total de me los éxitos se acumulan. Un poco de pensamiento revela que cada una de las variables aleatorias Xme es una variable aleatoria geométrica con parámetro p. Por lo tanto, a partir de los resultados del ejemplo 8B del capítulo 4, E[Xi] = 1/p,me = 1, 2,...,r; Así r E[X] = E[X1] + ··· + E[Xr] =

. p

EJEMPLO 2g media de una variable aleatoria hipergeométrica Si N las bolas se seleccionan aleatoriamente de una urna que contiene N bolas de los cuales M son blancos, encuentra el número esperado de bolas blancas seleccionadas. Solución. Dejar X indican el número de bolas blancas seleccionadas y representan X Como

Sección 7,2

Expectativa de sumas de RVariables de Andom

387

X = X1 + ··· + Xm Donde 1 Xme

Si el ibola blanca seleccionada

= %0

Lo contrario

Nwo E[Xi] = P{Xme = 1} = P{ibola blanca

seleccionada} n =N

Ahí Mn E[X] = E[X1] + ··· + E[Xm] = N También podríamos haber obtenido el resultado anterior mediante el uso de la representación alternativa X = Y1 + ··· + Yn Donde 1 Si el ila bola seleccionada es blanca Yme

= %0

Lo contrario

Dado que el ila bola seleccionada es igualmente probable que N bolas, se deduce que m E[Yi] = N Así Nm E[X] = E[Y1] + ··· + E[Yn] =

. N

EJEMPLO 2H número esperado de coincidencias Supongamos que N la gente tira sus sombreros en el centro de una habitación. Los sombreros se mezclan, y cada persona selecciona aleatoriamente uno. Encuentra el número esperado de personas que seleccionan su propio sombrero. Solución. Dejar X denotan el número de coincidencias, podemos computar E[X] más fácilmente escribiendo X = X1 + X2 + ··· + XN Donde 1Si el ila persona selecciona su propio sombrero Xme

= %0

Lo contrario

Sección 7,2

Expectativa de sumas de RVariables de Andom

388

Puesto que, por cada iLla ipersona es igualmente probable que seleccione N Sombreros 1 E[Xi] = P{Xme = 1} = N Así E Por lo tanto, en promedio, exactamente una persona selecciona su propio sombrero.

.

EJEMPLO 2i cupón-recogiendo problemas Supongamos que hay N diferentes tipos de cupones, y cada vez que uno obtiene un cupón, es igualmente probable que sea uno de los N Tipos. Encontrar el número esperado de cupones uno necesita amasar antes de obtener un conjunto completo de al menos uno de cada tipo. Solución. Dejar X indican el número de cupones recolectados antes de que se logre un conjunto completo. Calculamos E[X] utilizando la misma técnica que usamos para calcular la media de una variable aleatoria binomial negativa (ejemplo 2F). Es decir, definimos Xi,me = 0, 1,...,N − 1 para ser el número de cupones adicionales que se deben obtener después de me se han recopilado tipos distintos para obtener otro tipo distinto, y observamos que X = X0 + X1 + ··· + XN−1 Cuando me tipos distintos de cupones ya se han recogido, un nuevo cupón obtenido será de un tipo distinto con probabilidad (N − i)/N. Por lo tanto Nk−1 P{Xme = k} =

K Efectos 1

o, en otras palabras, Xme es una variable aleatoria geométrica con parámetro (N − i)/N. Ahí N −

E[Xi] = N

i

implicando que N E[X] = 1 +

=N

N



+ N

1

N

N

.

EJEMPLO 2J Diez cazadores están esperando a que los patos vuelen. Cuando una bandada de patos vuela por encima, los cazadores disparan al mismo tiempo, pero cada uno elige su objetivo al azar, independientemente de la Otros. Si cada cazador de forma independiente golpea a su

Sección 7,2

Expectativa de sumas de RVariables de Andom

389

objetivo con probabilidad p, calcule el número esperado de patos que escapan sin daño cuando una bandada de tamaño 10 vuela sobre la cabeza. Solución. Dejar Xme igual a 1 si el iel pato se escapa sin herir y 0 de lo contrario, por me = 1 2...10. El número esperado de patos para escapar se puede expresar como E[X1 + ··· + X10] = E[X1] + ··· + E[X10] Para calcular E[Xi] = P{Xme = 1}, observamos que cada uno de los cazadores, independientemente, golpear el iTH pato con probabilidad p/10, por lo que 10

P Ahí

E

.

EJEMPLO 2K número esperado de corridas Supongamos que una secuencia de N 1 y M 0 es permutado aleatoriamente para que cada uno de los (N + m)!/(n!m!) posibles arreglos es igualmente probable. Cualquier cadena consecutiva de 1 ' s se dice que constituye una ejecución de 1 ' s-por ejemplo, si N = 6M = 4, y el orden es 1, 1, 1, 0, 1, 1, 0, 0, 1, 0, entonces hay 3 corridas de 1 ' s-y estamos interesados en calcular el número medio de tales corridas. Para calcular esta cantidad, deje que 1Si una corrida de 1 ' s comienza en el iposición TH Ime

= %0 Lo contrario

Por lo tanto R(1), el número de corridas de 1, puede expresarse como n+m

R

Mei i=1

y sigue que n+m

E

Y[Ii]

Nwo E[I1] = P{"1" en la posición 1} n

Sección 7,2

Expectativa de sumas de RVariables de Andom

390

=N+m y por 1 < me ... N + m, E[Ii] = P{"0" en posición me − 1, "1" en posición i} m n =N+Mn+M−1 Ahí n E[R(1)] = n

Nm + m

+ (N + M − 1) (n

m)(n

m

++ 1)



Semejantemente E[R(0)], el número esperado de corridas de 0 ' s, es m +

E[R(0)] =

+

Nm +

n m n y el número esperado de ejecuciones de cualquier tipo es

m

2nm E[R(1) + R(0)] = 1 + n

+m

.

EJEMPLO 2L una caminata aleatoria en el avión Considere una partícula inicialmente ubicada en un punto dado en el plano, y suponga que sufre una secuencia de pasos de longitud fija, pero en una dirección completamente aleatoria. En concreto, supongamos que la nueva posición después de cada paso es una unidad de distancia desde la posición anterior y en un ángulo de orientación desde la posición anterior que se distribuye uniformemente sobre (0,2π). (Consulte la figura 7,1.) Calcule el cuadrado esperado de la distancia desde el origen después N Pasos. 2

1 2

1 1

0

1

0

= posición inicial

1

= posición después del primer paso = posición después del segundo paso

2

Sección 7,2

Expectativa de sumas de RVariables de Andom

391

Solución. Dejar queXi,Yi) denotan el cambio de posición en el ipaso, me = 1...,n, en coordenadas rectangulares, tenemos Xme = Cuerpoθi Yme = sinθi Donde θi,me = 1...,n, son, por supuesto, uniforme independiente (0,2π) variables aleatorias. Debido a que la posición después N pasos tiene coordenadas rectangulares se deduce que D2, el cuadrado de la distancia desde el origen, es dado por

i=1



2 n

2 n

D=

Xi

,

Yi

⎝i=1 ⎠

n

YiYj) i=1

iZj

iZj

donde cos2 θme + sin2 θme = 1. tomar las expectativas y utilizar la independencia de θme Y θJ Cuando me Z J y el hecho de que 2π

2πE[Cuerpoθi] = * CuerpoNiebla = sin2P − sin0 = 0 0 2π

2πE[sinθi] = *

sinNiebla = cos0 − CoS2p = 0 0

llegamos a E[D2] = n

.

EJEMPLO 2m analizando el algoritmo de ordenación rápida Supongamos que se nos presenta un conjunto de N valores distintos x1,x2,...,xN y que deseamos ponerlos en orden creciente, o como se dice comúnmente, a Tipo Ellos. Un procedimiento eficaz para lograr esta tarea es el algoritmo de ordenación rápida, que se define de la siguiente manera. Cuando N = 2, el algoritmo compara los dos valores y luego los coloca en el orden apropiado. Cuando N > 2, uno de los elementos es elegido aleatoriamente — digamos que es xi— y luego todos los demás valores se comparan con xi. Los más pequeños que xme se colocan en un soporte a la izquierda de xme y los más grandes

Sección 7,2

Expectativa de sumas de RVariables de Andom

392

que xme se colocan en un soporte a la derecha de xi. A continuación, el algoritmo se repite en estos corchetes y continúa hasta que todos los valores se han ordenado. Por ejemplo, supongamos que deseamos ordenar los siguientes 10 valores distintos: 5, 9, 3, 10, 11, 14, 8, 4, 17, 6 Empezamos eligiendo uno de ellos al azar (es decir, cada valor tiene probabilidad de ser elegida). Supongamos, por ejemplo, que se elige el valor 10. A continuación, comparamos cada uno de los otros con este valor, poniendo en un corchete a la izquierda de 10 todos esos valores más pequeños que 10 y a la derecha todos los más grandes. Esto da {5, 9, 3, 8, 4, 6}10{11, 14, 17} Ahora nos enfocamos en un conjunto entre corchetes que contiene más de un valor único — digamos el que está a la izquierda de lo anterior — y elegimos aleatoriamente uno de sus valores — digamos que se elige 6. Comparando cada uno de los valores en el soporte con 6 y colocando los más pequeños en un nuevo soporte a la izquierda de 6 y los más grandes en un soporte a la derecha de 6 da {5, 3, 4}6{9, 8}10{11, 14, 17} Si ahora consideramos el corchete más a la izquierda, y elegimos aleatoriamente el valor 4 para la comparación, la siguiente iteración produce {3}4{5}6{9, 8}10{11, 14, 17} Esto continúa hasta que no hay ningún conjunto entre corchetes que contenga más de un valor único. Si dejamos que X denotan el número de comparaciones que toma el algoritmo de ordenación rápida para ordenar N números distintos, entonces E[X] es una medida de la efectividad de este algoritmo. Para calcular E[X], primero expresaremos X como una suma de otras variables aleatorias de la siguiente manera. Para comenzar, dé los nombres siguientes a los valores que se ordenarán: Deje 1 soporte para el más pequeño, deje 2 para el siguiente más pequeño, y así sucesivamente. Entonces, por 1 ... me < J ... nDejar I(i,j) igual a 1 si me Y J se comparan siempre directamente, y lo dejaron igual 0 de otra manera. Con esta definición, se deduce que X

Me(i,j) i=1 j=i+1

implicando que ⎡n−1

E

n−1

n

n



Sección 7,2

Expectativa de sumas de RVariables de Andom

393

{me Y J se comparan nunca} i=1 j=i+1

Para determinar la probabilidad de que me Y J se comparan, observe que los valores i,me + 1...,J − 1J inicialmente estará en el mismo soporte (ya que todos los valores están inicialmente en el mismo soporte) y permanecerá en el mismo soporte si el número elegido para la primera comparación no está entre me Y j. Por ejemplo, si el número de comparación es mayor que j, entonces todos los valores i,me + 1...,J − 1J irá en un corchete a la izquierda del número de comparación, y si es más pequeño que i, a continuación, todos van en un soporte a la derecha. Así todos los valores i,me + 1...,J − 1J permanecerá en el mismo soporte hasta la primera vez que uno de ellos se elija como valor de comparación. En ese momento, todos los demás valores entre me Y J se comparará con este valor de comparación. Ahora, si este valor de comparación no es ni me Ni j, a continuación, en comparación con él, me va a entrar en un corchete izquierdo y J en un soporte derecho, y por lo tanto me Y J estarán en diferentes soportes y así nunca se compararán. Por otro lado, si el valor de comparación del conjunto i,me + 1...,J − 1J es o bien me O j, entonces habrá una comparación directa entre me Y j. Ahora, dado que el valor de comparación es uno de los valores entre me Y j, se deduce que es igualmente probable que J − me + 1 valores, y por lo tanto la probabilidad de que sea me O J es 2/(J − me + 1). por lo tanto, podemos concluir que 2 − +

P{me Y J se comparan nunca} = j

i

1

Y n−1

n

2

E Para obtener una aproximación aproximada de la magnitud de E[X] cuando N es grande, podemos aproximar las sumas por integrales. Nwo

n

22 Dx J − Ii + 1

= L Así n−1

Sección 7,2

Expectativa de sumas de RVariables de Andom

394

(N − me + 1)

E

L

Dx n

= 2* Registro(y)Dy

L Así vemos que cuando N es grande, el algoritmo de ordenación rápida requiere, en promedio, aproximadamente 2N Registro(n) comparaciones para ordenar N valores distintos. . EJEMPLO 2N la probabilidad de una Unión de eventos Dejar A1,...AN denotan eventos y definen las variables del indicador Xi,me = 1...,nPor

Xme = %01otherwiseif Ame Ocurre

Ahora, tenga en cuenta que n

Xi)

= %10ifotherwise∪ Ame Ocurre

Ahí

Y Expandir el lado izquierdo de la fórmula anterior produce P

⎞ ⎡

Xme XiXjXK N

n

i<j

− · · · + (−1)n+1X1 ···Xn⎤

i<j
(2,3) ⎦

Sección 7,2

Expectativa de sumas de RVariables de Andom

395

Sin embargo 1 si Ame Ame Ame se produce 0 de lo contrario Xi1Xi2 ···XiK = 0

1

2

···

k

Así E[Xi1 ···Xik] = P(Ai1 ···Aik) Así, la ecuación (2,3) es apenas una declaración de la fórmula bien conocida para la Unión de acontecimientos: P

(AiAjAk) i

i<j

i<j
− · · · + (−1)n+1P(A1 ···An)

.

Cuando se trata de una colección infinita de variables aleatorias Xi,me Efectos 1, cada uno con una expectativa finita, no es necesariamente cierto que q

q

⎡⎤

E ]

(2,4) q

n

Para determinar cuándo (2,4) es válido, observamos que

Xi. Así n

i=1

→Q i=1



E⎡ ⎡⎤q

n

?

= Lim E n→q n

=E[Xi] N q i=1 q

]

(2,5)

i=1

Por lo tanto, la ecuación (2,4) es válida siempre que estemos justificados en intercambiar la expectativa y limitar las operaciones en la ecuación (2,5). Aunque, en general, este intercambio es No justificado, puede demostrarse que es válido en dos casos especiales importantes:

Sección 7,2

Expectativa de sumas de RVariables de Andom

396

1. Lla Xme son todas las variables aleatorias no negativas. (Es decir, P{Xme Efectos 0} = 1 para todos i.) q 2. E[|Xi|] = P. EJEMPLO 2o Considere cualquier variable aleatoria no negativa, con valores enteros X. Si, por cada me Efectos 1, definimos Xme = %0 si X < me 1 si X Efectos i Entonces q

X

q

Xi X

q

i=1

i=X+1

=X Por lo tanto, desde el Xme son todos no negativos, obtenemos q

E q

{X Efectos i} útil.

(2,6) una identidad

.

EJEMPLO 2P Supongamos que N elementos — llámeme 1, 2, ..., n: debe almacenarse en un equipo en forma de lista ordenada. Cada unidad de tiempo, se realizará una solicitud para uno de estos elementos,me ser solicitado, independientemente del pasado, con probabilidad P(i), me Efectos 1 1. suponiendo que se conocen estas probabilidades, lo que ordena minimiza me la posición media en la línea del elemento solicitado? Solución. Supongamos que los elementos están numerados para que P(1) el P(2) Ú · · Que P(n). Para mostrar que 1, 2, ..., N es el orden óptimo, deje X indican la posición del elemento solicitado. Ahora, bajo cualquier orden, digamos, Lla = i1,i2,...,in, n

PO{X Efectos k} = j=k

Sección 7,2

Expectativa de sumas de RVariables de Andom

397

n

Efectos j=k

=

P1,

2,...,n{X

Efectos

k}

Summing sobre K y el uso de la ecuación (2,6) produce Eo[X] Efectos E1, 2,...,n[X] mostrando así que ordenar los elementos en orden decreciente de la probabilidad de que se soliciten minimiza la posición esperada del elemento solicitado. . ∗7.2.1 Obtención de límites a partir de las expectativas mediante el método probabilístico El método probabilístico es una técnica para analizar las propiedades de los elementos de un conjunto introduciendo probabilidades en el conjunto y luego estudiando un elemento elegido de acuerdo con esas probabilidades. La técnica se vio anteriormente en el ejemplo 4L del capítulo 3, donde se utilizó para mostrar que un conjunto contenía un elemento que satisfizo una determinada propiedad. En esta subsección, mostramos cómo se puede utilizar a veces para enlazar funciones complicadas. Dejar F ser una función en los elementos de un conjunto finito S, y Supongamos que estamos interesados en M = MaxS f(s) s∈

Un límite inferior útil para M a menudo se puede obtener dejando S ser un elemento aleatorio de S para los que el valor esperado de f(S) es computable y, a continuación, señalando que M Efectos f(S) implica que M Efectos E[f(S)] con una desigualdad estricta si f(S) no es una variable aleatoria constante. Es decir E[f(S)] es un límite inferior en el valor máximo. EJEMPLO 2Q el número máximo de senderos hamiltonianos en un torneo Un torneo Round-Robin de N > 2 concursantes es un torneo en el que cada uno de los par de concursantes se juegan unos a otros exactamente una vez. Supongamos que los jugadores están numerados 1, 2, 3,...,n. La permutación i1,i2,...iN se dice que es un Sendero hamiltoniano Si i1 Late i2,i2 Late i3,...Y in−1 Late in. Un problema de algún interés es determinar el mayor número posible de caminos hamiltonianos. Como ilustración, supongamos que hay 3 jugadores. Por un lado, uno de ellos gana dos veces, luego hay un solo sendero hamiltoniano. (Por ejemplo, si 1 gana dos veces y 2 latidos 3, entonces el único camino hamiltoniano es 1, 2, 3.) Por otro lado, si cada uno de los jugadores gana una vez, que hay 3 caminos hamiltonianos. (Por ejemplo, si 1 beats 2, 2 beats 3, y 3 beats 1, entonces 1, 2, 3; 2, 3, 1; y 3, 1, 2, son todos hamiltonianos). Por lo tanto, cuando N = 3, hay un máximo de 3 caminos hamiltonianos.

Sección 7,2

Expectativa de sumas de RVariables de Andom

398

Ahora demostramos que hay un resultado del torneo que se traduce en más de n!/2n−1 Caminos hamiltonianos. Para comenzar, deje que el resultado del torneo especifique el resultado de cada uno de los

juegos jugados, y dejar que S denotan el conjunto de los

2 posibles resultados del torneo. Entonces, con f(s) definido como el número de caminos hamiltonianos que resultan cuando el resultado es s ∈ S, se nos pide que muestren que

Maxs f(s) 2 n−1

n! Efectos

Para mostrar esto, considere el resultado elegido aleatoriamente S que se obtiene cuando los resultados de la juegos son independientes, cada concursante es igualmente probable que gane cada encuentro. Para determinar la E[f(S)], el número esperado de caminos hamiltonianos resultantes del resultado S, número el n! permutaciones, y, por me = 1...,n!, Let 1 Si la permutación me es un hamiltoniano Xme

= %0

Lo contrario

Desde f

Xi i

se deduce que E i

Porque, por la supuesta independencia de los resultados de los juegos, la probabilidad de que cualquier permutación especificada es un hamiltoniano es (1/2)n−1, se deduce que E[Xi] = P{Xme = 1} = (1/2)n−1 Por lo tanto E[f(S)] = n!(1/2)n−1 Desde f(S) no es una variable aleatoria constante, la ecuación anterior implica que hay un resultado del torneo que tiene más de n!/2n−1 Caminos hamiltonianos. . EJEMPLO 2R Una arboleda de 52 árboles se arregla de manera circular. Si 15 ardillas viven en estos árboles, muestran que hay un grupo de 7 árboles consecutivos que juntos casa por lo menos 3 ardillas. Solución. Deje que el barrio de un árbol se compondrá de ese árbol junto con los próximos seis árboles visitados moviéndose en el sentido de las agujas del reloj. Queremos mostrar que, para cualquier elección de alojamiento de las 15 ardillas, hay un árbol que tiene al

Sección 7,2

Expectativa de sumas de RVariables de Andom

399

menos 3 ardillas que viven en su vecindario. Para mostrar esto, elija un árbol al azar y deje que X denotan el número de ardillas que viven en su vecindario. Para determinar la E[X], arbitrariamente numeran las 15 ardillas y para me = 1..., 15, deje 1 Xme

= %0

Si ardilla me vive en el vecindario del árbol elegido aleatoriamente Lo contrario

Kuz X

Xi

obtenemos que E Sin embargo, debido a que Xme será igual a 1 si el árbol elegido aleatoriamente es cualquiera de los 7 árboles que consisten en el árbol en el que ardilla me vive junto con sus 6 árboles vecinos cuando se mueven en la dirección contraria a las agujas del reloj, E Por consiguiente E mostrando que existe un árbol con más de 2 ardillas viviendo en su vecindario. ∗7.2.2 La identidad máxima – Minimums

.

Comenzamos con una identidad que relaciona el máximo de un conjunto de números con los mínimos de los subconjuntos de estos números. Propuesta 2,2. Para números arbitrarios xi,me = 1...,n, xi

(xi,xj,xk)

i i

i<j

i<j
+... + (−1)n+1 Min(x1,...,xn) Prueba. Le daremos una prueba probabilística de la Proposición. Para empezar, suponga que todos los xme están en el intervalo [0, 1]. Dejar En ser una variable aleatoria uniforme (0,1) y definir los eventos Ai,me = 1...,nPor Ame = {En < xi}. Es decir Ame es el caso de que la variable aleatoria uniforme es menor que xi. Porque al menos uno de estos eventos Ame ocurrirá si En es menor que al menos uno de los valores xi, tenemos que = ∪iAme %En < Maxxi/ i

Por lo tanto

Sección 7,2

Expectativa de sumas de RVariables de Andom

400

P(∪iAi) = P%En < Maxxi/ = Maxxi i

i

También P(Ai) = P=1En < xi>R = xi

Además, debido a que todos los eventos Ame ,...,Ame ocurrirá si En es menor que todos los valores xi1,...,xY, vemos que la intersección de estos eventos es

Ai implicando que

P(Ai1 ...AY) = P0En < Min xIj7 = Min xIj j=1...r

j=1...r

Por lo tanto, la proposición se deriva de la fórmula de inclusión-exclusión para la probabilidad de la Unión de eventos: P

(AiAjAk) i

i<j

i<j
+... + (−1)n+1P(A1 ...An) Cuando el xme son no negativos, pero no se limitan al intervalo de la unidad, deje C ser tal que todos los xme son menores que c. A continuación, la identidad se mantiene para los valores yme = xi/c, y el resultado deseado se sigue multiplicando por c. Cuando el xme puede ser negativo, deje B ser tal que xme + B > 0 para todos i. Por lo tanto, por el precedente, B,xJ + b) i

i<j

+ ··· + (−1)n+1 Min(x1 + b,...,xN + b) Dejar M

(xi,xj) + ··· + (−1)n+1 Min(x1,...,xn)

Xme i

i<j

podemos reescribir la identidad anterior como Maxxme + B = M + b i

Sección 7,2

Expectativa de sumas de RVariables de Andom

401

Pero

Las dos ecuaciones precedentes muestran que Maxxme = M i y la Proposición está probada. De la Proposición 2,2 se desprende que, para cualquier variable aleatoria X1,...,Xn, (Xi,Xj) + ··· + (−1)n+1 Min(X1,...,Xn)

Xi i i

i<j

El tomar las expectativas de ambos lados de esta igualdad produce la relación siguiente entre el valor esperado del máximo y los de los mínimos parciales: EE[mín.(Xi,Xj)] i i

i<j

+ ··· + (−1)n+1E[mín.(X1,...,Xn)]

(2,7)

EJEMPLO 2s cupón coleccionando con probabilidades desiguales Supongamos que hay N diferentes tipos de cupones y que cada vez que uno recoge un cupón, es, independientemente de los cupones anteriores recogidos, un tipo me cupón con probn

Capacidad pi, pme 1. encontrar el número esperado de cupones que uno necesita recoger para obtener un conjunto completo de al menos uno de cada tipo. i

=1

=

Solución. Si dejamos que Xme denotan el número de cupones que uno necesita cobrar para obtener un tipo i, entonces podemos expresar X Como X = Max Xi i=1...,n

Porque cada nuevo cupón obtenido es un tipo me con probabilidad pi, Xme es una variable aleatoria geométrica con parámetro pi. También, porque el mínimo de Xme Y XJ es el número de cupones necesarios para obtener un tipo me o un tipo j, se deduce que, para me Z jminXi,Xj) es una variable aleatoria geométrica con parámetro pme + pj. Del mismo modo, min (Xi,Xj,Xk), el número necesario para obtener cualquiera de los tipos i, jY k, es una geometría

Sección 7,3

Momentos del número de eventos que ocurren

402

variable aleatoria con parámetro pme + pJ + pk, y así sucesivamente. Por lo tanto, la identidad (2,7) produce 1 +

E[X] = +

+ pj

pi i

i<j

pk

i<j
+ ··· + (−1)n+1

+ ··· +1 p1

pn

Observando que q * e−Px Dx p

0

y usando la identidad N x i=1

i

i<j

muestra, al integrar la identidad, que

EE−pix) ⎞ Dx ⎠

es una forma computacional más útil.

.

7,3MOMENTOS DEL NÚMERO DE EVENTOS QUE OCURREN Muchos de los ejemplos resueltos en la sección anterior fueron de la siguiente forma: para eventos dados A1,...,AnEncontrar E[X], donde X es el número de estos eventos que se producen. A continuación, la solución implicó definir una variable de indicador Ime para el evento Ame tal que

Ime = % 10,ifotherwiseAme Ocurre

Kuz n

X

Mei i=1

Sección 7,3

Momentos del número de eventos que ocurren

403

obtuvimos el resultado

E[X] = Y

(3,1)

Ahora Supongamos que estamos interesados en el número de Pares de eventos que ocurren. Kuz IiIJ será igual a 1 si ambos Ame Y AJ que se produzca, y será igual a 0, de lo contrario, se deduce que el número de pares es igual a

i<J IiIj.

Pero porque X es el

número de eventos que ocurren, también sigue que el número de pares de eventos que ocurren es

. Por consiguiente

donde hay

IiIj i<j términos de la suma. Tomar expectativas rinde

E

P(AiAj)

(3,2)

O Ep(AiAj) i<j

dando que E[X2] − E

(AiAj)

(3,3)

i<j

que rinde E[X2], y por lo tanto var(X) = E[X2] −E[X])2. Además, al considerar el número de subconjuntos distintos de K eventos que ocurren, vemos que Iik i1
Tomar las expectativas da la identidad Ep(Ai1Ai2 ···AMe) (3,4) ik

EJEMPLO 3A momentos de variables aleatorias binomiales Considerar N ensayos independientes, siendo cada ensayo un éxito con probabilidad p. Dejar Ame ser el caso de que el juicio me es un éxito. Cuando me Z j, P(AiAj) = p2. En consecuencia, la ecuación (3,2) produce

Sección 7,3

Momentos del número de eventos que ocurren

404

E O E[X(X − 1)] = n(N − 1)p2 O E[X2] − E[X] = n(N − 1)p2 Nwo E

Eg, por lo tanto, de la ecuación anterior Fue(X) = E[X2] −E[X])2 = n(N − 1)p2 + Eg −Eg)2 = Eg(1 − p)

que está de acuerdo con el resultado obtenido en la sección 4.6.1. En general, porque P(Ai1Ai2 ···AMe) = pkobtenemos de la ecuación (3.4) Que

E

pK

pk

ik

o, de manera equivalente, E[X(X − 1)··· (X − K + 1)] = n(N − 1)··· (N − K + 1)pk Los valores sucesivos E[Xk], K Efectos 3, se puede obtener recursivamente de esta identidad. Por ejemplo, con K = 3, rinde E[X(X − 1)(X − 2)] = n(N − 1)(N − 2)p3 O E[X3 − 3X2 + 2X] = n(N − 1)(N − 2)p3 O E[X3] = 3E[X2] − 2E[X] + n(N − 1)(N − 2)p3 = 3n(N − 1)p2 + Eg + n(N − 1)(N − 2)p3 EJEMPLO 3B momentos de variables aleatorias hipergeométricas Supongo N las bolas se seleccionan aleatoriamente de una urna que contiene N bolas, de los cuales M son de color blanco. Dejar Ame ser el caso de que el ila bola seleccionada es blanca. Entonces X, el número de bolas blancas seleccionadas, es igual al número de los eventos A1,...,AN que ocurren. Debido a que el ila bola seleccionada es igualmente probable que N bolas, de los cuales M son de color blanco, P(Ai) = m/N. En consecuencia, la ecuación (3.1) da que E nm/N. Además, desde NN 1 P(AiAj) = P(Ai)P(Aj|Ai) =

−−

.

Sección 7,3

Momentos del número de eventos que ocurren

Mm

405

1

obtenemos, de la ecuación (3.2)Que

E O E mostrando que E Esta fórmula produce la varianza de la hipergeométrica, es decir, Fue(X) = E[X2] −E[X])2 n n Mn N

m m 1 N N 1 n 1 m 1 N 1

Nm

1

1

n 2m 2 N2 Mn N

N que coincide con el resultado obtenido en el ejemplo 8J del capítulo 4. Los momentos más altos de X se obtienen mediante la ecuación (3,4). Kuz P La ecuación (3,4) rinde

E O E[X(X − 1)··· (X − K + 1)] = n(N

.

EJEMPLO 3C momentos en el problema del partido Para me = 1...,NDejar Ame ser el caso de que la persona me selecciona su propio sombrero en el problema del partido. Entonces 1 = P(Ai)P(Aj|Ai) =

1 P(AiAj)

− NN

1

que sigue porque, condicionado a la persona me seleccionando su propio sombrero, el sombrero seleccionado por la persona J es igualmente probable que sea cualquiera de los

Sección 7,3

Momentos del número de eventos que ocurren

406

otros N − 1 sombreros, de los cuales uno es suyo. En consecuencia, con X igual al número de personas que seleccionan su propio sombrero, se deduce de la ecuación (3,2) que 1 E (N − 1) demostrando así que E[X(X − 1)] = 1 Por lo tanto E[X2] = 1 + E[X]. Kuz

1, obtenemos que

Fue(X) = E[X2] −E[X])2 = 1. Por lo tanto, tanto la media como la varianza del número de coincidencias es 1. Para los momentos más altos, usamos la ecuación (3,4), junto con el hecho de que P, para obtener

E O E[X(X − 1)··· (X − K + 1)] = 1

.

EJEMPLO 3D otro problema de recogida de cupones Supongamos que hay N tipos distintos de cupones y que, independientemente de los tipos anteriores recogidos, cada uno nuevo obtenido es de tipo J con probabilidad pj, 1. encontrar el valor esperado y la varianza del número de diferentes tipos de cupones que aparecen entre los primeros N Recogidos. Solución. Nos será más conveniente trabajar con el número de tipos no recogidos. Así que Y igual al número de diferentes tipos de cupones recogidos, y dejar X = N − Y denotan el número de tipos no recogidos. Con Ame se define como el evento de que no hay ningún tipo me cupones en la colección, X es igual al número de eventos A1,...,AN que ocurren. Porque los tipos de los cupones sucesivos recogidos son independientes, y, con probabilidad 1 − pme cada nuevo cupón no es de tipo iTenemos P(Ai) = (1 − pi)n Ahí E

n

, de la que se deduce que N

E[Y] = N

Pi)n

Del mismo modo, debido a que cada N los cupones recogidos no es ni un tipo me ni un tipo J cupón, con probabilidad 1 − pme − pjTenemos

Sección 7,3

Momentos del número de eventos que ocurren

P(AiAj) = (1 − pme − pj)n,

407

me Z j

Así Pj)n

E[X(X i<j

i<j

O Pj)N + E[X]

E i<j

Por lo tanto, obtenemos Fue(Y) = Fue(X) = E[X2] −E[X])2 2 N

N



<

=1

i=1

pi)n⎞ ⎠

En el caso especial en el que pme = 1/N, me = 1...,N, la fórmula precedente da

E[Y] = N Y

n

. EJEMPLO 3e las variables aleatorias hipergeométricas negativas Supongamos que una urna contiene N + M bolas, de los cuales N son especiales y M son ordinarios. Estos artículos se quitan uno a la vez, con cada nuevo retiro siendo igualmente probable que sea cualquiera de las bolas que permanecen en la urna. La variable aleatoria Y, igual al número de bolas que se deben retirar hasta un total de R bolas especiales se han eliminado, se dice que tiene un distribución hipergeométrica negativa. La distribución hipergeométrica negativa lleva la misma relación con la distribución hipergeométrica que el binomio negativo al binomio. Es decir, en ambos casos, en lugar de considerar una variable aleatoria igual al número de éxitos en un número fijo de ensayos (al igual que las variables binomiales e hipergeométricas), se refieren al número de ensayos necesarios para obtener un número fijo de éxitos. Para obtener la función de masa de probabilidad de una variable aleatoria hipergeométrica negativa X, tenga en cuenta que X será igual a K Si ambos

Sección 7,3

Momentos del número de eventos que ocurren

408

a) la primera K − 1 retiros consisten en R − 1 especial y K − R bolas ordinarias y (b) el kla bola retirada es especial. Por consiguiente 1 P−

+

k−1

No obstante, no utilizaremos la función de masa de probabilidad precedente para obtener la media y la varianza de Y. Más bien, vamos a numerarnos el M bolas ordinarias como o1,...,om, y luego, para cada me = 1...,nDejar Ame ser el evento que ome se retira antes de R se han eliminado las bolas especiales. Entonces, si X es el número de eventos A1,...,AM que ocurren, se deduce que X es el número de bolas ordinarias que se retiran antes de un total de R se han eliminado las bolas especiales. Por consiguiente Y=R+X mostrando que E

m

Para determinar la P(Ai), considere la N + 1 bolas que consisten en ome junto con el N bolas especiales. De estos N + 1 bolas, ome es igualmente probable que sea la primera retirada, o la segunda retirada, ..., o la última retirada. Por lo tanto, la probabilidad de que sea uno de los primeros R de estos para ser seleccionados (y así se retira antes de un total o R se han retirado las bolas especiales) n+R 1. Por consiguiente r P(Ai) =

+ 1

n

Y E[Y] = R + m

+= m n 1

+ + + r r(n 1) n 1

Así, por ejemplo, el número esperado de cartas de un mazo bien-barajan que necesitaría ser dado vuelta encima hasta que aparezca una pala es 1 786, y el número esperado de cartas que tendrían que ser volteadas hasta que aparezca un as Para determinar var (Y) = Var (X), usamos la identidad E[X(X

(AiAj) i<j

Sección 7,3

Momentos del número de eventos que ocurren

409

Nwo P(AiAj) es la probabilidad de que ambos ome Y oJ se retiran antes de que haya habido un total de R bolas especiales removido. Así que considere la N + 2 bolas que consisten en oi,oj, y el N bolas especiales. Debido a que todos los pedidos de retirada de estas bolas son igualmente probables, la probabilidad de que ome Y oJ están entre los primeros R + 1 de ellos para ser removido (y así se eliminan antes de R se han retirado las bolas especiales) P(AiAj) Por consiguiente ) E + 2) Así E[X2] = m(M − 1)

+ (n

r(R

1 ) + +

1)(n

+ E[X] 2)

Kuz E[X] = mn+R 1, esto produce

Un poco de álgebra ahora muestra que . EJEMPLO 3F singletons en el problema de coleccionista de cupones Supongamos que hay N tipos distintos de cupones y que, independientemente de los tipos anteriores recogidos, cada uno nuevo obtenido es igualmente probable que sea cualquiera de los N Tipos. Supongamos también que uno continúa recopilando cupones hasta que se haya obtenido un conjunto completo de al menos uno de cada tipo. Busque el valor esperado y la varianza del número de tipos para los que se recopila exactamente un cupón de ese tipo. Solución. Dejar X igual al número de tipos para los que se recopila exactamente uno de ese tipo. Además, deje que Tme denotan la itipo de cupón a recoger, y dejar que Ame ser el caso de que sólo hay un solo tipo Tme cupón en el conjunto completo. Kuz X es igual al número de eventos A1,...,AN que ocurren, tenemos n

E Ahora, en el momento en que el primer tipo Tme se recoge el cupón, permanece N − me tipos que deben recopilarse para tener un conjunto completo. Porque, comenzando en este momento, cada uno de estos N − me + 1 tipos (el N − me todavía no recogido y tipo Ti) es igualmente probable que sea el último de estos tipos que se recogen, se deduce que el tipo

Sección 7,3

Momentos del número de eventos que ocurren

Tme será el último de estos tipos (y así será un singleton) con probabilidad

n

410

. Por

consiguiente P

Rendimiento n

n

1 E i Para determinar la varianza del número de singletons, deje que Si,jPara me < j, sea el evento que el primer tipo Tme cupón que se recogerá sigue siendo el único de su tipo que se han recogido en el momento en que el primer tipo TJ se ha recogido el cupón. Entonces P(AiAj) = P(AiAj|Si,j)P(Si,j) Nwo P(Si,j) es la probabilidad de que cuando un tipo Tme acaba de ser recogido, de la N − me + 1 tipos que consisten en tipo Tme y el N − me como tipos aún no recogidos, un tipo Tme no es uno de los primeros J − me de estos tipos que se recopilen. Porque el tipo Tme es igualmente probable que sea el primero, o segundo, o ...,N − me + 1 de estos tipos que se recogen, tenemos P(Si,j) = 1 − − − + = + + − − j i n 1 j n i 1 N 1i Ahora, condicional en el evento Si,jAmbos Ame Y AJ se producirá si, en el momento en que el primer tipo TJ se recoge el cupón, de la N − J + 2 tipos que consisten en tipos Ti,Tj, y el N − J tipos aún no recogidos, Tme Y TJ se recogen después de la otra N − j. Pero esto implica que P(AiAj Por lo tanto P(AiAj)

,

me < j

Rendimiento E[X(X j) En consecuencia, utilizando el resultado anterior para E[X], obtenemos

. i

Sección 7,3

Momentos del número de eventos que ocurren

411

7,4 COVARIANZA, VARIANZA DE SUMAS Y CORRELACIONES La siguiente proposición muestra que la expectativa de un producto de variables aleatorias independientes es igual al producto de sus expectativas. Propuesta 4,1. Si X Y Y son independientes, entonces, para cualquier función H Y g, E[g(X)h(Y)] = E[g(X)]E[h(Y)] Prueba. Supongamos que X Y Y son conjuntamente continuos con la densidad de la articulación f(x,y). Entonces Q

E[g(X)h(Y)] = *

*

g(x)h(y)f(x,y)DXDY

−qq −qq

=*

*

g(x)h(y)fX(x)fY(y)DXDY

−qq − q

=*

q

h(y)fY(y)Dy*

g(x)fX(x)Dx

q

La prueba en el caso discreto es similar. Al igual que el valor esperado y la varianza de una única variable aleatoria nos dan información sobre esa variable aleatoria, también la covarianza entre dos variables aleatorias nos da información sobre la relación entre las variables aleatorias. Definición La covarianza entre X Y Y, denotado por COV (X,Y), se define por Cov(X,Y) = E[(X − E[X])(Y − E[Y])]

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

412

Al expandir el lado derecho de la definición anterior, vemos que Cov(X,Y) = E[Xy − E[X]Y − Coche[Y] + E[Y]E[X]] = E[Xy] − E[X]E[Y] − E[X]E[Y] + E[X]E[Y] = E[Xy] − E[X]E[Y] Tenga en cuenta que si X Y Y son independientes, entonces, por la Proposición 4,1, COV(X,Y) = 0. sin embargo, el inverso no es cierto. Un ejemplo simple de dos variables aleatorias dependientes X Y Y con cero covarianza se obtiene dejando X ser una variable aleatoria tal que P y definir 0

Si X Z 0

Y = %1

Si X = 0

Nwo Xy = 0, por lo que E[Xy] = 0. también, E[X] = 0. por lo tanto, Cov(X,Y) = E[Xy] − E[X]E[Y] = 0 Sin embargo X Y Y no son claramente independientes. La siguiente proposición enumera algunas de las propiedades de la covarianza. Propuesta 4,2. (i)

Cov(X,Y) = Cov(Y,X)

(ii)

Cov(X,X) = Fue(X) III) COV(Ax,Y) = Un Cov(X,Y) ⎛n

IV)

m



n

m

COV(Xi,Yj)

Prueba de la Proposición 4,2: Las partes (i) y (II) siguen inmediatamente de la definición de covarianza, y la parte (III) se deja como un ejercicio para el lector. Para probar la parte (IV), que indica que la operación de covarianza es aditiva (como es la operación de tomar expectativas), deje μme = E[Xi] y vJ = E[Yj]. Entonces ⎡m m

Ei,

Casaj



Sección 7,4

Covarianza, varianza de sumas y Correlaciones

413

Y ⎛n m

⎞ ⎡

⎛n

⎞⎛m

n

⎠ ⎝j=1 j=1

CovXme i=1

m

⎞⎤

⎠⎦

⎡n

m

⎤ =E = ⎢ ⎣i=1 j=1 − − ⎥ ⎦ Y (Xme μi)(YJ vj) N m Vj)] i=1 j=1

donde la última igualdad sigue porque el valor esperado de una suma de variables aleatorias es igual a la suma de los valores esperados. Se desprende de las partes II) y IV) de la Proposición 4,2, al tomar YJ = Xj,J = 1...,nQue ⎛n

n



i=1 n

j=1



n

Cov(Xi,Xj) i=1 j=1 n

(Xi,Xj) i=1

iZj

Dado que cada par de índices i,j,me Z j, aparece dos veces en el doble Summation, la fórmula precedente equivale a n

Fue

n

Xi i 1

Fue X i i 1

2

Cov X i , X j i j

(4,1) Si X1,...,XN son en pares independientes, en que Xme Y XJ son independientes para me Z j, la ecuación (4,1) se reduce a

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

414

Los siguientes ejemplos ilustran el uso de la ecuación (4,1). EJEMPLO 4A Dejar X1,...,XN ser independientes y distribuidas idénticamente variables aleatorias n

valor esperado M y la varianza σ2, y como en el ejemplo 2C, deje X

Xi/N ser el SAM-

medio. Las cantidades Xme − X,me = 1...,n, se denominan Desviaciones, ya que equivalen a las diferencias entre los datos individuales y la media de la muestra. La variable aleatoria (Xme − X)2

N

S2 i=1



se denomina varianza de la muestra. Buscar (a) var (X) y b) E[S2]. Solución.

1

2

por la independencia

n (b) empezamos con la siguiente identidad algebraica: n

X)2

(N n

n

n

i=1

i=1

(Xme n

(Xme − m)2 + n(X

− m)2 − 2(X − m)n(X − m)

(Xme − m)2 − n(X

− m)2

n

Tomar las expectativas de los rendimientos precedentes

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

415

n

(N i=1

donde la igualdad final hizo uso de la parte (a) de este ejemplo y la anterior hizo uso del resultado del ejemplo 2C, a saber, que E[X] = M. Dividiendo por N − 1 muestra que el valor esperado de la varianza de la muestra es la desviación de distribución σ2. . Nuestro siguiente ejemplo presenta otro método para obtener la varianza de una variable aleatoria binomial. EJEMPLO 4B varianza de una variable aleatoria binomial Calcular la varianza de una variable aleatoria binomial X con parámetros N Y p. Solución. Dado que esta variable aleatoria representa el número de éxitos en N pruebas independientes cuando cada ensayo tiene la probabilidad común P de ser un éxito, podemos escribir X = X1 + ··· + Xn donde el Xme son variables aleatorias independientes de Bernoulli Xi Si el iel juicio es un éxito de lo contrario Por lo tanto, de la ecuación (4,1), obtenemos Fue(X) = Fue(X1) + ··· + Fue(Xn) Pero Fue(Xi) = E[Xi2] −E[Xi])2 = E[Xi] −E[Xi])2

Desde Xi2 = Xi

= P − p2 Así Fue(X) = Eg(1 − p)

.

EJEMPLO 4C muestreo de una población finita Considere un conjunto de N personas, cada uno de los cuales tiene una opinión sobre un determinado tema que se mide por un número real V que representa la "fuerza de

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

416

sentimiento" de la persona sobre el tema. Dejar vme representan la fuerza del sentimiento de la persona i, me = 1...N. Supongamos que las cantidades vi,me = 1...,N, se desconoce y, para recopilar información, un grupo de N Dela N la gente es "elegida al azar" en el sentido de que todos los subconjuntos de tamaño N son igualmente propensos a ser elegidos. Estos N entonces se cuestiona a la gente y se determinan sus sentimientos. Si S denota la suma de la N valores muestreados, determinar su media y varianza. Una aplicación importante del problema precedente es a una próxima elección en la que cada persona en la población sea para o en contra de un determinado candidato o proposición. Si tomamos vme a igual a 1 si la persona me está a favor y 0 si él o ella está en contra, N Entonces

Vi/N representa la proporción de la población que está a favor.

Para estimar , una muestra aleatoria de N la gente es elegida, y estas personas son sondeadas. La proporción de aquellos encuestados que están a favor, es decir, S/n— se utiliza a menudo como una estimación de v. Solución. Para cada persona i,me = 1...,N, defina una variable de indicador Ime para indicar si esa persona está incluida en la muestra. Es decir Si la persona me está en la Ii muestra aleatoria de lo contrario N

Nwo S puede expresarse S

viII en=1

Así N

E

viE[Ii] i=1

N

Cov(viIi,vjIj) i=1

i<j

i=1

i<j

vivjCov(Ii,Ij) Kuz N, y[Ii] = N nn −−

E[IiIj] = Mm se deduce que

1 1

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

417

n(n Cov(Ii,Ij) = N(N

Ahí N

E [S ]

n

vi

nv

N

i 1

n N

Fue S

N

n

v 2i

N

2n N

n

vivj

2

N

i j

i 1

N (N

1) La expresión de var(S) se puede simplificar un poco mediante el uso de la identidad N vivj. Después de una cierta simplificación, obtenemos i=1

i<j

Consideremos ahora el caso especial en el que Eg Dela vson iguales a 1 y el resto igual a 0. Entonces, en este caso, S es una variable aleatoria hipergeométrica y tiene la media y la varianza dadas, respectivamente, por E[S] = Nv = Eg

Eg Desde V = =pN

Y

( p) La cantidad S/n, igual a la proporción de los muestreados que tienen valores iguales a 1, es tal que E

P P)

.

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

418

La correlación de dos variables aleatorias X Y Y, denotado por RX,Y), se define, siempre que var(X) Fue(Y) es positivo, por Cov(X,Y) RX,Y) = √ Fue(X)Fue(Y) Se puede demostrar que −1 ... RX,Y) ... 1

(4,2)

Para probar la ecuación (4,2), supongamos que X Y Y tienen varianzas dadas por σx2 Y σy2Respectivamente. Entonces, por un lado,

0 ... Fue

σx2

σ

y2

σxσ

implicando que −1 ... RX,Y) Por otro lado

0 ... Fue Fue(X) = σx2

FueY + (−y)2 −

2Cov(X,Y) σxσy

= 2 [1 − P (X,Y)]

implicando que RX,Y) ... 1 que completa la prueba de la ecuación (4,2). De hecho, dado que var(Z) = 0 implica que Z es constante con la probabilidad 1 (esta relación intuitiva se probará rigurosamente en el capítulo 8), se deduce de la prueba de la ecuación (4,2) que RX,Y) = 1 implica que Y = Un + BxDonde B < qyEnX > 0 y RX,Y) = −1 implica que Y = Un + BxDonde B = − pyEnX < 0. lo dejamos como un ejercicio para que el lector muestre que el reverso también es cierto: que si Y = Un + BxEntonces RX,Y) es o bien +1 o −1, dependiendo del signo de b. El coeficiente de correlación es una medida del grado de linealidad entre X Y Y. Un valor de RX,Y) Cerca +1 o −1 indica un alto grado de linealidad entre X Y Y, mientras que un valor cercano a 0 indica que dicha linealidad está ausente. Un valor positivo de RX,Y) indica que Y tiende a aumentar cuando X , mientras que un valor negativo indica que Y tiende a

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

419

disminuir cuando X Aumenta. Si RX,Y) = 0, a continuación, X Y Y se dice que son correlacionados. EJEMPLO 4D Dejar IUn Y IB ser variables de indicador para los eventos Un Y B. Es decir 1 IUn % IB

=0

Si Un Ocurre Lo contrario

1

Si B Ocurre

= %0

Lo contrario

Entonces E[IA] = P(A) E[IB] = P(B) E[IAIB] = P(Apagado) Así

Cov(IA,IB) Por lo tanto, obtenemos el resultado bastante intuitivo que las variables del indicador para Un Y B están bien correlacionadas, no correlacionadas o correlacionadas negativamente, dependiendo de si P(A|B) es, respectivamente, mayor que, igual o menor que P(A). . Nuestro siguiente ejemplo muestra que la media de la muestra y una desviación de la media de la muestra no están correlacionadas. EJEMPLO 4E Dejar X1,...,XN ser independientes y distribuidas idénticamente variables aleatorias que tienen varianza σ2. Mostrar que Cov(Xme − X,X) = 0 Solución. Tenemos Cov(Xme − X,X) = Cov(Xi,X) − Cov(X,X)

Sección 7,4

Covarianza, varianza de sumas y Correlaciones

)−n

420

N j=1 0

N−N= donde la igualdad de la siguiente a la última utiliza el resultado del ejemplo 4A y la igualdad final sigue porque 0 0

Si J Z me por la independencia

Cov(Xi,Xj) = P2

Si J = me desde var(Xi) = P2

Aunque X y la desviación Xme − X están no correlacionados, no son, en general, independientes. Sin embargo, en el caso especial en que el Xme son variables aleatorias normales, resulta que no sólo es X independiente de una sola desviación, pero es independiente de toda la secuencia de desviaciones XJ − X,J = 1...,n. Este resultado se establecerá en la sección 7,8, donde también demostraremos que, en este caso, el PLE media X y la varianza de la muestra S2 son independientes, con (N − 1)S2En2 con una distribución de Chi-cuadrada con N − 1 grados de libertad. (Véase el ejemplo 4A para la definición de S2.)

.

EJEMPLO 4F Considerar M ensayos independientes, cada uno de los cuales da R posibles resultados r con probabilidades P1,P2,...,Pr,Pme = 1. Si dejamos Ni,me = 1...,r, denotan la 1

de la M los ensayos que resulten en resultados iEntonces N1,N2,...,NR tienen la distribución multinomial r

{

=

=

= }=

m!

n1 n2

···

m P N1

n1,N2

n2,...,Nr

nr

N !N !

P1 P2

PR

No

nme =

Sección 7,4

Covarianza, varianza de sumas y Correlaciones 1

421

2 ...nr! i=1

Para me Z j, parece probable que cuando Nme es grande, NJ tienden a ser pequeñas; por lo tanto, es intuitivo que deben estar correlacionados negativamente. Calculemos su covarianza utilizando la Proposición 4.2 (IV) y la representación m

m

Ni

Y

NJ

k=1

k=1

Donde 1

Si el juicio K resultados en el I (k) resultado me i =0 Lo contrario 1

resultado j Ij(k) = %0

Lo contrario

De la Proposición 4.2 (IV), hemos m

Cov(Ni,Nj) Ahora, por un lado, cuando K Z , Cov

m

Si el juicio K resultados en el

Sección 7,5

Expectativa condicional

422

desde el resultado de la prueba K es independiente del resultado del juicio. Por otro lado Cov = 0 − PiPJ = −PiPj donde la ecuación utiliza el hecho de que Ime 0, desde el juicio no puede resultar en ambos resultados me y el resultado j. Por lo tanto, obtenemos Cov(Ni,Nj) = −MpiPj que está de acuerdo con nuestra intuición que Nme Y NJ están negativamente correlacionados.

.

7,5 EXPECTATIVA CONDICIONAL 7.5.1

Definiciones

Recuerde que si X Y Y son variables aleatorias discretas conjuntamente, entonces la función de masa de probabilidad condicional de X, dado que Y = y, se define, para todos los y tal que P{Y = y} > 0, por

p(x,y) pX|Y(x|y) = P{X = x|Y = y} =

pY(y)

Por lo tanto, es natural definir, en este caso, la expectativa condicional de X Dado que Y = y, para todos los valores de y tal que pY(y) > 0, por E x

x

EJEMPLO 5A Si X Y Y son variables aleatorias binomiales independientes con parámetros idénticos N Y p, calcule el valor esperado condicional de X Dado que X + Y = m. Solución. Calculemos primero la función de masa de probabilidad condicional de X Dado que X + Y = m. Para K ... Min(n,m),

P{X = k|X + Y = m} = P{Xp={Xk,+Xy+=En=} m}

= P{XP{=Xk+,YY==mm− k} P X

k P Y M − k}

n P{X n k p k 1 + Yp=nm} pm k m k 2n m p 1 m n

n

p

2n

k

1

p

n

Sección 7,5

Expectativa condicional

423

m+k

=

m

donde hemos utilizado el hecho (véase el ejemplo 3F del capítulo 6) que X + Y es una variable aleatoria binomial con parámetros 2N Y p. Por lo tanto, la distribución condicional de X, dado que X + Y = m, es la distribución hipergeométrica, y del ejemplo 2G, obtenemos m E[X|X + Y = m] =

. 2

Del mismo modo, recordemos que si X Y Y son conjuntamente continuos con una función de densidad de probabilidad conjunta f(x,y), entonces la densidad de probabilidad condicional de X, dado que Y = y, se define, para todos los valores de y tal que fY(y) > 0, por f(x,y) fX|Y(x|y) = fY(y) Es natural, en este caso, definir la expectativa condicional de X, dado que Y = yPor q

E[X|Y = y] = *

XfX|Y(x|y)Dx −q

siempre que fY(y) > 0. EJEMPLO 5B Supongamos que la densidad de la articulación de X Y Y es dada por e−x/ye−y f(x,y) =

0 < X < q, 0 < y < q y

Calcular E[X|Y = y]. Solución. Empezamos calculando la densidad condicional f(x,y) Y

f x, y

fX|Y(x|y) = =

F (y)

q

*

f(x,y)Dx

Sección 7,5

Expectativa condicional

424

− q y)e−x/ye−y

(1/ =

q

(1/y)e−x/ye−y Dx

* 0

(1/y)e−x/y =

q

*

(1/y)e−x/y Dx

0

=

1

e−x/y y

Por lo tanto, la distribución condicional de X, dado que Y = y, es sólo la distribución exponencial con la media y. Así

E[X Y .

y]

*

Q X −x/y Dx

y

e |

=

=0

=

y

Observación. Al igual que las probabilidades condicionales satisfacen todas las propiedades de las probabilidades ordinarias, también las expectativas condicionales satisfacen las propiedades de las expectativas ordinarias. Por ejemplo, las fórmulas |

en el caso discreto

x

E[g(X) Y = y] =q Q g(x)fX|Y(x|y)Dx

en el caso

continuo −

Y n

n

E





siguen siendo válidos. Como cuestión de hecho, la expectativa condicional dado que Y = y puede considerarse como una expectativa ordinaria en un espacio de muestra reducido que consiste sólo en resultados Y = y.

.

Sección 7,5

Expectativa condicional

425

7.5.2Calculando las expectativas por acondicionamiento Vamos a denotar por E[X|Y] esa función de la variable aleatoria Y cuyo valor en Y = y Es E[X|Y = y]. Tenga en cuenta que E[X|Y] es una variable aleatoria. Una propiedad extremadamente importante de las expectativas condicionales es dada por la siguiente proposición. Propuesta 5,1. E[X] = E[E[X|Y]]

(5,1)

Si Y es una variable aleatoria discreta, entonces la ecuación (5,1) indica que E

(5.1 a) y

mientras que si Y es continua con densidad fY(y), entonces la ecuación (5,1) Estados q

E[X] = *

E[X|Y = y]fY(y)Dy

(5.1 b)

−q

Ahora damos una prueba de la ecuación (5,1) en el caso en que X Y Y son variables aleatorias discretas. Prueba de la ecuación (5,1) cuando X Y Y Son discretos:Debemos demostrar que E

(5,2) y

Ahora, la parte derecha de la ecuación (5,2) puede escribirse como y

y

x

yX xP{Xp={Yx=,Yy=}

y

x

X,Y = y} x

x

= E[X] y se prueba el resultado.

y

y}P{Y = y}

Sección 7,5

Expectativa condicional

426

Una forma de entender la ecuación (5,2) es interpretarla de la siguiente manera: para calcular E[X], podemos tomar una media ponderada del valor esperado condicional de X Dado que Y = y, cada uno de los términos E[X|Y = y] ponderada por la probabilidad del acontecimiento en el que está condicionada. (¿De qué te recuerda esto?) Este es un resultado extremadamente útil que a menudo nos permite calcular las expectativas fácilmente mediante el primer acondicionamiento en alguna variable aleatoria apropiada. Los siguientes ejemplos ilustran su uso. EJEMPLO 5C Un minero está atrapado en una mina que contiene 3 puertas. La primera puerta conduce a un túnel que lo llevará a la seguridad después de 3 horas de viaje. La segunda puerta conduce a un túnel que lo devolverá a la mina después de 5 horas de viaje. La tercera puerta conduce a un túnel que lo devolverá a la mina después de 7 horas. Si asumimos que el minero es en todo momento igualmente probable que elija cualquiera de las puertas, ¿cuál es el período de tiempo esperado hasta que llegue a la seguridad? Solución. Dejar X indican la cantidad de tiempo (en horas) hasta que el minero llega a la seguridad, y dejar Y denotan la puerta que inicialmente escoge. Nwo

E Sin embargo E[X|Y = 1 = 3 E[X|Y = 2 = 5 + E[X]

(5,3)

E[X|Y = 3 = 7 + E[X] Para entender por qué la ecuación (5,3) es correcta, considere, por ejemplo, E[X|Y = 2] y razonar como sigue: Si el minero escoge la segunda puerta, pasa 5 horas en el túnel y luego regresa a su celda. Pero una vez que regresa a su celda, el problema es como antes; por lo tanto su tiempo adicional esperado hasta que la seguridad es sólo E[X]. Ahí Ees similar. Por lo tanto, [X|Y = 2 = 5 + E[X]. El argumento detrás de los otros igualdades en la ecuación (5,3)

E O E[X] = 15

.

EJEMPLO 5D expectativa de una suma de un número aleatorio de variables aleatorias Supongamos que el número de personas que ingresan a un almacén departamental en un día determinado es una variable aleatoria con la media de 50. Supongamos además que las cantidades de dinero gastada por estos clientes son variables aleatorias independientes que tienen una media común de $8. Por último, Supongamos también que la cantidad de dinero

Sección 7,5

Expectativa condicional

427

gastado por un cliente también es independiente del número total de clientes que entran en la tienda. ¿Cuál es la cantidad esperada de dinero gastado en la tienda en un día determinado? Solución. Si dejamos que N indican el número de clientes que entran en la tienda y Xme la cantidad gastada por el ital cliente, entonces la cantidad total de dinero gastado puede ser N

expresado como

Xi. Nwo



E⎡ N

⎡⎡

⎤⎤

N



Pero E ⎤





N

n

por la independencia de la Xme Y N = Hacer[X]

Donde E[X] = E[Xi]

lo que implica que N

E





Así

E Por lo tanto, en nuestro ejemplo, la cantidad esperada de dinero gastado en la tienda es 50 * $8, o $400. . EJEMPLO 5e El juego de dados se comienza rodando un par ordinario de dado. Si la suma de los dados es 2, 3 o 12, el jugador pierde. Si es 7 o 11, el jugador gana. Si es cualquier otro número i, el jugador continúa rodando los dados hasta que la suma sea 7 o i. Si es 7, el jugador pierde; Si es i, el jugador gana. Dejar R denotan el número de rollos de los dados en un juego de dados. Encontrar

Sección 7,5

(a) (b)

Expectativa condicional

428

E[R]; E[R|jugador gana]; c E[R|jugador pierda].

Solución. Si dejamos que Pme denotan la probabilidad de que la suma de los dados sea iEntonces Pme = P14−me = −36 2..., 7 i 1 Para calcular E[R], condicionamos en S, la suma inicial, dando

E

,

me =

Pi

Sin embargo 1 ⎧

E[R|S = i]

Si me = 2, 3, 7, 11, 12

=1 ⎩1 + + Pi

, Lo contrario

P7

La ecuación anterior sigue porque si la suma es un valor me que no termine el juego, entonces los dados continuarán rodando hasta que la suma sea me o 7, y el número de rollos hasta que esto ocurra es una variable aleatoria geométrica con parámetro Pme + P7. Por lo tanto Pi E i=4 Pme +

P7

i=8 Pme

+ P7 = 1 + 2(3/9 + 4/10 + 5/11) = 3.376 Para determinar la E[R|ganar], comencemos determinando p, la probabilidad de que el jugador gane. Acondicionamiento en S Rendimientos

p

Pme i=2

PiPi = P7 + P

Pi i=4 Pme +

= 0.493

P7

i=8 Pme +

P7

Pi

Sección 7,5

Expectativa condicional

429

donde el precedente utiliza el hecho de que la probabilidad de obtener una suma de me antes de que uno de los 7 sea Pi/(Pme + P7). Ahora, determinemos la función de masa de probabilidad condicional de S, dado que el jugador gana. Dejar Qme = P{S = i|Ganar}Tenemos Q2 = Q3 = Q12 = 0 y, para me = 4, 5, 6, 8, 9, 10,

Q7 = P7/p,

Q11 = P11/p

P S iGanar Qme = { ={ } } P Ganar = PiP{Ganar|S = i} p Pi2 = p(Pme + P7) Ahora, condicionamiento en la suma inicial da E[R|ganar

GanarS = i]Qi i

Sin embargo, como se indicó en el ejemplo 2J del capítulo 6, dado que la suma inicial es i, el número de rollos adicionales necesarios y el resultado (ya sea una victoria o una pérdida) son independientes. (Esto se ve fácilmente señalando primero que, condicionado a una suma inicial de i, el resultado es independiente del número de rollos de dados adicionales necesarios y, a continuación, utilizando la propiedad de simetría de la independencia, que indica que si el evento Un es independiente del evento B, a continuación, evento B es independiente del evento A.) Por lo tanto E[R

S = i]Qi i

Qi Qi Pme + P7Pme + P7

i=8

Aunque podríamos determinar E[R|jugador pierde] exactamente como lo hicimos E[R|jugador gana], es más fácil de usar E[R] = E[R|ganarP + E[R|perder(1 − p)

Sección 7,5

Expectativa condicional

430

implicando que E[R|perder = E[R] − −E[R|ganarP = 3.801 1

.

p

EJEMPLO 5F Como se define en el ejemplo 5C del capítulo 6, la función de densidad de articulación normal bivariable de las variables aleatorias X Y Y Es

f Ahora demostraremos que R es la correlación entre X Y Y. Como se muestra en el ejemplo 5C, μX = E[X], σx2 = Fue(X)Y μy = E[Y], σy2 = Fue(Y). Por consiguiente Cov(X,Y) Corr(X,Y) = σxσy = E[Xy] − mxμy σxσy Para determinar la E[Xy], condicionamos en Y. Es decir, usamos la identidad E[Xy] = E2E[Xy|Y]3

Recordando desde el ejemplo 5C que la distribución condicional de X Dado que Y normal con la media

, vemos que E[Xy|Y = y] = E[Xy|Y = y] = Comer[X|Y = y]

=y

Por consiguiente E

=

y es

Sección 7,5

Expectativa condicional

431

implicando que

E[Xy] = E

σx = Mxμy + R

Fue(Y) σy

= Mxμy + PPxσy Por lo tanto Rfxσy = R . Pxσy

Corr(X,Y) =

Algunas veces E[X] es fácil de calcular y usamos la identidad de acondicionamiento para calcular un valor esperado condicional. Este enfoque se ilustra en nuestro siguiente ejemplo. EJEMPLO 5g Considerar N ensayos independientes, cada uno de los cuales da como resultado uno de los resultados 1,...,k, con las respectivas probabilidades p1, 1. deje que Nme denotan el número de ensayos que resultan en el resultado i, me = 1...,k. Para me Z jEncontrar (a) E[Nj|Nme > 0 Solución. Para resolver (a), deje que

Y

(b)

E[Nj|Nme > 1

me Me = % 0 Si N = 0

1

Si Nme > 0

Entonces E[Nj] = E[Nj|Me = 0P{Me = 0} + E[Nj|Me = 1P{Me = 1} o, de manera equivalente, E[Nj] = E[Nj|Nme = 0P{Nme = 0} + E[Nj|Nme > 0P{Nme > 0} Ahora, la distribución incondicional de NJ es binomial con parámetros n,pj. Además, dado que Nme = r, cada uno de los N − R ensayos que no resulten en resultadosJ me se p independientemente, resulta en outcomethe distribución condicional de Njj, dado eso con ) probabilidadNme =Pr(j, es binomial con parámetros|No i = 1−pme . Por consiguiente

Sección 7,5

Expectativa condicional

432

N jpme . (Para obtener un argumento más detallado para esta conclusión, véase el ejemplo 4C del capítulo 6). Kuz P{Nme = 0} = (1 − pi)n, la ecuación anterior produce



EgJ = n

pj



(

)N + E[Nj|Nme > 0(1

−1 − pi)n 1 1

pme

pi

dando el resultado 1

(1

pi)n−1 E[Nj|Nme > 0 = Egj Podemos resolver la parte (b) de manera similar. Dejar 0 Si Nme = 0 J =1 Si Nme = 1

⎧ ⎩2

Si Nme > 1

Entonces E[Nj] = E[Nj|J = 0P{J = 0} + E[Nj|J = 1P{J = 1} + E[Nj|J = 2P{J = 2} o, de manera equivalente, E[Nj] = E[Nj|Nme = 0P{Nme = 0} + E[Nj|Nme = 1P{Nme = 1} + E[Nj|Nme > 1P{Nme > 1} Esta ecuación produce pj (1 − pi)

EgJ = n 1 − pi

pj

n

+ (N − 1)

− Egi(1 − pi)n−1 1

pi

+ E[Nj|Nme > 1(1 −1 − pi)N − Egi(1 − pi)n−1) dando el resultado Egj[1 −1 − pi)n−1 −N − 1)pi(1 − pi)n−2] E[Nj|Nme > 1 =

1 −1 − P )N − Egi(1 − pi)n−1 . i

Sección 7,5

Expectativa condicional

433

También es posible obtener la varianza de una variable aleatoria por condicionamiento. Ilustramos este enfoque en el siguiente ejemplo. EJEMPLO 5h varianza de la distribución geométrica Ensayos independientes, cada uno de los cuales resulta en un éxito con probabilidad p, se realizan sucesivamente. Dejar N ser el momento del primer éxito. Encontrar var(N). Solución. Dejar Y = 1 si el primer ensayo da como resultado un éxito y Y = 0 en caso contrario. Nwo Fue(N) = E[N2] −E[N])2 Para calcular E[N2], condicionamos en Y de la siguiente manera: E[N2] = E[E[N2|Y]] Sin embargo E[N2|Y = 1 = 1 E[N2|Y = 0 = E[(1 + N)2] Estas dos ecuaciones siguen porque, por un lado, si el primer ensayo da como resultado un éxito, entonces, claramente, N = 1 Así N2 = 1. por otra parte, si el primer ensayo da lugar a un fracaso, entonces el número total de ensayos necesarios para el primer éxito tendrá la misma distribución que 1 (el primer ensayo que se traduce en fracaso) más el número necesario de ensayos adicionales. Dado que la última cantidad tiene la misma distribución que N, obtenemos E[N2|Y = 0 = E[(1 + N)2]. Ahí E[N2] = E[N2|Y = 1P{Y = 1} + E[N2|Y = 0P{Y = 0} = P + (1 − p)E[(1 + N)2] = 1 + (1 − p)E[2N + N2] Sin embargo, como se mostró en el ejemplo 8B del capítulo 4, E[N] = 1/p; por lo tanto

E[N2] = 1 +

2(1



p)

+ (1 − p)E[N2] p

O E[N2] = 2 − p p2 Por consiguiente

Sección 7,5

Expectativa condicional

434

=1−p 2

.

p EJEMPLO 5i Considere una situación de juego en la que hay R jugadores, con jugador me inicialmente teniendo nme Unidades nme > 0 me = 1,..., der. En cada etapa, dos de los jugadores son elegidos para jugar un juego, con el ganador del juego recibiendo 1 unidad del perdedor. Cualquier jugador cuya fortuna caiga a 0 se elimina, y esto continúa hasta que un solo jugador tiene = todo N K nme unidades, con ese jugador designado como el vencedor. Suponiendo que los resultados de los juegos sucesivos son independientes y que cada juego es igualmente probable que sea ganado por cualquiera de sus dos jugadores, encontrar el número promedio de etapas hasta que uno de los jugadores tiene todo N Unidades. Solución. Para encontrar el número esperado de etapas jugadas, supongamos primero que hay sólo 2 jugadores, con los jugadores 1 y 2 inicialmente teniendo J Y N − J unidades, respectivamente. Dejar XJ indican el número de etapas que se reproducirán, y dejar que mJ = E[Xj]. Entonces, para J = 1,..., deN − 1 XJ = 1 + Aj Donde AJ es el número adicional de etapas necesarias más allá de la primera etapa. Tomar las expectativas da mJ = 1 + E[Aj] Condicionamiento en el resultado de la primera etapa entonces rinde mJ = 1 + E[Aj|1 gana la primera etapa] 1/2 + E[Aj|2 victorias primera etapa] 1/2 Ahora, si el jugador 1 gana en la primera etapa, entonces la situación a partir de ese momento es exactamente la misma que en un problema que supone que el jugador 1 comienza con J + 1 y jugador 2 Con N −J + 1) Unidades. Por consiguiente E[Aj|1 gana la primera etapa] = mj+1 y, anásamente, E[Aj|2 victorias primera etapa] = mj−1 Así mj o, de manera equivalente,

Sección 7,5

mj+1 = 2mJ − mj−1 − 2

Expectativa condicional

J = 1...,N − 1

435

(5,4)

Usando eso m0 = 0, la ecuación anterior produce m2 = 2m1 − 2 m3 = 2m2 − m1 − 2 = 3m1 − 6 = 3(m1 − 2) m4 = 2m3 − m2 − 2 = 4m1 − 12 = 4(m1 − 3) sugiriendo que mme = i(m1 − me + 1),

me = 1...,n

(5,5)

Para probar la igualdad precedente, usamos la inducción matemática. Ya que ya hemos mostrado que la ecuación es verdadera para me = 1, 2, tomamos como hipótesis de inducción que es verdad siempre que me ... J < n. Ahora debemos demostrar que es cierto para J + 1. uso de Ecuación (5.4) Rendimientos mj+1 = 2mJ − mj−1 − 2 = 2j(m1 − J + 1−J − 1)(m1 − J + 2) − 2

(por la hipótesis de inducción)

= (J + 1)m1 − 2j2 + 2J + j2 − 3J + 2 − 2 = (J + 1)m1 − j2 − j = (J + 1)(m1 − j) que completa la prueba de inducción de (5.5). Dejar me = N En (5.5), y usando ese mN = 0, ahora produce que m1 = N − 1 que, de nuevo utilizando (5.5), da el resultado mme = i(N − i) Por lo tanto, el número medio de juegos jugados cuando sólo hay 2 jugadores con montos iniciales me Y N − me es el producto de sus importes iniciales. Debido a que ambos jugadores juegan todas las etapas, este es también el número medio de etapas que involucran al jugador 1. Volvamos ahora al problema que implica R jugadores con montos iniciales ni,me = 1,..., der, . Dejar X denotan el número de etapas necesarias para obtener un vencedor, y dejar Xi=indican el número de etapas que involucran al jugador i. Ahora, desde el punto de vista del jugador i, empezando por ni, seguirá desempeñando etapas, independientemente de que sea igualmente probable que gane o pierda cada uno, hasta que su fortuna sea N o 0. Por lo tanto, el número de etapas que juega es exactamente el mismo que cuando tiene un solo oponente con una fortuna inicial de N − ni. Por consiguiente, por el resultado precedente se deduce que

Sección 7,5

Expectativa condicional

436

E[Xi] = ni(N − ni) Así

Y

n2i

Pero debido a que cada etapa involucra a dos jugadores, r

X

Xi La

i=1

toma de expectativas ahora produce

E[X] = 2 1 ⎛n2 − ⎝

ni i=1



Es interesante notar que si bien nuestro argumento muestra que el número medio de etapas no depende de la forma en que los equipos se seleccionan en cada etapa, lo mismo no es cierto para la distribución del número de etapas. Para ver esto, supongamos R = 3 n1 = n2 = 1, y n3 = 2. Si los jugadores 1 Y 2 se eligen en la primera etapa, entonces tomará por lo menos tres etapas para determinar un ganador, mientras que si el jugador 3 está en la primera etapa, entonces es posible que haya sólo dos etapas. . En nuestro siguiente ejemplo, usamos acondicionamiento para verificar un resultado previamente observado en la sección 6.3.1: que el número esperado de uniformes (0, 1) las variables aleatorias que deben añadirse para que su suma supere 1 es igual a e. EJEMPLO 5J Dejar U1,U2,... ser una secuencia de variables aleatorias uniformes independientes (0,1). Encontrar E[N] cuando

N Solución. Vamos a encontrar E [N] obteniendo un resultado más general. Para X ∈ [0, 1], deje ⎧ n N ⎭ y establecer m(x) = E[N(x)]



Sección 7,5

Expectativa condicional

437

Es decir N(x) es el número de variables aleatorias uniformes (0,1) que debemos sumar hasta que su suma supere xY m(x) es su valor esperado. Ahora derivaremos una ecuación para m(x) por condicionamiento en U1. Esto da, de la ecuación (5.1 b), m(x) = *0 E[N(x)|U1 = y]Dy

(5,6)

Nwo 1

Si y > x (5,7)

E[N(x)|U1 = y] = % 1

1 + m(X − y)

Si y ... x

La fórmula precedente es obviamente verdadera cuando y > x. También es cierto cuando y ... x, ya que, si el primer valor uniforme es y, entonces, en ese momento, el número restante de variables aleatorias uniformes necesarias es el mismo que si estuviéramos empezando y vamos a agregar variables aleatorias uniformes hasta que su suma supere X − y. Sustituyendo la ecuación (5,7) en la ecuación (5,6) da X

x

m(X − y)Dy

m(x) = 1 + *

dejando = 1 +m(u)De = − u x y Diferenciando los rendimientos de la ecuación precedente m o, de manera equivalente, m m(x) La integración de esta ecuación da registrom(x)] = X + c O m(x) = Miéx

Sección 7,5

Expectativa condicional

438

Desde m(0) = 1, se deduce que K = 1, por lo que obtenemos m(x) = ex Por lo tanto m(1), el número esperado de variables aleatorias uniformes (0,1) que deben añadirse hasta que su suma sea superior a 1, es igual a e. . 7.5.3Probabilidades de computación por acondicionamiento No sólo podemos obtener expectativas por el primer acondicionamiento en una variable aleatoria apropiada, pero también podemos utilizar este enfoque para calcular las probabilidades. Para ver esto, deje Y denotan un evento arbitrario, y definir la variable aleatoria del indicador X Por 1 Si Y Ocurre X=% 0

Si Y no se produce

Se desprende de la definición de X Que E[X] = P(E) E[X|Y = y] = P(E|Y = y) para cualquier variable aleatoria Y Por lo tanto, de las ecuaciones (5.1 a) y (5.1 b), obtenemos P

Si Y es discreto y

(5,8)

q

=*

P(E|Y = y)fY(y)Dy

Si Y es continua

−q

Tenga en cuenta que si Y es una variable aleatoria discreta que toma uno de los valores y1,...,yn, entonces, definiendo los eventos Fi,me = 1...,nPor Fme = {Y = yi}, La ecuación (5,8) se reduce a la ecuación familiar n

P Donde F1,...,FN son eventos mutuamente excluyentes cuya unión es el espacio de muestra. EJEMPLO 5K el problema del mejor premio Supongamos que vamos a ser presentados con N distintos premios, en secuencia. Después de haber sido presentado con un premio, debemos decidir de inmediato si aceptarla o rechazarla y considerar el próximo premio. La única información que se nos da al decidir si aceptar un premio es el rango relativo de ese premio en comparación con los ya vistos. Esto es, por ejemplo, cuando se presenta el quinto premio, aprendemos cómo se compara con los

Sección 7,5

Expectativa condicional

439

cuatro premios que ya hemos visto. Supongo que una vez que un premio es rechazado, se pierde, y que nuestro objetivo es maximizar la probabilidad de obtener el mejor premio. Suponiendo que todos los n! los pedidos de los premios son igualmente probables, ¿qué tan bien podemos hacer? Solución. Más bien sorprendentemente, podemos hacerlo muy bien. Para ver esto, corrija un valor k, 0 ... K < n, y considerar la estrategia que rechaza la primera K premios y luego acepta el primero que es mejor que todos los primeros k. Dejar Pk(Mejor) denotan la probabilidad de que se seleccione el mejor premio cuando se emplea esta estrategia. Para calcular esta probabilidad, la condición en X, la posición del mejor premio. Esto da N Pk

n

1 Pk(Mejor X

i)

= n| = Ahora, por un lado, si el mejor premio en general es uno de los primeros k, no se seleccionará ningún premio en la estrategia considerada. Es decir Pk(Mejor|X = i) = 0 Si me ... k Por otro lado, si el mejor premio está en posición iDonde me > k, se seleccionará el mejor premio si el mejor de los primeros me − 1 premios es uno de los primeros K (para entonces ninguno de los premios en posiciones K + 1K + 2...,me − 1 se seleccionaría). Pero, condicionada al mejor premio en posición i, es fácil verificar que todos los posibles ordenamientos de los otros premios sigan siendo igualmente probables, lo que implica que cada uno de los primeros me − 1 premios es igualmente probable que sea el mejor de ese lote. Por lo tanto, tenemos Pk(Mejor|X = i) = P{lo mejor de la primera me − 1 es uno de los primeros k|X = i} k =

− me > K y

Si 1

De lo anterior, obtenemos n

Sección 7,5

Expectativa condicional

n

k Pk(Mejor) =

k

i k 1 n

i

440

1 1

Dx

k 1

n 1 Reg n k istr k n Reg n k istr

X−1

n k

Ahora, si consideramos la función x g(x) = n Entonces 1 g Nn Así n gX = e Por lo tanto, desde Pk(Mejor) L g(k), vemos que la mejor estrategia del tipo considerado es dejar que la primera N/E Premios pasan y luego aceptar el primero en aparecer que es mejor que todos los. Además, desde g(n/e) = 1/e, la probabilidad de que esta estrategia Seleccione el mejor premio es de aproximadamente 1/Y L.36788. Observación. La mayoría de las personas están bastante sorprendidos por el tamaño de la probabilidad de obtener el mejor premio, pensando que esta probabilidad estaría cerca de 0 cuando N es grande. Sin embargo, incluso sin pasar por los cálculos, un poco de pensamiento revela que la probabilidad de obtener el mejor premio se puede hacer razonablemente grande. Considere la estrategia de dejar pasar la mitad de los premios y luego seleccionar el primero en aparecer que es mejor que todos los. La probabilidad de que un premio sea realmente seleccionado es la probabilidad de que el mejor en general esté entre la segunda mitad, y esto es . Además, dado que se selecciona un premio, en el momento de la selección que el premio habría sido el mejor de más de n/2 premios que han aparecido y, por lo tanto, tendrían una probabilidad de al menos de ser el mejor en general. Por lo tanto, la estrategia de dejar pasar la primera mitad de todos los premios y luego aceptar la primera que es mejor que todos esos premios tiene una probabilidad mayor que de obtener el mejor premio. . EJEMPLO 5L

Sección 7,5

Expectativa condicional

441

Dejar En ser una variable aleatoria uniforme en (0,1), y Supongamos que la distribución condicional de X, dado que En = p, es binomial con parámetros N Y p. Encuentre la función de masa de probabilidad de X. Solución. Condicionamiento sobre el valor de En Da P{X = i} = *

P{X = i|En = p}fU(p)Dp

1 0

Dp

= ! 1 pi(1

− p)n−me DP i!(N − i)!

* 0

Ahora, se puede mostrar (una prueba probabilística se da en la sección 6,6) que ! Por lo tanto, obtenemos P

X=i

0...,n

Es decir, obtenemos el sorprendente resultado de que si una moneda cuya probabilidad de subir cabezas se distribuye uniformemente sobre (0,1) se volteado N veces, entonces el número de cabezas que ocurren es igualmente probable que sea cualquiera de los valores 0,...,n. Debido a que la distribución condicional precedente tiene una forma tan agradable, vale la pena tratar de encontrar otro argumento para mejorar nuestra intuición en cuanto a por qué tal resultado es cierto. Para ello, deje que U,U1,...,UN Ser N + 1 uniforme independiente (0,1) variables aleatorias, y deje que X denotan el número de las variables aleatorias U1,...,UN que son más pequeños que U. Dado que todas las variables aleatorias U,U1,...,UN tienen la misma distribución, se deduce que En es igualmente probable que sea el más pequeño, o el segundo más pequeño, o el más grande de ellos; Así X es igualmente probable que sea cualquiera de los valores 0, 1,...,n. Sin embargo, dado que En = p, el número de Ume que son menos de En es una variable aleatoria binomial con parámetros N Y p, estableciendo así nuestro resultado anterior. . EJEMPLO 5m Supongamos que X Y Y son variables aleatorias continuas independientes que tienen densidades fX Y fYRespectivamente. Calcular P{X < Y}.

Sección 7,5

Expectativa condicional

442

Solución. Condicionamiento sobre el valor de Y Rendimientos q

P{X < Y} = *

P{X < Y|Y = y}fY(y)Dy −qq

* P{X < y|Y = y}fY(y)Dy q q

= *−qQ P{X < y}fY(y}Dy

por la independencia

= *−Q FX(y)fY(y)Dy

Donde FX(y) = *−Q fX(x)Dx

.y

EJEMPLO 5N Supongamos que X Y Y son variables aleatorias continuas independientes. Encuentre la distribución de X + Y. Solución. Por condicionamiento en el valor de Y, obtenemos q

P{X + Y < a} = *−qQ P{X + Y < a|Y = y}fY(y)Dy

= *−qQ P{X + y < a|Y = y}fY(y)Dy

= *−qQ P{X < Un − y}fY(y)Dy

* Q FX(Un − y)fY(y)Dy

.

Sección 7,5

7.5.4

Expectativa condicional

443

Varianza condicional

Así como hemos definido la expectativa condicional de X dado el valor de Y, también podemos definir la varianza condicional de X Dado que Y = y: Fue(X|Y2 ° E[(X − E[X|Y])2|Y]

Es decir, var(X|Y) es igual al cuadrado esperado (condicional) de la diferencia entre X y su (condicional) media cuando el valor de Y se da. En otras palabras, Las Vartaciones están condicionadas al hecho de que(X|Y) es exactamente análoga a la definición usual de varianza, pero ahora todos los expectativas-Y se conoce. Hay una relación muy útil entre var(X), la varianza incondicional de Xy var(X|Y), la varianza condicional de X Dado Y, que a menudo se puede aplicar para calcular var(X). Para obtener esta relación, observe primero que, por el mismo razonamiento que produce var(X) = E[X2] −E[X])2Tenemos Fue(X|Y) = E[X2|Y] −E[X|Y])2 Así E[Fue(X|Y)] = E[E[X2|Y]] − E[(E[X|Y])2] = E[X2] − E[(E[X|Y])2] Además, desde E[E[X|Y]] = E[X], hemos Fue(E[X|Y]) = E[(E[X|Y])2] −E[X])2

(5,9)

(5,10)

Por lo tanto, al añadir ecuaciones (5,9) y (5,10), llegamos a la siguiente proposición. Propuesta 5,2.

La fórmula de varianza condicional Fue(X) = E[Fue(X|Y)] + Fue(E[X|Y])

EJEMPLO 5o Supongamos que en cualquier momento T el número de personas que han llegado a un depósito de tren es una variable aleatoria de Poisson con la media λt. Si el tren inicial llega al depósito a la vez (independiente de cuándo llegan los pasajeros) que se distribuye uniformemente sobre (0, T), ¿cuál es la media y la varianza del número de pasajeros que entran en el tren? Solución. Para cada T Efectos 0, deje N(t) denotan el número de llegadas por t, y deje que Y denotan la hora a la que llega el tren. La variable aleatoria de interés es entonces N(Y). Acondicionamiento en Y Da

Sección 7,5

Expectativa condicional

444

E[N(Y)|Y = t] = E[N(t)|Y = t] = E[N(t)] = Lt

por la independencia de Y Y N(t) Desde N(t) es Poisson con la media λt

Ahí E[N(Y)|Y] = LY así que tomar las expectativas da λT E[N(Y)] = LE[Y] = 2 Para obtener var (N(Y)), usamos la fórmula de varianza condicional: Fue(N(Y)|Y = t) = Fue(N(t)|Y = t) = Fue(N(t)) por la independencia = Lt Así Fue(N(Y)|Y) = LY E[N(Y)|Y] = LY Por lo tanto, de la fórmula de varianza condicional, Fue(N(Y)) = E[λY] + Fue(lY)

T donde hemos utilizado el hecho de que var(Y) = T2/12.

.

Sección 7,6

Expectativa condicional y predicción

445

EJEMPLO 5p varianza de una suma de un número aleatorio de variables aleatorias Dejar X1,X2,... ser una secuencia de variables aleatorias independientes e idénticas distribuidas, y dejar N ser una variable aleatoria no negativa con valores enteros que sea independiente de la secuencia Xi,me Efectos 1. para calcular var

, condicionamos en N:

N

E



Fue



Xme N = NFue(X) ⎝i=1 ⎠

de variables aleatorias independientes, por lo que su expectativa y varianza son sólo El resultado anterior sigue porque, dado N, Ni=1 Xme es sólo la suma de un número fijo cantidades de los medios y varianzas individuales, respectivamente. Por lo tanto, de la fórmula de varianza condicional,

. 7,6 EXPECTATIVA CONDICIONAL Y PREDICCIÓN A veces surge una situación en la que el valor de una variable aleatoria X se observa y luego, sobre la base del valor observado, se hace un intento de predecir el valor de una segunda variable aleatoria Y. Dejar g(X) denotan el predictor; es decir, si X se observa que es igual a xEntonces g(x) es nuestra predicción para el valor de Y. Claramente, nos gustaría elegir G Para g(X) tiende a estar cerca de Y. Un posible criterio para la cercanía es elegir G para minimizar E[(Y − g(X))2]. Ahora demostramos que, bajo este criterio, el mejor predictor posible de Y Es g(X) = E[Y|X]. Propuesta 6,1. E[(Y − g(X))2] Efectos E[(Y − E[Y|X])2] Prueba. E[(Y − g(X))2|X] = E[(Y − E[Y|X] + E[Y|X] − g(X))2|X] = E[(Y − E[Y|X])2|X] + E[(E[Y|X] − g(X))2|X] + 2E[(Y − E[Y|X])(E[Y|X] − g(X))|X]

(6,1)

Sección 7,6

Expectativa condicional y predicción

446

Sin embargo, dado X,E[Y|X] − g(X), siendo una función de X, se puede tratar como una constante. Así

E

0 Por lo tanto, de ecuaciones (6,1) y (6,2), obtenemos

(6,2)

E[(Y − g(X))2|X] Efectos E[(Y − E[Y|X])2|X] y el resultado deseado sigue las expectativas de ambos lados de la expresión precedente.

Observación. Un segundo argumento más intuitivo, aunque menos riguroso, que verifica la Proposición 6,1 es la siguiente. Es sencillo verificar que E[(Y − c)2] se minimiza en C = E[Y]. (Ver ejercicio teórico 1.) Por lo tanto, si queremos predecir el valor de Y cuando no hay datos disponibles para su uso, la mejor predicción posible, en el sentido de minimizar el error cuadrado medio, es predecir que Y equivaldría a su media. Sin embargo, si el valor de la variable aleatoria X se observa que es x, entonces el problema de predicción sigue siendo exactamente igual que en el caso anterior (sin datos), con la excepción de que todas las probabilidades y expectativas están ahora condicionadas en el caso de que X = x. Por lo tanto, la mejor predicción en esta situación es predecir que Y será igual a su valor esperado condicional dado que X = x, estableciendo así la Proposición 6,1. . EJEMPLO 6A Supongamos que el hijo de un hombre de altura X (en pulgadas) alcanza una altura que normalmente se distribuye con la media X + 1 y varianza 4. ¿Cuál es la mejor predicción de la altura a pleno crecimiento del hijo de un hombre que mide 6 pies de altura? Solución. Formalmente, este modelo puede escribirse como Y=X+1+e Donde Y es una variable aleatoria normal, independiente de X, teniendo la media 0 y la varianza 4. Lla X Y Y, por supuesto, representan las alturas del hombre y su hijo, respectivamente. La mejor predicción E[Y|X = 72] es así igual a

E

Sección 7,6

Expectativa condicional y predicción

447

= 73 + E(e) por la independencia = 73

.

EJEMPLO 6B Supongamos que si un valor de señal s se envía desde la ubicación A, entonces el valor de la señal recibida en la ubicación B normalmente se distribuye con parámetros (s, 1). Si S, el valor de la señal enviada al A, normalmente se distribuye con parámetros (μ,σ2), ¿cuál es la mejor estimación de la señal enviada si R, el valor recibido en B, es igual a r? Solución. Comencemos calculando la densidad condicional de S Dado R. Tenemos fS,R(s,r) fS|R(s|r) = fR(r) = fS(s)fR|S(r|s) fR(r) = Mié−s− m)2/2σ2e−r−s)2/2 Donde K no depende de s. Nwo

(s

C1

C1

C2 Donde C1 Y C2 no dependen de s. Ahí

fS Donde C no depende de s. Por lo tanto, podemos concluir que la distribución condicional de S, la señal enviada, dado que R se recibe, es normal con la media y la varianza ahora dadas por E

Sección 7,6

Expectativa condicional y predicción

448

En consecuencia, de la Proposición 6,1, dado que el valor recibido es r, la mejor estimación, en el sentido de minimizar el error cuadrado medio, para la señal enviada es

E

r

Escribir la media condicional como lo hicimos anteriormente es informativo, ya que muestra que equivale a un promedio ponderado de μ, el valor esperado a priori de la señal, y r, el valor recibido. Las ponderaciones relativas dadas a M Y R están en la misma proporción entre sí como 1 (la varianza condicional de la señal recibida cuando s se envía) es σ2 (la varianza de la señal que se enviará). . EJEMPLO 6C En el procesamiento de señales digitales, los datos analógicos continuos crudos X deben ser cuantificados, o discretizados, con el fin de obtener una representación digital. Para cuantizar los datos brutos X, un conjunto creciente de números ai,me = 0 ;1 ;2..., de modo que →Lim ame = q y Lim ame = − q se fija, y los datos crudos entonces se cuantizan según el intervalome +q i→− q

(ai,ai+1] en el que X Mentiras. Vamos a denotar por yme el valor discretizado cuando X ∈ai,ai+1], y deje que Y denotan el valor discretizado observado, es decir, Y = yi La distribución de Y es dada por

Si ame < X ... ai+1

P{Y = yi} = FX(ai+1) − FX(ai) Supongamos ahora que queremos elegir los valores yi,me = 0 ;1 ;2... para minimizar E[(X − Y)2], la diferencia cuadrada media esperada entre los datos brutos y su versión cuantificada. (a)

(b)

Encuentre los valores óptimos yi,me = 0 ;1.... Para el cuantificador óptimo Y, muestran que E[Y] = E[X], por lo que el cuantificador de error cuadrado medio preserva la

media de entrada; (c) var(Y) = Fue(X) − E[(X − Y)2]. Solución. (a) para cualquier cuantificador Y, al condicionar el valor de Y, obtenemos E[(X

ame < X ... ai+1]P{ame < X ... ai+1} i

Ahora, si dejamos

Sección 7,6

Me = i

Expectativa condicional y predicción

449

Si ame < X ... ai+1

Entonces E[(X − yi)2|ame < X ... ai+1] = E[(X − yi)2|Me = i] y por la Proposición 6,1, esta cantidad se minimiza cuando yme = E[X|Me = i] = E[X|ame < X ... ai+1] Dx −

FX(ai)

Ahora, puesto que el cuantificador óptimo es dado por Y = E[X|I], se deduce que b E[Y] = E[X] c Fue(X) = E[Fue(X|I)] + Fue(E[X|I]) = E[E[(X − Y)2|I]] + Fue(Y) = E[(X − Y)2] + Fue(Y)

.

A veces sucede que la distribución de probabilidad conjunta de X Y Y no es completamente conocido; o si se conoce, es tal que el cálculo de E[Y|X = x] es matemáticamente insuperable. Sin embargo, si los medios y varianzas de X Y Y y la correlación de X Y Y se conocen, entonces podemos por lo menos determinar el mejor Lineal predictor de Y con respecto a X. Para obtener el mejor predictor lineal de Y con respecto a X, necesitamos elegir Un Y B para minimizar E[(Y −Un + Bx))2]. Nwo E[(Y −Un + Bx))2] = E[Y2 − 2Es − 2bXY + a2 + 2Abx + b2X2] = E[Y2] − 2Ae[Y] − 2Ser[Xy] + a2 + 2Abe[X] + b2E[X2] Tomando derivados parciales, obtenemos

(6,3)

Sección 7,6

Expectativa condicional y predicción

450

Ajuste de ecuaciones (6,3) a 0 y resolución para Un Y B produce las soluciones

B=

−−

E[Xy] E[X2]

=

=R

E[X]E[Y]

Cov(X,Y)

σy

(E[X])2

σx2

σx

(6,4)

RfyE[X] Un = E[Y] − Ser[X] = E[Y] − σx Donde R = Correlación(X,Y),σy2 = Fue(Y)Y σx2 = Fue(X). Es fácil verificar que los valores de Un Y B de la ecuación (6,4) minimizar E[(Y − Un − Bx)2]; por lo tanto, el mejor (en el sentido de error cuadrado medio) predictor lineal Y con respecto a X Es Rfy μy +

(X − mx) σx

Donde μy = E[Y] y μX = E[X]. El error cuadrado medio de este predictor es dado por

E =E = Py2 + R2σy2 − 2ρ2σy2 2

= Py (1 − p2)

(6,5)

Observamos de la ecuación (6,5) que si R está cerca +1 o −1, entonces el error cuadrado medio del mejor predictor linear está cerca de cero. . EJEMPLO 6D Un ejemplo en el que la expectativa condicional de Y Dado X es lineal en X, y por lo tanto en el que el mejor predictor lineal de Y con respecto a X es el mejor predictor general, es cuando X Y Y tienen una distribución normal bivariada. Para, como se muestra en el ejemplo 5C del capítulo 6, en ese caso,

Sección 7,6

Expectativa condicional y predicción

451

E μx)

.

x

7,7FUNCIONES DE GENERACIÓN DE MOMENTOS La función de generación de momento M(t) de la variable aleatoria X se define para todos los valores reales de T Por M(t) = E[eTx] Si X es discreto con la función de masa p(x) q

eTxf(x)Dx Si X es continua con densidad f(x) ⎩ −q Llamamos M(t) la función de generación de momento porque todos los momentos de X puede obtenerse mediante la diferenciación sucesiva M(t) y luego evaluar el resultado en T = 0. por ejemplo, d

Tx

]

ME[e Alemán =E

(7,1)

= E[CocheTx] donde hemos asumido que el intercambio de los operadores de diferenciación y expectativa es legítimo. Es decir, hemos asumido que d ⎣x Alemán en el caso discreto y D DX DT en el caso continuo. Esta suposición casi siempre puede justificarse y, de hecho, es válida para todas las distribuciones consideradas en este libro. Por lo tanto, de la ecuación (7,1), evaluada en T = 0, obtenemos M Semejantemente

Sección 7,6

Expectativa condicional y predicción

d M (t) =M (t) Alemán =

d

Tx

E[Coch e DT =E = E[X2eTx] Así M

]

452

453 Sección 7,7

Funciones de generación de momentos

En general, el nTH derivado de M(t) es dada por Mn(t) = E[XneTx] N Efectos 1 implicando que Mn(0) = E[Xn] N Efectos 1 Ahora computamos M(t) para algunas distribuciones comunes. EJEMPLO 7A distribución binomial con parámetros n y p Si X es una variable aleatoria binomial con parámetros N Y pEntonces M(t) = E[eTx] n

pk(1 − p)n−k

eTk k=0

P)n−K = (kEn=0T + 1 − p)n donde la última igualdad se desprende del teorema binomial. Rendimientos de diferenciación Ent

M Así E

Eg

Diferenciando una segunda vez rinde Ent

M Así E La varianza de X es dada por

Eg Fue(X) = E[X2] −E[X])2 = n(N − 1)p2 + Eg − n2p2

= Eg(1 − p) verificando el resultado obtenido anteriormente. EJEMPLO 7B distribución de Poisson con media λ Si X es una variable aleatoria de Poisson con parámetro λEntonces

.

454

M(t) = E[eTx] Q eTne− lλn

! n=0 Q (let)N =

e

n=0

= e− leλet = ExpLeT − 1)} Rendimientos de diferenciación eT − 1)}

M M Así E E

Fue(X) = E[X2] −E[X])2 =L Por lo tanto, tanto la media como la varianza de la variable aleatoria de Poisson equivalen a λ. . EJEMPLO 7C distribución exponencial con parámetro λ M(t) = E[eTx] q eTxλe− lX Dx

=* 0

q

=L*

e− (l −t)X Dx 0L

Para T < λ t Observamos de esta derivación que, para la distribución exponencial, M(t) se define sólo para los valores de T menos de λ. Diferenciación de M(t) Rendimientos M Ahí

455

E La varianza de X es dada por

. EJEMPLO 7D distribución normal Primero computamos el momento generando la función de una variable aleatoria normal de la unidad con los parámetros 0 y 1. Dejar Z ser una variable aleatoria, tenemos MZ(t) = E[eTz] = √1

* Q eTxe−x2/2 Dx 2π

−q

Sección 7,7

Funciones de generación de momentos

DX DX −

= et2/2 √1

* Q e−x−t)2/2 Dx 2π

−q

= et2/2 Por lo tanto, el momento que genera la función de la variable aleatoria normal de la unidad Z es dada por MZ(t) = et2/2. Para obtener el momento de generar la función de una variable aleatoria normal arbitraria, recordamos (ver sección 5,4) que X = m + SZ tendrá una distribución normal con parámetros M Y σ2 Cuando Z es una variable aleatoria normal de la unidad. Por lo tanto, el momento de generar la función de una variable aleatoria es dada por MX(t) = E[eTx]

456

= E[et(M + SZ)] = E[etμetσZ] = etμE[etσZ] = etμMZ(tP = etμe(tP2/2

Al diferenciarse, obtenemos

MX

MX Así E E implicando que Fue(X) = E[X2] − E([X])2 C.2

.

Las tablas 7,1 y 7,2 dan el momento de generar funciones para algunas distribuciones comunes discretas y continuas. Una propiedad importante de las funciones de generación de momentos es que el momento de generar la función de la suma de variables aleatorias independientes es igual al producto del momento individual generando funciones. Para probarlo, supongamos que X Y Y Son TABLA 7,1:DISTRIBUCIÓN DE PROBABILIDADES DISCRETAS

Momento Masa de la probabilidad Función p(x)

Generar Función M(t)

DecirVarianza

457 (EnT + 1 − p)n

Binomial conp)n−x Parámetros n, p; 0 ... P ... 1

Eg(1 − p)

Eg

X = 0, 1,...,n

Poisson cone− lλ X x! parámetro Soy yo. 0 X = 0, 1, 2,... p(1 − p)x−1 X = Geométrica con 1, 2,... parámetro 0 ... P ... 1

ExpLeT − 1)} Ent

λ

λ 1−p

1

p2 1 −1 − p)et

p r rr

r(1 − p)

Negativo binomial conp

Parámetros r, p; 0 ... P ... 1

p2

N = r, R + 1...

independiente y tienen funciones de generación de momentos MY(t)Respectivamente. Entonces MX+Y(t), el momento que genera la función de X + Y, es dada por

MX(t)

Y

MX+Y(t) = E[et(X+Y)] = E[eTxeEmpresa] = E[eTx]E[eEmpresa] = MX(t)MY(t) donde la igualdad de la siguiente a la última sigue a partir de la Proposición 4,1, ya X Y Y son independientes. Otro resultado importante es que la función de generación de momento determina de forma única la distribución. Es decir, si MX(t) existe y es finito en alguna región sobre T = 0, entonces la distribución de X se determina de forma única. Por ejemplo, si

MX

,

458

entonces se deduce de la tabla 7,1 que X es una variable aleatoria binomial con parámetros 10 y . EJEMPLO 7e Supongamos que el momento que genera la función de una variable aleatoria X es dada por M(t) = e3(Y−1). Qué es P{X = 0}?

TABLA 7,2:DISTRIBUCIÓN DE PROBABILIDAD CONTINUA

Función de la masa de la probabilidad, f(x) 1 Uniforme encima (a, b)

a

x

b

f(x) = ⎧ ⎪ ⎨B − a ⎪ ⎩0 Lo contrario

Parámetro Soy yo. 0L − t

f

Decir

Varianza

eTb

a

b

eH ge

t(B − a)

λ Exponencial con

Momento Generar Función M(t)

b 2

a 12

2

X Efectos 0s Gamma con parámetros λ

λ2 (s,L,Soy

Normal con parámetros (M,σ2)

s f

s )

μ

σ2

yo. 0X < 0

fq

461

Solución. Vemos en la tabla 7,1 que M(t) = e3(Y−1) es el momento que genera la función de una variable aleatoria de Poisson con la media 3. Por lo tanto, por la correspondencia unoa-uno entre el momento que genera funciones y las funciones de la distribución, sigue que X debe ser una variable aleatoria de Poisson con la media 3. Así P{X = 0} = e−3. . EJEMPLO 7F sumas de variables aleatorias binomiales independientes Si X Y Y son variables aleatorias binomiales independientes con parámetros (n, pym, p), respectivamente, ¿cuál es la distribución de X + Y? Solución. El momento que genera la función de X + Y es dada por MX+Y(t) = MX(t)MY(t) = (EnT + 1 − p)n(EnT + 1 − p)m 1 = (EnT + − p)m+n Sin embargo (EnT + 1 − p)m+N es el momento que genera la función de una variable aleatoria binomial que tiene parámetros M + N Y p. Por lo tanto, esta debe ser la distribución de X + Y. . EJEMPLO 7g sumas de variables aleatorias de Poisson independientes Calcule la distribución de X + Y Cuando X Y Y son variables aleatorias de Poisson independientes con los medios respectivos λ1 Y λ2. Solución. MX+Y(t) = MX(t)MY(t) = ExpM1(eT − 1)}ExpM2(eT − 1)} = Exp{(l1 + λ2)(eT − 1)} Ahí X + Y es Poisson distribuido con media λ1 + λ2, verificando el resultado dado en el ejemplo 3e del capítulo 6. EJEMPLO 7H sumas de variables aleatorias normales independientes Muestre que si X Y Y son variables aleatorias normales independientes con parámetros X respectivos Y (M2,σ22)Entonces + Y es normal con la media μ1 + M2 y la varianza Solución.

.

.

462

MX+Y(t) = MX(t)MY(t) que es el momento de función de una variable con la media μ1 + M2 y la

generar la aleatoria normal varianza

. El resultado deseado sigue a continuación porque la función de generación de momento determina de forma única la distribución. . Sección 7,7

Funciones de generación de momentos

EJEMPLO 7i Calcule el momento que genera la función de una variable aleatoria Chi-cuadrada con N grados de libertad. Solución. Podemos representar una variable aleatoria como Z Donde Z1,...,ZN son variables aleatorias normales estándar independientes. Dejar M(t) ser su función de generación de momento. Entonces, por lo anterior, M(t) = (E[eTz2])n Donde Z es una variable aleatoria normal estándar. Nwo E[eTz2] = √12P− qqq eTx22e−x22/2 Dx

1

*

e−X /2P Dx

Donde

σ2 = (1 − 2t)−1 q = (1 − 2t)−1/2 donde la igualdad de la siguiente a la última utiliza el hecho de que la densidad normal con la media 0 y la varianza σ2 se integra a 1. Por lo tanto M(t) = (1 − 2t)−n/2

.

EJEMPLO 7J momento que genera la función de la suma de un número aleatorio de variables aleatorias Dejar X1,X2,... ser una secuencia de variables aleatorias independientes e idénticas distribuidas, y dejar N ser una variable aleatoria no negativa, con valores enteros que sea

463

independiente de la secuencia X,me Efectos 1. queremos calcular el momento que genera la función de N

Y = Xi i=1

(En el ejemplo 5D, Y se interpretó como la cantidad de dinero gastado en una tienda en un día determinado cuando tanto la cantidad gastada por un cliente como el número de clientes son variables aleatorias). Para calcular el momento que genera la función de Y, nosotros primera condición en N de la siguiente N manera: ⎡ ⎧ ⎫

66







E

n

Donde MX(t) = E[eTxi] Ahí E[eEmpresa|N] = (MX(t))N Así MY(t) = E[(MX(t))N] Los momentos de Y ahora se puede obtener a partir de la diferenciación, de la siguiente manera: M Así E[Y] = MY (0) = E[Nex]

(7,2)

464

= E[N]E[X] verificando el resultado del ejemplo 5D. (En este último conjunto de ecualidades, hemos utilizado el hecho de que MX(0) = E[e0X] = 1. También M

X X

Así E[Y2] = MY (0) = E[N(N − 1)(E[X])2 + Hacer[X2]] = (E[X])2(E[N2] − E[N]) + E[N]E[X2]

(7,3)

= E[N](E[X2] −E[X])2) + (E[X])2E[N2] = E[N] fue(X) + (E[X])2E[N2] Por lo tanto, de ecuaciones (7,2) y (7,3), hemos Fue(Y) = E[N] fue(X) + (E[X])2(E[N2] −E[N])2) = E[N] fue(X) + (E[X])2Fue(N)

.

EJEMPLO 7K Dejar Y denotan una variable aleatoria uniforme en (0,1), y Supongamos que, condicional en Y = p, la variable aleatoria X tiene una distribución binomial con parámetros N Y p. En el ejemplo 5K, mostramos que X es igualmente probable que tome cualquiera de los valores 0, 1,...,n. Establezca este resultado mediante el uso de funciones de generación de momentos. Solución. Para calcular el momento que genera la función de X, empiece por condicionamiento en el valor de Y. El uso de la fórmula para la función de generación de momento binomial da E[eTx|Y = p] = (EnT + 1 − p)n Sección 7,7

Funciones de generación de momentos

Nwo Y es uniforme en (0, 1), por lo que, al tomar las expectativas, obtenemos EN Dp

465

et

1

= 1

et n

1

1

1

t

1

1 n

*

1

1

et

e2t

eNt

La casa (por la sustitución y = EnT + 1 − p) − N+1

Y−1

Debido a que el precedente es el momento de generar la función de una variable aleatoria que es igualmente probable que sea cualquiera de los valores 0, 1,...,n, el resultado deseado se deriva del hecho de que la función de generación de momento de una variable aleatoria determina de forma única su distribución. . 7.7.1Funciones de generación de momentos conjuntos También es posible definir la función de generación de momentos conjuntos de dos o más variables aleatorias. Esto se hace de la siguiente manera: para cualquier N variables aleatorias X1,...,Xn, la función de generación de momentos conjuntos, M(t1,...,tn), se define, para todos los valores reales de t1,...,tnPor M(t1,...,tn) = E[et1X1+··· +tnXn] Las funciones de generación de momentos individuales pueden obtenerse M(t1,...,tn) dejando a todos menos uno de los tjes 0. Es decir MXi(t) = E[eTxi] = M(0...0 t0..., 0) donde el T está en el iel lugar. Puede ser probado (aunque la prueba es demasiado avanzada para este texto) que la función de generación del momento común M(t1,...,tn) determina de forma única la distribución conjunta de X1,...,Xn. Este resultado se puede utilizar para probar que el N variables aleatorias X1,...,XN son independientes si y sólo si M(t1,...,tn) = MX1(t1)···MXn(tn) Para la prueba en una dirección, si el N las variables aleatorias son independientes, M(t1,...,tn) = E[e(t1X1+··· +tnXn)] = E[et1X1 ···etnXn] = E[et1X1]···E[etnXn] = MX1(t1)···MXn(tn)

por la independencia

(7,4)

466

Para la prueba en la otra dirección, si la ecuación (7,4) se satisface, después la función de generación del momento común M(t1,...,tn) es lo mismo que la función de generación de momento común de N variables aleatorias independientes, el ide los cuales tiene la misma distribución que Xi. Dado que la función de generación de momentos conjuntos determina de forma única la distribución conjunta, debe ser la distribución conjunta; por lo tanto, las variables aleatorias son independientes. EJEMPLO 7L Dejar X Y Y ser variables aleatorias normales independientes, cada una con M y la varianza σ2. En el ejemplo 7A del capítulo 6, mostramos que X + Y Y X − Y son independientes. Ahora establezcamos este resultado calculando su función de generación de momentos conjuntos: ] E[et(X+Y)+s(X−Y) = E[e(t+s)X+(t−s)Y] = E[e(t+s)X]E[e(t−s)Y] = eMt+s) + P2(t+s)2/2eMt−s) + P2(t−s)2/2 = e2μt+ P2t2eσ2s2 Pero reconocemos lo anterior como el momento común generando la función de la suma de una variable aleatoria normal con media 2M y la varianza 2σ2 y una variable aleatoria normal independiente con la media 0 y la varianza 2σ2. Porque el momento común función de generación única determina la distribución conjunta, se deduce que X + Y Y X − Y son variables aleatorias normales independientes. . En el siguiente ejemplo, usamos la función de generación de momentos conjuntos para verificar un resultado que se estableció en el ejemplo 2B del capítulo 6. EJEMPLO 7m Supongamos que el número de eventos que ocurren es una variable aleatoria de Poisson con la media L y que cada evento es contado independientemente con probabilidad p. Mostrar que el número de eventos contados y el número de eventos no contados son variables aleatorias de Poisson independientes con los medios respectivos λP Y L1 − p). Solución. Dejar X denotan el número total de eventos, y dejar que XC denotan el número de ellos que se cuentan. Para calcular la función de generación de momentos conjuntos de Xc, el número de eventos que se cuentan y X − Xc, el número que no se contabiliza, comienza por condicionamiento en X para obtener E[eSxc+t(X−Xc)|X = n] = eTnE[e(s−t)Xc|X = n] = eTn(Ens−T + 1 − p)N = (Ens + (1 − p)et)n

467

que sigue porque, condicionado a X = n,XC es una variable aleatoria binomial con parámetros N Y p. Ahí E[eSxc+t(X−Xc)|X] = (Ens + (1 − p)et)X Tomar las expectativas de ambos lados de esta ecuación produce E[eSxc+t(X−Xc)] = E[(Ens + (1 − p)et)X] Ahora, desde X es Poisson con la media λ, se deduce que E[eTx] = eLY−1). Por lo tanto, para cualquier valor positivo Un vemos (dejando Un = et) que E[aX] = eLa−1). Así ] E[eSxc+t(X−Xc) = eLEns+(1−p)et−1) = eλp(es−1)eL1−p)(et−1) Sección 7,8

Propiedades adicionales de las variables aleatorias normales

Como el precedente es el momento común que genera la función de las variables aleatorias de Poisson independientes con los medios respectivos λP Y L1 − p), se ha comprobado el resultado. . 7,8PROPIEDADES ADICIONALES DE LAS VARIABLES ALEATORIAS NORMALES 7.8.1

La distribución normal multivariada

Dejar Z1,...,ZN ser un conjunto de N variables aleatorias normales de la unidad independiente. Si, para algunas constantes aIj, 1 ... me ... m, 1 ... J ... nY μi, 1 ... me ... m, X1 = a11Z1 + ··· + a1nZN + M1

X

Xi

nZN +

M2

UnEnZN + Mi XM = am1Z1 + ··· + aMnZN + Mm

entonces las variables aleatorias X1,...,XM se dice que tienen una distribución normal multivariada. Por el hecho de que la suma de las variables aleatorias normales independientes es en sí misma una variable aleatoria normal, se deduce que cada Xme es una variable aleatoria normal con media y varianza dada, respectivamente, por E[Xi] = Mi

468 n

a2j=1 Permítanos ahora considerar M(t1,...,tm) = E[exp{t1X1 + ··· + tmXm}] la función de generación del momento común de X1,...,Xm. Lo primero que hay que tener en cuenta es que m Ables Zi =11,...,Zn, también se distribuye normalmente. Su media y varianza son desde tiXme es una combinación lineal de la variable aleatoria normal independiente E

⎡⎤ yM

m

Y m⎛ m

m



⎛ i=1

j=1

⎟ Cov m

m

titjCov(Xi,Xj) Ahora, si Y es una variable aleatoria normal con M y la varianza σ2Entonces E[eY] = MY(t)|t=1 = eμ+σ2/2 Así M ⎧ titjCov(Xi,Xj) ⎪ ⎬ 1

⎫ m m m

que muestra que la distribución conjunta de X1,...,XM está completamente determinado⎪ ⎭ un conocimiento de los valores de la bivariado normal. Se puede demostrar que cuandoEn[X=i] 2Y COV, la distribución normal multivariada se reduce a(Xi,Xj),i,J = 1...,m.

EJEMPLO 8A Encontrar P(X < Y) para variables aleatorias normales bivariadas X Y Y tener parámetros Corr(X,Y)

469

Solución. Kuz X − Y es normal con la media E[X − Y] = MX − my y la varianza Fue(X − Y) = Fue(X) + Fue(−Y) + 2Cov(X,−Y) y

obtenemos P{X < Y} = P{X − Y < 0}

= P⎪ ⎪ ⎨ ⎧ ⎩X8s −x2 +Y Eny2 (M −x2− PPxMouYy) < ⎪ (MSXy2− − m2yRf xσy ⎭ ⎫ ⎬ ⎪

σx2− +

y 2 x

x 2 y

2

x y

=

.

EJEMPLO 8B Supongamos que la distribución condicional ofmean Me y la varianza 1. Además, supongamos queX, dado que es una variable aleatoria normal = I, es normal con con media M y la varianza σ2. Encuentre la distribución condicional de Dado que X = x. Solución. En lugar de utilizar y, a continuación, simplificar la fórmula de Bayes, resolveremos este problema mostrando primero que X, tiene una distribución normal bivariada. Para ello, observe que la función de densidad X, puede escribirse como fX, Donde fX es una densidad normal con la media Me y la varianza 1. Sin embargo, si dejamos Z ser una variable aleatoria normal estándar que es independiente de, a continuación, la distribución condicional de Z + , dado que = I, también es normal con la media Me y la varianza 1. Sección 7,8

Propiedades adicionales de las variables aleatorias normales

En consecuencia, la densidad conjunta de Z + , es el mismo que el de X,. Porque la densidad común anterior es claramente bivariable normal (puesto que Z +

Y

son ambas

combinaciones lineales de las variables aleatorias normales independientes Z y), se deduce que X, tiene una distribución normal bivariada. Nwo

470

E

Y R = Corr(X,) = Corr(Z + ,) ,)

Kuz X, tiene una distribución normal bivariada, la distribución condicional de, dado que X = x, es normal con la media

E y la varianza

. 7.8.2La distribución conjunta de la media de la muestra y la varianza de la muestra Dejar X1,...,XN ser variables aleatorias normales independientes, cada una con M y Vari n

Ance σ2. Dejar X

Xi/N denotan la media de la muestra. Dado que la suma de los

i=1

las variables aleatorias normales es también una variable aleatoria normal, sigue que X es una variable aleatoria normal con (de los ejemplos 2C y 4a) el valor esperado M y la varianza σ2/n. Ahora, recordemos del ejemplo 4E que Cov(X,Xme − X) = 0

me = 1...,n

(8,1)

Además, tenga en cuenta que desde X,X1 − X,X2 − X,...,XN − X son todas las combinaciones lineales de las normales estándar independientes (Xme − m)/s,me = 1...,n, se deduce que X,Xme − X,me = 1...,N tiene una distribución conjunta que es normal multivariada. Si dejamos que Y ser una variable aleatoria normal, con la media M y la varianza σ2/n, que es independiente

471

de la Xi,me = 1...,nEntonces Y,Xme − X,me = 1...,N también tiene una distribución normal multivariada y, de hecho, debido a la ecuación (8,1), tiene los mismos valores esperados y las covarianzas como las variables aleatorias X,Xme − X,me = 1...,n. Pero puesto que una distribución normal multivariada es determinada completamente por sus valores y covarianzas esperados, se deduce que Y,Xme − X,me = 1...,N Y X,Xme − X,me = 1...,N tienen la misma distribución conjunta, lo que demuestra que X es independiente de la secuencia de desviaciones Xme − X,me = 1...,n. Desde X es independiente de la secuencia de desviaciones Xme − X,me = 1...,n, también es n independiente de la varianza de la muestra S

.

Ya que ya sabemos que X es normal con la media M y la varianza σ2/n, sigue siendo sólo para determinar la distribución de S2. Para lograrlo, recordemos, del ejemplo 4A, la identidad algebraica n

X)2

(N i=1 n

(Xme − m)2 − n(X − m)2 i=1

Al dividir la ecuación anterior por σ2, obtenemos

(8,2) Nwo N

es la suma de los cuadrados de N variables aleatorias normales estándar independientes y por lo tanto es una variable aleatoria Chi-cuadrada con N grados de libertad. Por lo tanto, de ejemplo 7i, su función de generación de momento es (1 − 2t)−n/2. También, porque

es el cuadrado de una variable normal estándar, es una variable aleatoria Chi-cuadrada con 1 grado de libertad, y por lo tanto tiene función de generación de momento (1 − 2t)−1/2.

472

Ahora, hemos visto anteriormente que las dos variables aleatorias en el lado izquierdo de la ecuación (8,2) son independientes. Por lo tanto, como el momento de generar la función de la suma de variables aleatorias independientes es igual al producto de su momento individual generando funciones, tenemos E[et(n−1)S2En2](1 − 2t)−1/2 = (1 − 2t)−n/2 O ] 1 E[et(n−1)S2En2 = ( − 2t)−n−1)/2 Pero como (1 − 2t)−(n−1)/2 es el momento de generar la función de una variable aleatoria Chicuadrada con N − 1 grados de libertad, podemos concluir, ya que la función de generación de momento determina de forma única la distribución de la variable aleatoria, se deduce que esa es la distribución de (N − 1)S2En2. Resumiendo, hemos mostrado lo siguiente. Sección 7,9

Propuesta 8,1.

Definición general de expectativa

Si X1,...,XN son independientes y se distribuyen idénticamente

variables aleatorias con media M y la varianza σ2, entonces la media de la muestra X y el varianza de la muestra S2 son independientes. X es una variable aleatoria normal con M y la varianza σ2/n;(N − 1)S2En2 es una variable aleatoria de Chi-cuadrada con N − 1 grados de libertad. 7,9 DEFINICIÓN GENERAL DE EXPECTATIVA Hasta este punto, hemos definido expectativas sólo para variables aleatorias discretas y continuas. Sin embargo, también existen variables aleatorias que no son ni discretas ni continuas, y que, también, pueden poseer una expectativa. Como ejemplo de una variable aleatoria, deje que X ser una variable aleatoria de Bernoulli con parámetro p , y deje que Y ser una variable aleatoria distribuida uniformemente a lo largo del intervalo [0,1]. Además, supongamos que X Y Y son independientes y definen la nueva variable aleatoria En Por X En = %

Si X

1 =

Y

Si X Z 1

Claramente En no es ni un discreto (ya que su conjunto de valores posibles, [0, 1], es incontable) ni un continuo (ya que P ) variable aleatoria. Para definir la expectativa de una variable aleatoria arbitraria, requerimos la noción de una integral de Stieltjes. Antes de definir esta integral, recordemos que, para cualquier función g, -

Dx se define por

473 b

n

Gg(xi)(xme − xi−1)

* a

donde se toma el límite Un = x0 < x1 < x2 ··· < xN = B Como n→Q y donde Para cualquier función de distribución F, definimos la integral de Stieltjes de la función no negativa G durante el intervalo [a, b] por b

n

Gg(xi)[F(xi) − F(xi−1)]

* a

donde, como antes, el límite se toma en todos los Un = x0 < x1 < ··· < xN = B Como n→Q y donde Max (xme − xi−1)→0. Además, definimos la integral de Stieltjes en toda la i=1...,n línea real por Lim

q

→+

* g(x) Df(x) b

g(x) Df(x) =Tres→ − qQ a

* −q

Por último, si G no es negativa, definimos g+ Y g− Por

una

g+(x) = %g(x0) SiSi gg((xx) <) el 00

g−(x) =% −g(x0)

IFIF

Gg((Xx) < 00 porque g(x) = g+(x) −

g−(x) Y g+ Y g− son ambas

función

no

474

funciones no negativas, es natural

definir

q

*

q

g(x) Df(x) = *

−q

q

g+(x) Df(x−

−q

g−(x) Df(x) −q

y decimos que -−Qq g(+xq Df. (x) existe siempre y cuando -y no son ambos iguales a Si X es una variable aleatoria arbitraria que tiene una distribución acumulativa F, definimos el valor esperado de X Por q

E[X] = *

x dF(x)

(9,1)

−q

Se puede demostrar que si X es una variable aleatoria discreta con función de masa p(x)Entonces q *

xdF −q

Xp(x) x:p(x)>0

mientras que si X es una variable aleatoria continua con función de densidad f(x)Entonces q *

q

xdF(x) = * −q

Xf(x)Dx −q

El lector debe notar que la ecuación (9,1) produce una definición intuitiva de E[X]; considerar la suma aproximada n

F(xi−1)] De E[X]. Kuz F(xi) − F(xi−1) es sólo la probabilidad de que X estará en el intervalo (xi−1,xi], la suma aproximativa multiplica el valor aproximado de X cuando está en el intervalo

475

(xi−1,xi] por la probabilidad de que será en ese intervalo y luego sumas sobre todos los intervalos. Claramente, a medida que estos intervalos se cada vez más pequeños y más pequeños, obtenemos el "valor esperado" de X. Las integrales de Stieltjes son principalmente de interés teórico porque producen una forma compacta de definir y lidiar con las propiedades de la expectativa. Por ejemplo, el uso de las integrales de Stieltjes evita la necesidad de tener que dar declaraciones separadas y pruebas de teoremas para los casos continuos y discretos. Sin embargo, sus propiedades son muy iguales a las de las integrales ordinarias, y todas las pruebas presentadas en este capítulo pueden traducirse fácilmente en pruebas en el caso general. Resumen Si X Y Y tienen una función de masa de probabilidad conjunta p(x, y) y, a continuación, E[g(X,Y) y

x

mientras que si tienen una función de densidad conjunta f(x, y) y, a continuación, Q

E[g(X,Y)] = *

*

g(x,y)f(x,y)DXDY

−q−q

Una consecuencia de las ecuaciones precedentes es que E[X + Y] = E[X] + E[Y] Resumen

que generaliza a

E Lla Covarianza entre variables aleatorias X Y Y es dada por Cov(X,Y) = E[(X − E[X])(Y − E[Y])] = E[Xy] − E[X]E[Y] Una identidad útil es ⎛n n

m m



i=1

<

Cov(Xi,Yj) Cuando N = M Y Yme = Xi,me = 1...,n, la fórmula precedente da

Cov(Xi,Yj) i=1

476

La correlación entre X Y Y, denotado por RX,Y), se define por Cov(X,Y) RX,Y) = √ Fue(X)Fue(Y) Si X Y Y son variables aleatorias discretas conjuntamente, entonces el valor esperado condicional de X, dado que Y = y, se define por E x

Si X Y Y son variables aleatorias continuas conjuntas, q E[X|Y = y] = *

XfX|Y(x|y) −q

Donde f(x,y) fX|Y(x|y) = fY(y) es la densidad de probabilidad condicional de X Dado que Y = y. Las expectativas condicionales, que son similares a las expectativas ordinarias, excepto que todas las probabilidades se calculan ahora condicional en el caso de que Y = y, satisfacer todas las propiedades de las expectativas ordinarias. Dejar E[X|Y] denotan esa función de Y cuyo valor en Y = y Es E[X|Y = y]. Una identidad muy útil es E[X] = E[E[X|Y]] En el caso de las variables aleatorias discretas, esta ecuación se reduce a la identidad E y

y, en el caso continuo, q

E[X] = * E[X|Y = y]fY(y) − q Las ecuaciones precedentes a menudo se pueden aplicar para obtener E[X] por el primer "condicionamiento" en el valor de alguna otra variable aleatoria Y. Además, ya que, para cualquier evento A, P(A) = E[IA], donde IUn es 1 si Un se produce y es 0 de lo contrario, podemos utilizar las mismas ecuaciones para calcular las probabilidades. La varianza condicional de X, dado que Y = y, se define por Fue(X|Y = y) = E[(X − E[X|Y = y])2|Y = y]

477

Let var(X|Y) ser esa función de Y cuyo valor en Y = y es var(X|Y = y). Lo siguiente se conoce como el fórmula de varianza condicional: Fue(X) = E[Fue(X|Y)] + Fue(E[X|Y]) Supongamos que la variable aleatoria X debe observarse y, sobre la base de su valor, hay que predecir el valor de la variable aleatoria Y. En tal situación, resulta que, entre todos los predictores, E[Y|X] tiene la menor expectativa de la Plaza de la diferencia entre ella y Y. Lla función de generación de momento de la variable aleatoria X se define por M(t) = E[eTx] Los momentos de X puede obtenerse mediante la diferenciación sucesiva M(t) y luego evaluando la cantidad resultante en T = 0. concretamente, hemos

E[Xn] =

dN M(t) 66666

N = 1, 2,...

Alemánn t=0

Dos resultados útiles en relación con las funciones de generación de momentos son, en primer lugar, que la función de generación de momento determina de forma única la función de distribución de la variable aleatoria y, en segundo lugar, que el momento de generar la función de la suma de aleatorio independiente variables es igual al producto de su momento generando funciones. Estos resultados conducen a pruebas sencillas de que la suma de variables aleatorias normales independientes (Poisson, gamma) sigue siendo una variable aleatoria normal (Poisson, gamma). Si X1,...,XM son todas las combinaciones lineales de un conjunto finito de variables aleatorias normales estándar independientes, entonces se dice que tienen un distribución normal multivariada. Su distribución conjunta se especifica por los valores de E[Xi], COV(Xi,Xj),i,J = 1...,m. Si X1,...,XN son variables aleatorias normales independientes y distribuidas idénticamente, media de la muestra n

Xi X N i=1 y sus varianza de la muestra N (Xme −

X)2 S N−1

478

son independientes. La media de la muestra X es una variable aleatoria normal con M y la varianza σ2/n; la variable aleatoria (N − 1)S2En2 es una variable aleatoria de Chi-cuadrada con N − 1 grados de libertad.

Problemas

479

Problemas 7,1. Un jugador lanza un dado justo y simultáneamente voltea una moneda justa. Si la moneda aterriza cabezas, entonces ella gana dos veces, y si las colas, entonces la mitad del valor que aparece en el dado. Determine sus ganancias esperadas. 7,2. El juego de clue involucra a 6 sospechosos, 6 armas y 9 habitaciones. Uno de cada uno es elegido aleatoriamente y el objeto del juego es adivinar los tres elegidos. (a) ¿Cuántas soluciones son posibles? En una versión del juego, la selección se hace y luego cada uno de los jugadores se le da aleatoriamente tres de las cartas restantes. Dejar S, WY R ser, respectivamente, el número de sospechosos, armas y habitaciones en el conjunto de tres cartas dadas a un jugador especificado. Además, deje que X denotan el número de soluciones que son posibles después de que el jugador observa sus tres cartas. (b) Express X en términos de S, WY R. c Encontrar E[X]. 7,3. Las apuestas son independientes, y cada una de ellas da como resultado que el jugador tenga la misma probabilidad de ganar o perder 1 unidad. Dejar En denotan las ganancias netas de un jugador cuya estrategia es dejar de apostar inmediatamente después de su primera victoria. Encontrar (a) P{En > 0} (b) P{En < 0} (c) E[W] 7,4. Si X Y Y tienen la función de la densidad común 1/y, fX,Y(x,y) = % 0

Si 0 < y < 1, 0 < X < y Lo contrario

Encontrar (a) E[Xy] (b) E[X] (c) E[Y] 7.5. El hospital del condado está situado en el centro de una plaza cuyos lados son de 3 millas de ancho. Si un accidente ocurre dentro de esta plaza, entonces el hospital envía una ambulancia. La red de carreteras es rectangular, por lo que la distancia de viaje desde el hospital, cuyas coordenadas son (0,0), hasta el punto (x, y) es |x| + |y|. Si un accidente ocurre en un punto que se distribuye uniformemente en la Plaza,

encontrar la distancia de viaje esperada de la ambulancia. 7.6. Un muerto justo se rodó 10 veces. Calcule la suma esperada de los 10 rollos. 7.7. Supongamos que Un Y B cada uno escoge aleatoriamente e independientemente 3 de 10 objetos. Buscar el número esperado de objetos un elegidos por ambos Un Y B; b no elegido por cualquiera Un O B; c elegido por exactamente uno de Un Y B. 7,8. N la gente llega por separado a una cena profesional. A su llegada, cada persona mira para ver si él o ella tiene algún amigo entre los presentes. Esa persona entonces se sienta en la mesa de un amigo o en una mesa desocupada si ninguno de los presentes es un amigo. Suponiendo que cada uno de los pares de personas es, independientemente, un par de amigos con probabilidad p, encuentre el número esperado de mesas ocupadas. Pista: Deje que Xme igual a 1 o 0, dependiendo de si el ila llegada se sienta en una mesa previamente desocupada. 7,9. Un total de N bolas, numeradas 1 a n, se ponen en N las urnas, también numeradas 1 a N de tal manera que la pelota me es igualmente probable que se vaya a cualquiera de las urnas 1, 2,...,i. Encontrar (a) el número esperado de urnas vacías; (b) la probabilidad de que ninguna de las urnas esté vacía. 7,10. Considere 3 ensayos, cada uno con la misma probabilidad de éxito. Dejar X denotan el número total de éxitos en estos ensayos. Si E[X] = 1.8, ¿qué es (a) el mayor valor posible de P{X = 3}? (b) el menor valor posible de P{X = 3}? En ambos casos, construya un escenario de probabilidad que resulte en P{X = 3} con el valor indicado. Pista: Para la parte (b), puede empezar En ser una variable aleatoria uniforme en (0,1) y luego definir los ensayos en términos del valor de U. 7.11. Considerar N volteretas independientes de una moneda que tiene probabilidad P de aterrizar en la cabeza. Supongamos que se produce un cambio cada vez que un resultado difiere de aquél que lo precede. Por ejemplo, si N = 5 y el resultado es HHTHT, entonces hay 3 cambios. Encuentre el número esperado de cambios.

Problemas Pista: Exprese el número de cambios como la suma de N − 1 variables aleatorias de Bernoulli. 7.12. Un grupo de N hombres y N las mujeres están alineadas al azar. (a) Encuentra el número esperado de hombres que tienen una mujer junto a ellos. (b) Repita la parte (a), pero ahora asumiendo que el grupo está sentado aleatoriamente en una mesa redonda. 7.13. Un conjunto de 1000 tarjetas numeradas de 1 a 1000 se distribuye aleatoriamente entre 1000 personas con cada una de las cuales recibe una tarjeta. Calcule el número esperado de tarjetas que se dan a las personas cuya edad coincide con el número de la tarjeta. 7.14. Una urna ha M bolas negras. En cada etapa, se retira una pelota negra y una nueva pelota que es negra con probabilidad P y blanco con probabilidad 1 − P se pone en su lugar. Encuentre el número esperado de etapas necesarias hasta que no haya más bolas negras en la urna. Nota: Lo anterior tiene posibles aplicaciones para comprender la enfermedad del SIDA. Parte del sistema inmunitario del cuerpo consiste en una cierta clase de células conocidas como células T. Hay 2 tipos de Tcells, llamados CD4 y CD8. Ahora, mientras que el número total de células T en enfermos de SIDA es (al menos en las primeras etapas de la enfermedad) el mismo que en individuos sanos, se ha descubierto recientemente que la mezcla de células T CD4 y CD8 es diferente. Aproximadamente 60 por ciento de las células T de una persona sana son del tipo CD4, mientras que el porcentaje de las células T que son de tipo CD4 parece disminuir continuamente en los enfermos de SIDA. Un modelo reciente propone que el virus del VIH (el virus que causa el SIDA) ataca a las células CD4 y que el mecanismo del cuerpo para reemplazar las células T muertas no distingue entre si la célula T muerta fue CD4 o CD8. En su lugar, sólo produce una nueva célula T que es CD4 con probabilidad 6 y CD8 con probabilidad. 4. Sin embargo, aunque esto parece ser una manera muy eficiente de reemplazar las células T muertas cuando cada uno de ellos es igualmente probable que sea cualquiera de las células T del cuerpo (y por lo tanto tiene la probabilidad de que......), tiene consecuencias peligrosas cuando se enfrenta a un virus que sólo apunta las células T CD4. 7.15. En el ejemplo 2H, digamos que me Y j, me Z j, forme un par coincidente si me elige el sombrero perteneciente a J Y J elige el sombrero perteneciente a i. Encuentre el número esperado de pares emparejados.

480 7.16. Dejar Z ser una variable aleatoria normal estándar y, para un xEstablecer X = % Z Si Z > x 0 Lo contrario

Mostrar que E . 7,17. Una baraja de N tarjetas numeradas 1 a N se barajan a fondo para que todos los posibles n! se puede suponer que los ordenamientos son igualmente probables. Supongamos que usted debe hacer N las conjetanzas secuencialmente, donde el iTH uno es una suposición de la tarjeta en posición i. Dejar N denotan el número de conjetanzas correctas. (a) Si no se le da ninguna información sobre sus conjetanzas anteriores, demuestre que, para cualquier estrategia, E[N] = 1. (b) Supongamos que después de cada conjetura se le muestra la tarjeta que estaba en la posición en cuestión. ¿Cuál crees que es la mejor estrategia? Mostrar que, en virtud de esta estrategia, 1 1 E[N] = + − + ··· + 1 n

n

JL 1 Dx RegistroN n 1 x

1 =

(c) Supongamos que se le dice después de cada conjetura si usted es correcto o incorrecto. En este caso, se puede demostrar que la estrategia que maximiza E[N] es uno que sigue adivinando la misma tarjeta hasta que se le dice que es correcto y luego cambia a una nueva tarjeta. Para esta estrategia, muestre que

E ! LY−1 Pista: Para todas las partes, exprese N como la suma de las variables aleatorias del indicador (es decir, Bernoulli). 7.18. Las cartas de una baraja ordinaria de 52 cartas de juego se dan la cara una a la vez. Si la primera carta es un as, o el 2º a Deuce, o el 3er a 3, o ..., o el decimotercero un rey, o el 14 un as, y así sucesivamente, decimos que se produce un partido. Tenga en cuenta que no requerimos que el (13N + 1) la tarjeta TH ser cualquier as en

Problemas particular para un partido que se produzca, pero sólo que sea un as. Calcule el número esperado de coincidencias que se producen. 7.19. Una determinada región está habitada por R tipos distintos de una determinada especie de insecto. Cada insecto capturado, independientemente de los tipos de las capturas anteriores, será de tipo me con probabilidad r

Pi,i (a) Calcule el número medio de insectos que se capturan antes de la primera captura de tipo 1. (b) Calcule el número medio de tipos de insectos que se capturan antes de la primera captura de tipo 1. 7.20. En una urna que contiene N bolas, el iTH Ball tiene peso W(i),me = 1...,n. Las bolas se quitan sin el reemplazo, una a la vez, según los siguientes regla: en cada selección, la probabilidad de que una bola dada en la urna sea elegida es igual a su peso dividido por la suma de los pesos restantes en la urna. Por ejemplo, si en algún momento i1,...,iR es el conjunto de bolas restantes en la urna, entonces la siguiente selección será iJ con probabilidad W

481 7.24. Una botella contiene inicialmente M pastillas grandes y N pastillas pequeñas. Cada día, un paciente escoge aleatoriamente una de las píldoras. Si se elige una pastilla pequeña, se come esa píldora. Si se elige una píldora grande, entonces la píldora se rompe en dos; una parte se devuelve a la botella (y ahora se considera una pequeña píldora) y la otra parte se come. (a) Dejar X denotan el número de pastillas pequeñas en la botella después de que la última píldora grande ha sido elegida y su medio más pequeño regresó. Encontrar E[X]. Pista: Definir N + M variables del indicador, una para cada una de las pequeñas pastillas inicialmente presentes y una para cada uno de los M pequeñas píldoras creadas cuando una grande se divide en dos. Ahora utilice el argumento del ejemplo 2m. (b) Dejar Y denotan el día en que se elige la última píldora grande. Encontrar E[Y]. Pista: ¿Cuál es la relación entre X Y Y? 7.25. Dejar X1,X2,... ser una secuencia de variables aleatorias continuas independientes y distribuidas idénticamente. Dejar N Efectos 2 sea tal que X1 Efectos X2

En(ik), J = 1...,r. Calcular

disminuir. Mostrar que E[N] = e. Pista: Primer

que se quite la pelota número 1.

hallazgo P{N Efectos n}. 7.26. Si X1,X2,...,XN son variables aleatorias independientes y distribuidas idénticamente que tienen distribuciones uniformes sobre (0,1), encuentran un E[Máx.(X1,...,Xn)]; b E[mín.(X1,...,Xn)]. ∗7,27. Si 101 artículos se distribuyen entre 10 cajas, entonces al menos uno de los cuadros debe contener más de 10 elementos. Utilice el método probabilístico para probar este resultado. ∗7,28. Lla kder-fuera deN

sistema de confiabilidad circular, K ... R ... n, consta de N componentes que se organizan de manera circular. Cada componente es funcional o fallido, y el sistema funciona si no hay ningún bloque de R componentes consecutivos de los cuales al menos K se han fallado. Demuestre que no hay manera de arreglar 47 componentes, 8 de los cuales se han fallado, para hacer un sistema circular funcional 3-de-12-out-of-47.

lugar en la urna 1 es uno de los tres seleccionados, y dejar Xme = 0 en caso contrario. Del mismo modo, deje Yme = 1 si el ibola blanca de la urna 2 es uno de los tres seleccionados, y dejar Yme = 0 en caso contrario. El número de bolas blancas en el trío ahora se puede escribir como

.

··· Efectos XN−1 < XN

Es decir N es el punto en el que la secuencia deja de

el número esperado de bolas que se retirank=1 antes de

7.21. Para un grupo de 100 personas, computar (a) el número esperado de días del año que son cumpleaños de exactamente 3 personas: (b) el número esperado de cumpleaños distintos. 7.22. ¿Cuántas veces esperarías rodar un muerto justo antes de que los 6 lados aparecieran al menos una vez? 7.23. La urna 1 contiene 5 bolas blancas y 6 negras, mientras que la urna 2 contiene 8 bolas blancas y 10 negras. Dos bolas se seleccionan aleatoriamente de la urna 1 y se colocan en la urna 2. Si se seleccionan aleatoriamente 3 bolas de la urna 2, calcule el número esperado de bolas blancas en el trío. Pista: Deje que Xme = 1 si el ibola blanca en primer

Efectos

∗7,29.

Hay 4 tipos diferentes de cupones, los primeros 2 de los cuales componen un grupo y el segundo 2 otro grupo. Cada nuevo cupón obtenido es de tipo me con probabilidad piDonde p1 = p2 = 1/8p3 = p4 = 3/8. encontrar el número esperado de cupones que uno

Problemas debe obtener para tener al menos uno de un los 4 tipos; (b) todos los tipos del primer grupo; (c) todos los tipos del segundo grupo; De todos los tipos de cualquiera de los grupos. 7.30. Si X Y Y son independientes y se distribuyen idénticamente con M y la varianza σ2Encontrar E[(X − Y)2] 7.31. En el problema 6, calcule la varianza de la suma de los rollos. 7.32. En el problema 9, calcule la varianza del número de urnas vacías. 7.33. Si E[X] = 1 y var(X) = 5, encontrar (a)

E[(2

+

2

X) ]; b Fue(4 + 3X). 7.34. Si 10 parejas casadas se sientan aleatoriamente en una mesa redonda, calcule (a) el número esperado y (b) el variación del número de esposas que están sentados junto a sus maridos. 7.35. Las cartas de una baraja ordinaria se dan la cara una a la vez. Calcule el número esperado de tarjetas que necesitan ser giradas cara arriba para obtener un 2 ases; (b) 5 picas; c los 13 corazones.

482 (y x/y)

=1

+

,

X>

0y > 0 f(x,y)

e− y

Encontrar E[X], E[Y], y demostrar que COV(X,Y) = 1. 7.41. Un estanque contiene 100 peces, de los cuales 30 son carpas. Si se capturan 20 peces, ¿cuál es la media y la varianza del número de carpas entre los 20? ¿Qué suposiciones estás haciendo? 7.42. Un grupo de 20 personas que consta de 10 hombres y 10 mujeres se organizan aleatoriamente en 10 pares de 2 cada uno. Calcule la expectativa y la varianza del número de pares que consisten en un hombre y una mujer. Ahora Supongamos que las 20 personas consisten en 10 parejas casadas. Calcule la media y la varianza del número de parejas casadas que se emparejan entre sí. 7.43. Dejar X1,X2,...,XN ser variables aleatorias independientes que tengan una función de distribución continua desconocida F, y deje que Y1,Y2,...,YM ser variables aleatorias independientes que tengan una función de distribución continua desconocida G. Ahora ordene esos N + M variables, y dejar que 1 pequeño de ⎧

Si el iel más

los N + m Ime =variables es de la X Muestra ⎩0 de lo contrario

7.36. Dejar X ser el número de 1 y Y el número de 2 que ocurren en N rollos de un dado justo. Computar COV (X, Y).

n+M

La variable aleatoria

7.39. Dejar X1,...ser independiente con la media común M y

R Iime es la suma de las filas de la X muestra y es la base de un procedimiento estadístico estándar (llamado prueba de Wilcoxon SUM-ofranks) para comprobar si F Y G son distribuciones idénticas. Esta prueba acepta la hipótesis de que F = G Cuando R no es ni demasiado grande ni demasiado pequeño. Suponiendo que la hipótesis de igualdad sea de hecho correcta, calcule la media y la varianza de R. Pista: Utilice los resultados del ejemplo 3e. 7,44. Entre dos métodos distintos para fabricar ciertas mercancías, la calidad de las mercancías producidas por el método me es una variable aleatoria continua que Distribución Fi,me = 1,2. Supongamos que N las

varianza común σ2y establezca YN = XN + Xn+1 + Xn+2.

mercancías son producidas por el método 1 y M por

Para J Efectos 0, encontrar COV(Yn,Yn+j).

el método 2. Clasifique el N + M mercancías según

7.37. Un dado se rueda dos veces. Dejar X igual a la suma de los resultados, y dejar Y igual al primer resultado menos el segundo. Computar COV (X, Y). 7.38. Las variables aleatorias X Y Y tienen una función de densidad conjunta dada por f(x,y) = 02e−2x/x 0

0 ... X C., 0 ... y ... x Lo contrario

Computar COV (X, Y).

7.40. La función de densidad conjunta de X Y Y es dada por

calidad, y deje

Problemas 1 ⎧

fue

Si el jel mejor

producido de =método 1

XJ

⎩2 Lo contrario

Para el vector X1,X2,...,Xn+m, que consiste en N 1 y M

483 7,49. Hay dos monedas deforme en una caja; sus probabilidades de aterrizar en la cabeza cuando se voltean son, respectivamente, .4 y .7. una de las monedas es ser elegida aleatoriamente y volteada 10 veces. Dado que dos de los primeros tres volteretas aterrizaron en cabezas, ¿cuál es el número esperado condicional de cabezas en los 10 saltos? 7,50. La densidad articular de X Y Y es dada por

2, deje R denotan el número de corridas de 1. Por ejemplo, si N = 5M = 2, y X = 1, 2, 1, 1, 1, 1, 2,

e−x/ye−y f(x,y) =

,

entonces R = 2. Si F1 = F2 (es decir, si los dos métodos producen mercancías distribuidas idénticamente), ¿cuál es la media y la varianza de R? 7,45. Si X1,X2,X3Y X4 son variables aleatorias no correlacionadas (en pares), cada una de las cuales tiene la media 0 y la varianza 1, computan las correlaciones de un X1 + X2 Y X2 + X3; b X1 + X2 Y X3 + X4. 7,46. Considera el siguiente juego de dados, como se juega en un determinado Casino de juego: los jugadores 1 y 2 rodar un par de dados a su vez. A continuación, el Banco enrolla los dados para determinar el resultado de acuerdo con la siguiente regla: jugador i,me = 1, 2, gana si su rollo es estrictamente mayor que el del Banco. Para me = 1, 2, deje Ime = %0 de lo contrario 1 si me Gana y mostrar que I1 Y I2 están positivamente correlacionados. Explique por qué se esperaba este resultado. 7,47. Considerar a Gráfico Tener n Vértices Etiquetado 1, 2,...,n, y Supongamos que, entre cada uno de los pares de vértices distintos, un borde se presenta de forma independiente con probabilidad p. El grado de vértice i, designado como Di, es el número de aristas que tienen el vértice me como uno de sus vértices. (a) ¿Cuál es la distribución de Di? (b) Encontrar RDi,Dj), la correlación entre Dme Y Dj. 7,48. Un dado justo es rodado sucesivamente. Dejar X Y Y denotan, respectivamente, el número de rollos necesarios para obtener un 6 y un 5. Encontrar un E[X]; b E[X|Y = 1]; c E[X|Y = 5].

0 < X C.,

0 < y C.

y Calcular E[X2|Y = y]. 7,51. La densidad articular de X Y Y es dada por e−y f(x,y) =

, 0 < X < y,

0
3

Calcular E[X |Y = y]. 7,52. Una población está formada por R subgrupos desarticulan. Dejar pme denotan la proporción de la población que está en el subgrupo i,me = 1...,r. Si el peso medio de los miembros del subgrupo me Es wi,me = 1...,r, ¿cuál es el peso promedio de los miembros de la población? 7,53. Un prisionero está atrapado en una celda que contiene 3 puertas. La primera puerta conduce a un túnel que lo devuelve a su celda después de 2 días de viaje. El segundo conduce a un túnel que lo devuelve a su celda después de 4 días de viaje. La tercera puerta conduce a la libertad después de 1 día de viaje. Si se asume que el preso siempre seleccionará las puertas 1, 2 y 3 con las probabilidades respectivas. 5,. 3, y. 2, ¿Cuál es el número esperado de días hasta que el prisionero llegue a la libertad? 7,54. Considera el siguiente juego de dados: se rodó un par de dados. Si la suma es 7, entonces el juego termina y usted gana 0. Si la suma no es 7, entonces tienes la opción de detener el juego y recibir una cantidad igual a esa suma o empezar de nuevo. Para cada valor de i,me = 2..., 12, encontrar su retorno esperado si emplea la estrategia de detener la primera vez que un valor por lo menos tan grande como me Aparece. ¿Qué valor de me conduce a la mayor rentabilidad esperada? Pista: Deje que Xme denotan la devolución cuando se utiliza el valor crítico i. Para calcular E[Xi], condición en la suma inicial. 7,55. Diez cazadores están esperando a que los patos vuelen. Cuando una bandada de patos vuela sobre la cabeza, los cazadores disparan al mismo tiempo, pero cada uno escoge su blanco al azar, independientemente de

Problemas los otros. Si cada cazador golpea su objetivo de forma independiente con la probabilidad......, calcule el número esperado de patos que se golpean. Supongamos que el número de patos en un rebaño es una variable aleatoria de Poisson con la media 6. 7,56. El número de personas que entran en un elevador en la planta baja es una variable aleatoria de Poisson con media 10. Si hay N pisos por encima de la planta baja, y si cada persona es igualmente probable que bajar en cualquier uno de los N pisos, independientemente de donde los demás bajar, calcular el número esperado de paradas que el ascensor hará antes de descargar todos sus pasajeros. 7,57. Supongamos que el número esperado de accidentes por semana en una planta industrial es de 5. Supongamos también que el número de trabajadores heridos en cada accidente son variables aleatorias independientes con una media común de 2,5. Si el número de trabajadores lesionados en cada accidente es independiente del número de accidentes que ocurren, calcule el número esperado de trabajadores heridos en una semana. 7,58. Una moneda con probabilidad P de subir cabezas es continuamente volteada hasta que las dos cabezas y las colas han aparecido. Encontrar un el número esperado de volteretas; b la probabilidad de que el último tirón aterriza en cabezas. 7,59. Hay N + 1 participantes en un juego. Cada persona independientemente es un ganador con probabilidad p. Los ganadores comparten un premio total de 1 unidad. (Por ejemplo, si 4 personas ganan, entonces cada uno de ellos recibe , mientras que si no hay ganadores, ninguno de los participantes recibe nada.) Dejar Un denotan un especificado de los jugadores, y dejar X denotan la cantidad recibida por A. (a) Calcule el premio total esperado compartido por los jugadores. = 1 −1 − p)n+1

484 Cuando B es una variable aleatoria binomial con parámetros N Y p. 7,60. Cada uno de los M + 2 jugadores pagan 1 unidad a un gatito con el fin de jugar el siguiente juego: una moneda justa es ser volteado sucesivamente N veces, donde N es un número impar, y se observan los resultados sucesivos. Antes de la N voltea, cada jugador anota una predicción de los resultados. Por ejemplo, si N = 3, entonces un jugador podría anotar (H,H,T), lo que significa que él o ella predice que el primer tirón aterriza en cabezas, el segundo en cabezas, y el tercero en las colas. Después de que las monedas se voltean, los jugadores cuentan su número total de predicciones correctas. Por lo tanto, si los resultados reales son todos cabezas, entonces el jugador que escribió (H, H, T) tendría 2 predicciones correctas. El gatito total de M + 2 entonces se divide uniformemente entre los jugadores que tienen el mayor número de predicciones correctas. Puesto que cada uno de los saltos de la moneda es igualmente probable que aterriza en las cabezas o las colas, M de los jugadores han decidido hacer sus predicciones de una manera totalmente aleatoria. Específicamente, cada uno de ellos volará una de sus propias monedas justas N veces y luego usar el resultado como su predicción. Sin embargo, la final 2 de los jugadores han formado un sindicato y utilizará la siguiente estrategia: uno de ellos hará predicciones de la misma manera aleatoria que el otro M jugadores, pero el otro predicará exactamente lo contrario de la primera. Es decir, cuando el miembro randomizante del sindicato predice un H, el otro miembro predice un T. Por ejemplo, si el miembro aleatorización del sindicato predice (H, H, T), entonces el otro predice (T, T, H). (a) Argumentan que exactamente uno de los miembros del Sindicato tendrá más de n/2 predicciones correctas. Recordar N es extraño.) (b) Dejar X denotan el número de M jugadores no sindicadores que tienen más de n/2 predicciones correctas. ¿Cuál es la distribución de X? (c) Con X como se define en la parte b), argumentan que

(b) Argumentar que E[X] . N + 1 (c) Calcular E[X] por condicionamiento de si Un es un ganador, y concluyen que

(d) Utilice la parte (c) del problema 59 para concluir

E[(1 + B)−1] = 1 −1+ − p)n+1 (n

E[pago al sindicato]

1)p

que E[pago al sindicato]

Problemas

y calcular explícitamente este número cuando M = 1, 2 y 3. Porque se puede demostrar que 2(m

485 7,63. Una urna contiene 30 bolas, de las cuales 10 son rojas y 8 son azules. De esta urna, 12 bolas se retiran aleatoriamente. Dejar X denotan el número de rojo y Y el número de bolas azules que se retiran. Encontrar COV(X,Y) (a) definiendo el indicador apropiado (es decir, Bernoulli) variables aleatorias

m se deduce que la estrategia del sindicato siempre le da un beneficio esperado positivo. 7,61. Dejar X1,... ser variables aleatorias independientes con la función de distribución común F, y Supongamos que son independientes de N, una variable aleatoria geométrica con parámetro p. Dejar M = Max(X1,...,XN). (a) Encontrar P{M ... x} por condicionamiento en N. (b) Encontrar P{M ... x|N = 1}. (c) Encontrar P{M ... x|N > 1}. (d) Use (b) y (c) para rederivar la probabilidad que encontró en (a). 7,62. Dejar U1,U2,... ser una secuencia de variables aleatorias uniformes independientes (0,1). En el ejemplo 5i mostramos que, para 0 ... X ... 1E[N(x)] = exDonde ⎧ n

⎫ N Este problema da otro enfoque para establecer ese resultado. un Mostrar por inducción en N que, para 0 < X ... 1 y todos N Efectos 0 xn P{N(x) el N + 1} = n! Pista: Primera condición en U1 y luego usar la hipótesis de inducción. Utilice la parte (a) para concluir que E[N(x)] = ex

Xi,YJ tal que X

Xi,Y

Yj

(b) por acondicionamiento (ya sea en X O Y) para determinar E[Xy]. 7.64. Tipo me función de las bombillas para una cantidad aleatoria de tiempo μme y desviación estándar σi,me = 1, 2. una bombilla elegida aleatoriamente de un recipiente de bulbos es una bombilla de tipo 1 con probabilidad P y un bulbo de tipo 2 con probabilidad 1 − p. Dejar X Denotar la vida útil de esta bombilla. Encontrar un E[X]; b Fue(X). 7.65. El número de tormentas invernales en un buen año es una variable aleatoria de Poisson con la media 3, mientras que el número en un año malo es una variable aleatoria de Poisson con la media 5. Si el próximo año va a ser un buen año con probabilidad... o un mal año con probabilidad......, encontrar el valor esperado y la varianza del número de tormentas que se producirán. 7.66. En el ejemplo 5C, calcule la varianza de la longitud de tiempo hasta que el minero alcance la seguridad. 7.67. Considere a un jugador que, en cada apuesta, gane o pierda su apuesta con las probabilidades respectivas P y 1 − p. Un popular sistema de juego conocido como la estrategia de Kelley es apostar siempre la fracción 2P − 1 de tu fortuna actual cuando P > . Calcule la fortuna esperada después N juega de un jugador que comienza con X unidades y emplea la estrategia de Kelley. 7.68. El número de accidentes que una persona tiene en un año dado es una variable aleatoria de Poisson con λ. Sin embargo, supongamos que el valor de L cambia de persona a persona, siendo igual a 2 por 60 por ciento de la población y 3 por el otro 40 por ciento. Si una persona es elegida al azar, ¿cuál es la probabilidad de que tendrá (a) 0 accidentes y (b) exactamente 3 accidentes en un año determinado? ¿Cuál es la probabilidad condicional de que tendrá 3 accidentes en un año dado, dado que no tuvo accidentes el año anterior?

Problemas 7.69. Repita el problema 68 cuando la proporción de la población que tiene un valor de L menos de X es igual a 1 − e−x. 7.70. Considere una urna que contiene un gran número de monedas, y Supongamos que cada una de las monedas tiene alguna probabilidad P de girar las cabezas cuando se volteado. Sin embargo, este valor de P varía de una moneda a otra. Supongamos que la composición de la urna es tal que si una moneda se selecciona al azar de ella, entonces Lla p-el valor de la moneda puede considerarse como el valor de una variable aleatoria que se distribuye uniformemente sobre [0,1]. Si se selecciona una moneda al azar de la urna y se volteó dos veces, calcule la probabilidad de que un el primer tirón da lugar a una cabeza; b ambos volteretas resultan en cabezas. 7.71. En el problema 70, supongamos que la moneda es sacudido N Veces. Dejar X denotan el número de cabezas que ocurren. Mostrar que 1 P{X = i} =

+ me = 0, 1,...,o O 1

Pista: Hacer uso del hecho de que ! Cuando Un Y B son enteros positivos. 7.72. Supongamos que en el problema 70 seguimos voltear la moneda hasta que aparezca una cabeza. Dejar N denotan el número de volteretas necesarias. Encontrar un P{N Efectos i},me Efectos 0 b P{N = i}; c E[N]. 7,73. En el ejemplo 6B, deje S denotan la señal enviada y R la señal recibida. (a) Calcular E[R]. (b) Calcular var(R). (c) Es R normalmente distribuidos? De Computar COV(R,S). 7.74. En el ejemplo 6C, supongamos que X se distribuye uniformemente sobre (0,1). Si las regiones discretizadas están determinadas por a Y a2 = 1, calcule el cuantificador óptimo Y y computación E[(X − Y)2]. 7.75. El momento que genera la función de X es dada por MX(t) = Exp{2eT − 2} y la de Y Por MY(t) = . Si X Y Y son independientes, lo que

486 un P{X + Y = 2}? b P{Xy = 0}? c E[Xy]? 7,76. Dejar X ser el valor del primer dado y Y la suma de los valores cuando se ruedan dos dados. Calcule la función de generación de momentos conjuntos de X Y Y. 7,77. La densidad articular de X Y Y es dada por

f

Q, − q < X C. (a) Calcule la función de generación de momentos conjuntos de X Y Y. (b) Calcule el momento individual generando funciones. 7,78. Dos sobres, cada uno conteniendo un cheque, se colocan delante de usted. Usted debe elegir uno de los sobres, abrirlo y ver la cantidad del cheque. En este punto, puede aceptar esa cantidad o puede cambiarlo por el cheque en el sobre sin abrir. ¿Qué debería hacer? ¿Es posible idear una estrategia que lo haga mejor que simplemente aceptar el primer sobre? Dejar Un Y B,Un < B, denotan las cantidades (desconocidas) de los cheques, y observe que la estrategia que selecciona aleatoriamente un sobre y siempre acepta su cheque tiene una rentabilidad esperada de (Un + B)/2. considere la siguiente estrategia: deje que F(·) ser una función de distribución estrictamente creciente (es decir, continua). Elija un sobre aleatoriamente y ábralo. Si el cheque descubierto tiene el valor x, entonces aceptarla con probabilidad F(x) y cambiarlo con probabilidad 1 − F(x). (a) Demuestre que si emplea esta última estrategia, entonces su retorno esperado es mayor que (Un + B)/2. Pista: Condición de si el primer sobre tiene el valor Un O B. Ahora considere la estrategia que corrige un valor X y luego acepta la primera comprobación si su valor es mayor que X y los intercambia de otra manera. (b) Demuestre que, para cualquier x, el retorno esperado x-la estrategia es siempre al menos (Un + B)/2 y que es estrictamente más grande que (Un + B)/2 Si X se encuentra entre Un Y B. (c) Dejar X ser una variable aleatoria continua en toda la línea, y considerar la siguiente estrategia: generar el valor de X, y si X = x, a continuación, emplear el x-estrategia de la parte b). Mostrar que

Problemas el rendimiento esperado bajo esta estrategia es mayor que (Un + B)/2. 7,79. Las sucesivas ventas semanales, en unidades de 1000 dólares, tienen una distribución normal bivariada con una media común de 40, desviación estándar común 6, y correlación .6. (a) Encuentre la probabilidad de que el total de las próximas 2 semanas de ventas supere los 90. (b) Si la correlación se .2 en lugar de .6, ¿crees que esto aumentaría o disminuiría la respuesta a (a)? Explícale tu razonamiento. c Repetir (a) cuando la correlación es .2.

487 Pista: Deje que X denotan el número de Ame que ocurren. Mostrar que ambos lados de la ecuación anterior son iguales a E[X]. 7,6. En el texto, señalamos que

Y

E[Xi]

Cuando el Xme son todas las variables aleatorias no negativas. Dado que una integral es un límite de sumas, se podría esperar que

EJERCICIOS TEÓRICOS 7.1. Mostrar que E[(X − a)2] se minimiza en Un = E[X].

q

EE[X(t)]Alemán 7.2. Supongamos que X es una variable aleatoria continua con función de densidad f. Mostrar que E[|X] se minimiza cuando Un es igual a la mediana de

Cuando X(t), 0 ... T < q, son todas las variables aleatorias no negativas; y este resultado es realmente cierto. Utilíelo para dar otra prueba del resultado que, para una variable aleatoria no negativa X,

Pista: Escribir

q

P{X > t}Alemán

E[X)*

E[|X − a|] = * |X − a|f(x)Dx

0

Ahora dividir la integral en las regiones donde X < Un y donde X > ay diferenciar. 7.3. Pruebe la Proposición 2,1 cuando (a) X Y Y tienen una función de masa de probabilidad conjunta; (b) X Y Y tienen una función de densidad de probabilidad conjunta y g(x,y) el 0 para todos x,y. 7.4. Dejar X ser una variable aleatoria que tiene una expectativa finita M y la varianza σ , y deje que g(·) 2

ser una función dos veces diferenciable. Mostrar que

Pista: Defina, para cada t, la variable aleatoria X(t) Por 1

0 Si T Efectos X Ahora relacionar

Diez X ÚSt Y, si, para todos t. P{X > t} cuenta P{Y > t}

Pista: Expandir g(·) en una serie de Taylor sobre μ. Utilice los tres primeros términos e ignore el resto. 7.5. Dejar A1,A2,...,AN ser eventos arbitrarios y definir CK = {al menos K Dela Ame Ocurrir}. Mostrar que

Muestre que si X ÚSt YEntonces E[X] Efectos E[Y] cuando un X Y Y son variables aleatorias no negativas; b X Y Y son variables aleatorias arbitrarias. Pista: Escribir X Como X = X+ − X−

N

P(Ak) k=1

k=1

Alemán Para X.

7,7. Decimos que-X Es estocásticamente más grande Que Yescrito

E[g(X)] L g

n

Si T < X

X(t) = %

Donde

Problemas X+ = %X Si X Efectos 0 , X− =% − 0 Si X Efectos 0 0

Si X < 0

X

Si X < 0

Del mismo modo, representan Y Como Y+ − Y−. A continuación, haga uso de la parte (a). 7,8. Mostrar que X es estocásticamente más grande que Y Si y sólo si E[f(X)] Efectos E[f(Y)] para todas las funciones crecientes f. Pista: Mostrar que X ÚSt YEntonces E[f(X)] Efectos E[f(Y)] mostrando que f(X) elSt f(Y) y luego usando ejercicio teórico 7,7. Para mostrar que si E[f(X)] Efectos E[f(Y)] para todas las funciones crecientes fEntonces P{X > t} cuenta P{Y > t}, defina una función de aumento adecuada f. 7,9. Una moneda con probabilidad P de aterrizaje en cabezas se volteado N Veces. Calcule el número esperado de corridas de cabezas de tamaño 1, de tamaño 2 y de tamaño k, 1 ... K ... n. 7,10. Dejar X1,X2,...,XN ser variables aleatorias positivas independientes y distribuidas idénticamente. Para K ... nEncontrar

E 7,11. Considerar N ensayos independientes, cada uno de los cuales da R posibles resultados con probabilidades P1,P2,...,Pr. Dejar X denotan el número de resultados que nunca ocurren en ninguno de los ensayos. Encontrar

488

489 E[X] y mostrar que, entre todos los vectores de probabilidad P1,...,Pr,E[X] se minimiza cuando Pme = 1/r,me = 1...,r. 7,12. Dejar X1,X2,... ser una secuencia de variables aleatorias independientes que tengan la función de masa de probabilidad P{XN = 0} = P{XN = 2} = 1/2 La variable aleatoria X

n 1

q =

N Efectos 1

Xn/3N se dice que

tiene la Distribución de cantor. Encontrar E[X] y var(X). 7,13. Dejar X1,...,XN ser variables aleatorias continuas independientes y distribuidas idénticamente. Decimos que un valor récord se produce en el momento j,J ... nSi XJ Efectos Xme para todos los 1 ... me ... j. Mostrar que n

/j;

valores

de

registro)

. 7,14. Por ejemplo 2i, demuestre que la varianza del número de cupones necesarios para amasar un conjunto completo es igual a En (N − i)2 i=1 Cuando N es grande, esto se puede demostrar para ser aproximadamente igual (en el sentido que su cociente se aproxima a 1 como N→q) para N2π2/6. 7,15. Considerar N ensayos independientes, el ide los cuales se traduce en un éxito con probabilidad Pi. (a) Calcule el número esperado de éxitos en el N ensayos — llámeme μ. (b) Para un valor fijo de μ, ¿qué opción de P1,...,PN maximiza la varianza del número de éxitos? (c) ¿Qué opción minimiza la varianza? ∗7,16.

7.17. Supongamos que X1 Y X2 son variables aleatorias independientes que tienen una media común μ. Supongamos también que var

y var

. El valor de M se desconoce, y se propone que M ser estimados por un promedio ponderado de X1 Y X2. Es decir λX1 + (1 − l)X2 se utilizará como una estimación de M para un valor apropiado de λ. ¿Qué valor de L la estimación que tiene la menor posible Ejercicios teóricos ¿Varianza? Explique por qué es deseable utilizar este valor de λ. 7.18. En el ejemplo 4F, mostramos que la covarianza de las variables aleatorias multinomial Nme Y NJ es igual a variables del indicador. También podríamos haber obtenido ese resultado mediante el uso de la fórmula

n

de

elementos del mismo color (donde |A| indica el número de elementos en el conjunto A).

−MpiPJ expresando Nme Y NJ como la suma de las

(a) E[número de valores de registro] (b) Fue(número

de estos subconjuntos tienen todos sus

Supongamos que cada uno de los elementos de S = {1, 2,...,n} debe ser de color rojo o azul. Muestre que si A1,...,AR son subconjuntos de S, hay una manera de hacer el colorante de modo que a lo más r

var(Nme + Nj)=Fue(Ni) + Fue(Nj) + 2 COV(Ni,Nj) (a) ¿Cuál es la distribución de Nme + Nj? (b) Utilice la identidad precedente para mostrar que COV(Ni,Nj) = −MpiPj. 7.19. Mostrar que X Y Y se distribuyen idénticamente y no son necesariamente independientes, Cov(X + Y,X − Y) = 0 7.20. La fórmula de covarianza condicional. La covarianza condicional de X Y YDado Z, se define por Cov(X,Y|Z2 ° E[(X − E[X|Z])(Y − E[Y|Z])|Z] (a) Mostrar que Cov(X,Y|Z) = E[Xy|Z] − E[X|Z]E[Y|Z] (b) Pruebe la fórmula de covarianza condicional Cov(X,Y) = E[COV(X,Y|Z)] + Cov(E[X|Z],E[Y|Z]) (c) Establecer X = Y en la parte (b) y obtener la fórmula de varianza condicional.

7,21. Dejar X(i),me = 1...,n, denotan las estadísticas de orden de un conjunto de N variables aleatorias uniformes (0,1), y observe que la función de densidad de X(i) es dada por

490 cierto. Pista: Demostrar y utilizar el hecho de que E[Xy] = E[Coche[Y|X]]. 7.28. Demuestre que COV(X,E[Y|X]) = Cov(X,Y). 7.29. Dejar X1,...,XN ser variables aleatorias independientes y distribuidas idénticamente. Encontrar

f (a) Calcular var(X(i)),me = 1...,n. (b) ¿Qué valor de me minimiza, y cuyo valor maximiza, var(X(i))? 7,22. Mostrar que Y = Un + BxEntonces 1

Si B > 0

1

Si B < 0

RX,Y) =% + −

7.23. Mostrar que Z es una variable aleatoria normal estándar y si Y se define por Y = Un + Bz + Cz2Entonces b

E[X1|X1 + ··· + XN = x] 7.30. Consideremos el ejemplo 4F, que se refiere a la distribución multinomial. Utilizar la expectativa condicional para calcular E[NiNj] y, a continuación, utilíquelo para verificar la fórmula de COV(Ni,Nj) que se dan en el ejemplo 4F. 7.31. Una urna inicialmente contiene B negro y En bolas blancas. En cada etapa, añadimos R bolas negras y luego retirarse, al azar, R bolas de la B + En + R bolas en la urna. Mostrar que E[número de bolas blancas después de la etapa t] t

RY,Z) =

w

.b2 + 2c2 7.24. Demostrar la desigualdad Cauchy-Schwarz, a saber, (E[Xy])2 ... E[X2]E[Y2]

7.32. Para un evento ADejar IUn igual a 1 si Un se produce y dejar que sea igual a 0 si Un no se produce. Para una variable aleatoria X, muestran que E[XiA] P(A)

Pista: A menos que Y = −Tx para alguna constante, en E[X|A] =

cuyo caso la desigualdad se mantiene con la igualdad, si se sigue que, para todos los t, 0 < E[(Tx + Y)2] = E[X2]t2 + 2E[Xy]T + E[Y2] Por lo tanto, las raíces de la ecuación cuadrática

7.33. Una moneda que aterriza en cabezas con probabilidad P está continuamente volteada. Calcule el número esperado de saltos que se realizan hasta que una cadena de R se obtienen cabezas en una fila. Pista: Condición en el momento de la primera aparición de colas para obtener la ecuación

E[X2]t2 + 2E[Xy]T + E[Y2] = 0 debe ser imaginario, lo que implica que el discriminante de esta ecuación cuadrática debe ser negativo. 7,25. Muestre que si X Y Y son independientes, E[X|Y = y] = E[X]

para todos y

(a) en el caso discreto; (b) en el caso continuo. 7.26. Demuestre que E[g(X)Y|X] = g(X)E[Y|X]. 7.27. Demuestre que si E[Y|X = x] = E[Y] para todos xEntonces X Y Y no están correlacionados; dar un contraejemplo para demostrar que el inverso no es

r

E

pi−1(me + E[X]) i=1 q

r Simplifique y solucione para E[X]. 7,34. Para otro enfoque del ejercicio teórico 33, deje que TR denotan el número de giros requeridos para obtener una R cabezas consecutivas. (a) Determinar E[Tr|Tr−1]. (b) Determinar E[Tr] en términos de E[Tr−1]. (c) Qué es E[T1]? De Qué es E[Tr]?

7.35. La función de generación de probabilidad de la variable aleatoria de valor entero no negativo discreto X tener función de masa de probabilidad pj, J Efectos 0, se define por q

pjsJ J=0 Dejar Y ser una variable aleatoria geométrica con parámetro P = 1 − s, donde 0 < s < 1. Supongamos que Y es independiente de X, y mostrar que Fs) = P{X < Y} 7.36. Una bola a la vez se selecciona aleatoriamente de una urna que contiene Un blanco y B bolas negras hasta que todas las bolas restantes son del mismo color. Dejar Ma,B denotan el número esperado de bolas que quedan en la urna cuando finaliza el experimento. Calcule una fórmula recursiva para Ma,B y resolver cuando Un = 3 y B = 5. 7.37. Una urna contiene Un blanco y B bolas negras. Después de que una pelota es dibujada, es devuelta a la urna si es blanca; pero si es negro, es reemplazado por una bola blanca de otra urna. Dejar MN indican el número esperado de bolas blancas en la urna después de que la operación anterior se ha repetido N Veces. un Derivar la ecuación recursiva Mn

491 7.40. Utilice la fórmula de desviación condicional para determinar la varianza de una variable aleatoria geométrica X teniendo parámetro p. 7.41. Dejar X ser una variable aleatoria normal con parámetros m = 0 y σ2 = 1, y deje I, independiente de X, sea tal que P defina Y Por Y =% −X Si Me == 10 X Si I

. Ahora

En palabras, Y es igualmente probable que sea igual a X O −X. (a) Son X Y Y ¿Independiente? (b) Son Me Y Y ¿Independiente? (c) Mostrar que Y es normal con la media 0 y la varianza 1. (d) Demuestre que COV(X,Y) = 0. 7.42. Se desprende de la Proposición 6,1 y el hecho de que el mejor predictor lineal de Y con respecto a X Es que si E[Y|X] = Un + Bx Entonces σy

σy B = R

Un = My − p

μx σx σx (¿Por qué?) Verifíquelo directamente. 7.43. Mostrar que, para las variables aleatorias X Y Z,

(b) Utilice la parte (a) para demostrar que E[(X − Y)2] = E[X2] − E[Y2]

n

MN = Un + B − b Donde (c) ¿Cuál es la probabilidad de que el (N + 1)St Ball

Y = E[X|Z]

dibujado es blanco? 7.38. El mejor predictor lineal de Y con respecto a X1 Y X2 es igual a Un + Bx1 + Cx2Donde a,bY C se eligen para minimizar E[(Y −Un + Bx1 + Cx2))2] Determinar a,bY c. 7.39. El mejor predictor cuadrático de Y con respecto a X Es Un + Bx + Cx2Donde a,bY C se eligen para minimizar E[(Y −Un + Bx + Cx2))2]. Determinar a,bY c.

7,44. Considerar una población formada por individuos capaces de producir crías del mismo tipo. Supongamos que, al final de su vida, cada individuo habrá producido J nueva descendencia con probabilidad Pj, J Efectos 0, independientemente del número producido por cualquier otro individuo. El número de individuos presentes inicialmente, denotados por X0, se denomina el tamaño de la generación cero. Todos los descendientes de la generación cero constituyen la primera generación, Ejercicios teóricos y su número es denotado por X1. En general, deje XN denotan el tamaño de la ngeneración. Dejar q q

JpJ Y σ2 =

m)2PJ denotar,j=0

la media y la varianza del número de crías producidas por un solo individuo. Supongamos que X0 = 1 — es decir, inicialmente hay un solo individuo en la población. un Mostrar que E[Xn] = ME[Xn−1] b

0

492 Cuando N es

extraño ⎧

Cuando N = 2j Pista: Empiece ampliando la función de generación de Z en una serie de Taylor sobre 0 para obtener E[eTz] = et2/2

Utilice la parte (a) para concluir que q

E[Xn] = Mn

j

7.47. Dejar X ser una variable aleatoria normal con la media M y la varianza σ2. Utilice los resultados de la Haga ejercicio 46 para mostrar que

(c) Mostrar que Fue(Xn) = P2μn−1 + M2Fue(Xn−1) (d) Utilice la parte (c) para concluir que

E[Xn] = Si M Z 1 si m=1 El modelo que acabamos de describir se conoce como proceso de ramificación, y una pregunta importante para una población que evoluciona a lo largo de tales líneas es la probabilidad de que la población eventualmente muera. Dejar P denotan esta probabilidad cuando la población comienza con un solo individuo. Es decir p = P{población eventualmente muere|X0 = 1) (e) Argumentar que P Satisface q

En la ecuación anterior, [n/2] es el número entero más grande menor o igual que n/2. Compruebe su respuesta dejando N = 1 y N = 2. 7.48. Si Y = Ax + bDonde Un Y B son constantes, expresan el momento que genera la función de Y en términos de la función de generación de momento de X. 7.49. La variable aleatoria positiva X se dice que es un Lognormal variable aleatoria con parámetros M Y σ2 Si el registro(X) es una variable aleatoria normal con M y la varianza σ2. Utilice la función de generación de momentos normales para encontrar la media y la varianza de una variable aleatoria lognormal. 7.50. Dejar X tienen función de generación de momento M(t)y defina (t) = RegistroM(t). Mostrar que

j j=0

7.51. Utilice la tabla 7,2 para determinar la distribución de n Pista: Condición en el número de descendientes del miembro inicial de la población. 7.45. Compruebe la fórmula para la función de generación de momento de una variable aleatoria uniforme que se da en la tabla 7,7. También, diferencie para verificar las fórmulas para la media y la varianza. 7.46. Para una variable aleatoria normal estándar ZDejar μN = E[Zn]. Mostrar que

Xi Cuando X1,...,Xn Son Independiente Y variables aleatorias exponenciales idénticas distribuidas, cada una de las cuales tiene media 1/λ. 7.52. Mostrar cómo calcular COV (X,Y) a partir de la función de generación de X Y Y. 7.53. Supongamos que X1,...,XN tienen una distribución normal multivariada. Mostrar que X1,...,XN son variables aleatorias independientes si y sólo si Cov(Xi,Xj) = 0 Cuando me Z j

493 7.54. Si Z es una variable aleatoria normal estándar, lo que es COV (Z,Z2)? 7.55. Supongamos que Y es una variable aleatoria normal con M y la varianza σ2, y Supongamos también que la distribución condicional de X, dado que Y = y, es normal con la media y y la varianza 1. (a) Argumentan que la distribución conjunta de X,Y es el mismo que el de Y + Z,Y Cuando Z es una variable aleatoria normal estándar que es independiente de Y. (b) Utilice el resultado de la parte (a) para argumentar que X,Y tiene una distribución normal bivariada. (c) Encontrar E[X], fue(X), y Corr(X,Y). De Encontrar E[Y|X = x]. Y ¿Cuál es la distribución condicional de Y Dado que X = x?

PROBLEMAS Y EJERCICIOS DE AUTOPRUEBA

7,1. Considere una lista de M nombres, donde el mismo nombre puede aparecer más de una vez en la lista. Dejar n(i), me = 1...,m, denotan el número de veces que el nombre en posición me aparece en la lista y deje que D denotan el número de nombres distintos en la lista. un Express D en términos de las variables m,n(i),me = 1...,m. Dejar En ser una variable aleatoria uniforme (0,1) y dejar que X = [Él] + 1. b ¿Cuál es la función de masa de probabilidad de X? c Argumentar que E[m/n(X)] = d. 7,2. Una urna ha N blanco y M bolas negras que se eliminan una a la vez en una orden elegida aleatoriamente. Encuentre el número esperado de instancias en las que una bola blanca es seguida inmediatamente por una negra. 7,3. Veinte individuos que consisten en 10 parejas casadas deben sentarse en 5 mesas diferentes, con 4 personas en cada mesa. (a) Si el asiento se hace "al azar", ¿cuál es el número esperado de parejas casadas que están sentados en la misma mesa? (b) Si 2 hombres y 2 mujeres son elegidos al azar para sentarse en cada mesa, ¿cuál es el número esperado de parejas casadas que están sentados en la misma mesa? 7.4. Si se va a rodar un dado hasta que todos los lados hayan aparecido al menos una vez, encuentre el número esperado de veces que aparece el resultado 1. 7.5. Una baraja de 2N tarjetas consta de N rojo y N tarjetas negras. Las cartas se barajan y luego se voltean una a la vez. Supongamos que cada vez que se da la vuelta a una tarjeta roja, ganamos 1 unidad si más tarjetas rojas que las tarjetas negras han sido volteadas en ese momento. (Por ejemplo, si N = 2 y el resultado es r b r b, entonces ganaría un total de 2 unidades.) Encuentra la cantidad esperada que ganamos. 7.6. Dejar A1,A2,...,AN ser eventos, y dejar que N denotan el número de ellos que ocurren. Además, deje que Me = 1 si se producen todos estos eventos, y dejar que sea 0 de lo contrario. Demostrar la desigualdad de Bonferroni, a saber, n

P(A1 ···An) el i=1

Pista: Argumentar primero que N ... N − 1 + I. 7.7. Dejar X ser el valor más pequeño obtenido K los números se eligen aleatoriamente del conjunto 1,...,n. Encontrar E[X] interpretando X como una variable aleatoria hipergeométrica negativa. 7.8. Un avión de llegada lleva R Familias. Un total de nJ de estas familias han comprobado en un total de J piezas de equipaje, R. Supongamos que cuando j

el plano aterriza, el N

JnJ piezas de equipaje j

salir del avión en un orden aleatorio. Tan pronto como una familia recoge todo su equipaje, inmediatamente sale del aeropuerto. Si la familia Sánchez se registró J piezas de equipaje, encontrar el número esperado de familias que salen después de que lo hacen. ∗7,9.

Se elegirá diecinueve objetos en el borde de un círculo de radio 1. Mostrar que, para cualquier elección de estos puntos, habrá un arco de (arco) longitud 1 que contiene al menos 4 de ellos. 7,10. Dejar X ser una variable aleatoria de Poisson con la media λ. Muestre que si L no es demasiado pequeño, entonces Fue(√XLla.25 Pista: Utilice la res√Ult del ejercicio teórico 4 para aproximar E[ X]. 7,11. Supongamos que en el problema de auto-prueba 3 que las 20 personas deben sentarse en siete mesas, tres de los cuales tienen 4 asientos y cuatro de los cuales tienen 2 asientos. Si la gente está sentada al azar, encontrar el valor esperado del número de parejas casadas que están sentados en la misma mesa. 7,12. Individuos 1 a través n,N > 1, deben ser reclutados en una firma de la siguiente manera: individual 1 inicia la firma y recluta individual 2. Los individuos 1 y 2 competirán para reclutar a un individuo 3. Una vez que el individuo 3 es reclutado, los individuos 1, 2, y 3 competirán para reclutar el individuo 4, y así sucesivamente. Supongamos que cuando los individuos 1, 2,...,me competir para reclutar individuos me + 1, cada uno de ellos es igualmente probable que sea el reclutador acertado.

(a) Encontrar el número esperado de los individuos 1,...,N que no reclutan a nadie más. (b) Derivar una expresión para la varianza del número de individuos que no reclutan a nadie más, y evaluarlo para N = 5. 7.13. Los nueve jugadores en un equipo de baloncesto consisten en 2 centros, 3 delanteros, y 4 jugadores de pista trasera. Si los jugadores son emparejados al azar en tres grupos de tamaño 3 cada uno, encontrar (a) el valor esperado y (b) la varianza del número de trillizos que consiste en uno de cada tipo de jugador. 7.14. Una baraja de 52 cartas se barajan y una mano de puente de 13 cartas es reparada. Dejar X Y Y denotan, respectivamente, el número de Ases y el número de picas en la mano. Problemas y ejercicios de autoprueba un Mostrar que X Y Y no están correlacionadas. b ¿Son independientes? 7,15. Cada moneda de un contenedor tiene un valor asociado. Cada vez que una moneda con valor P se volteado, aterriza en cabezas con probabilidad p. Cuando una moneda es elegida aleatoriamente de la papelera, su valor se distribuye uniformemente en (0,1). Supongamos que después de la elección de la moneda, pero antes de que se volteado, usted debe predecir si se aterriza en las cabezas o en las colas. Usted ganará 1 si es correcto y perderá 1 de lo contrario. (a) ¿Cuál es su ganancia esperada si no se le dice el valor de la moneda? (b) Supongamos ahora que se le permite inspeccionar la moneda antes de que se volteado, con el resultado de su inspección es que se aprende el valor de la moneda. En función de p, el valor de la moneda, ¿qué predicción debe hacer? (c) En las condiciones de la parte (b), ¿cuál es su ganancia esperada? 7.16. En el problema 1 de autoprueba, mostramos cómo utilizar el valor de una variable aleatoria uniforme (0,1) (comúnmente denominada número aleatorio) para obtener el valor de una variable aleatoria cuya media es igual al número esperado de nombres distintos en una lista. Sin embargo, su uso requirió que uno elija una posición aleatoria y después determine el número de veces que el nombre en esa posición aparece en la lista. Otro enfoque, que puede ser más eficiente cuando hay una gran cantidad de replicación de nombres, es el siguiente: como antes, empiece eligiendo la variable aleatoria X como en el problema 1. Ahora identifique el nombre en posición Xy, a continuación, vaya a través de la lista, empezando por el principio, hasta que aparezca ese nombre. Dejar Me igual a 0 si encuentras ese nombre antes de llegar a la posición X, y deje que Me igual a 1 Si su primer encuentro con el nombre está en la posición X. Mostrar que E[Me] = d. Pista: Computación E[I] mediante la expectativa condicional. 7.17. Un total de M los artículos se distribuirán secuencialmente entre N celdas, con cada elemento que se coloca de forma independiente en la celda J con probabilidad pj, J = 1...,n. Busque el número esperado de colisiones que ocurren, donde se produce una colisión cada vez que un elemento se coloca en una celda no vacía. 7.18. Dejar X ser la duración de la ejecución inicial en un orden aleatorio de N unos y M Ceros. Es decir, si la primera K los valores son los mismos (cualquiera o todos los ceros), a continuación, X Efectos k. Encontrar E[X]. 7.19. Hay N elementos en una caja etiquetada H Y M en una caja etiquetada T. Una moneda que sube cabezas con probabilidad P y colas con probabilidad 1 − P se volteado. Cada vez que se sube la cabeza, un elemento se retira de la H caja, y cada vez que sale colas, un elemento se retira de la T Caja. (Si una caja está vacía y su resultado se produce, entonces no hay elementos se eliminan). Encuentra el número esperado de monedas que se necesitan para que ambas cajas se vacíen. Pista: Condición en el número de cabezas en la primera N + M Voltea. 7.20. Dejar X ser una variable aleatoria no negativa función de distribución F. Muestre que si F(x) = 1 − F(x)Entonces q

E[Xn]* xn−1F(x)Dx 0

Pista: Empiece con la identidad

x

Xnn*

xn−1 Dx 0 q

xn−1IX(x)Dx

= n*

0

Donde 1

Si X < X

Ix(x) = %0 Lo contrario

∗7,21.

Dejar a1,...,an, no todos iguales a 0, sean tales que 0. demuestre que hay una permutación i1,...,iN tal que

n

j=1

aijaij+1 < 0.

Pista: Utilice el método probabilístico. (Es interesante que no sea necesario que exista una permutación cuya suma de productos de pares sucesivos sea positiva. Por ejemplo, si N = 3 a1 = a2 = −1, y a3 = 2, no existe tal permutación.) 7,22. Supongamos que Xi, me = 1, 2, 3, son variables aleatorias de Poisson independientes con los medios respectivos λi, me = 1, 2, 3. deje que X = X1 + X2 Y Y = X2 + X3. El vector aleatorio X,Y se dice que tiene una distribución bivariada de Poisson. (a) Encontrar E[X] y E[Y]. (b) Encontrar COV(X,Y). (c) Encontrar la función de masa de probabilidad conjunta P{X = i,Y = j}. 7.23. Dejar (Xi,Yi), me = 1..., ser una secuencia de vectores aleatorios independientes y distribuidos idénticamente. Es decir X1,Y1 es independiente de, y tiene la misma distribución que X2,Y2, y así sucesivamente. Aunque Xme Y Yme puede ser dependiente, Xme Y YJ son independientes cuando me Z j. Dejar , Corr(Xi,Yi) Encontrar Corr . 7.24. Tres cartas son elegidas aleatoriamente sin reemplazo de una baraja ordinaria de 52 tarjetas. Dejar X denotan el número de ases elegidos. un Encontrar E[X|se elige el as de picas]. b Encontrar E[X|se elige al menos un as]. 7,25. Dejar ser la función de distribución normal estándar, y dejar que X ser una variable aleatoria normal con la media M y la varianza 1. Queremos encontrar E[ (X)]. Para ello, deje que Z ser una variable aleatoria normal estándar que es independiente de X, y deje que 1 Me = %

Si Z < X

0 Si Z Efectos X (a) Mostrar que E . (b) Mostrar que E[ (X)] = P{Z < X}. (c) Mostrar que E[ (X) . Pista: ¿Cuál es la distribución de X − Z? Lo anterior aparece en las estadísticas. Supongamos que está a punto de observar el valor de una variable aleatoria X que normalmente se distribuye con una media desconocida M y la varianza

1, y Supongamos que desea probar la hipótesis de que la media M es mayor o igual que 0. Claramente usted querría rechazar esta hipótesis si X es suficientemente pequeña. Si resulta que X = x, entonces el valor p de la hipótesis de que la media es mayor o igual a 0 se define como la probabilidad de que X sería tan pequeño como X Si M eran iguales a 0 (su valor más pequeño posible si la hipótesis era verdadera). (Un pequeño p-valor se toma como una indicación de que la hipótesis es probablemente falsa.) Kuz X tiene una distribución normal estándar m = 0, el p-valor que resulta cuando X = X Es (x). Por lo tanto, lo anterior muestra que el p-valor que resulta cuando la media verdadera es M Es ( . 7.26. Una moneda que sube cabezas con probabilidad P se volteado hasta que un total de N cabezas o de M colas se acumula. Encuentra el número esperado de volteretas. Pista: Imagine que uno sigue volteándose incluso después de alcanzar la meta. Dejar X denotan el número de volteretas necesarias para obtener N cabezas, y dejar que Y denotan el número de volteretas necesarias para obtener M Colas. Tenga en cuenta que Max(X,Y) + Min(X,Y) = X + Y. Calcular E[Máx.(X,Y)] por condicionamiento en el número de cabezas en el primer N + M − 1 voltea. 7.27. Una baraja de N tarjetas numeradas 1 Por n, inicialmente en cualquier orden arbitrario, se barajan de la siguiente manera: en cada etapa, elegimos aleatoriamente una de las cartas y la movemos al frente de la baraja, dejando las posiciones relativas de las otras cartas sin cambios. Este procedimiento se continúa hasta que todas las tarjetas, excepto una de ellas, hayan sido elegidas. En este punto sigue por la simetría que todos n! posibles ordenamientos son igualmente probables. Busque el número esperado de etapas que se requieren. 7.28. Supongamos que una secuencia de ensayos independientes en los que cada ensayo es un éxito con probabilidad P se realiza hasta que se produzca un éxito o un total de N se han alcanzado los ensayos. Busque el número medio de ensayos que se realizan. Pista: Los cálculos se simplifican si utiliza la identidad que, para un entero no negativo con valor de variable aleatoria X, q

E[X] = P{X Efectos i} i=1

Problemas y ejercicios de autoprueba 7.29. Supongamos que X Y Y son las dos variables aleatorias de Bernoulli. Mostrar que X Y Y son independientes si y sólo si COV(X,Y) = 0. En el problema de coincidencia generalizada, hay N individuos de los cuales nme tamaño del sombrero del desgaste i, Nme = n. También hay N sombreros, de los cuales hme son de tamaño i, . Si cada individuo escoge aleatoriamente un sombrero (sin reemplazo), encuentre el número esperado que elija un sombrero de su tamaño.

CAPÍTULO 1 1.1. un ¡ Hay 4! diferentes ordenamientos de las letras C, D, E, F. Para cada uno de estos ordenamientos, podemos obtener un pedido con A y B uno al lado del otro insertando A y B, ya sea en el orden A, B o en el orden B, A, en cualquiera de los 5 lugares, a saber, ya sea antes de la primera letra de la permutación de C , D, E, F, o entre el primero y el segundo, y así sucesivamente. Por lo tanto, hay 2 · 5 · 4! = 240 acuerdos de la organización. Otra forma de resolver este problema es imaginar que B está pegado a la parte posterior de A. ¡ Entonces hay 5! los

ordenamientos en los que A es inmediatamente antes de B. Ya que hay también 5! los ordenamientos en los que B es inmediatamente antes de A, obtenemos de nuevo un total de 2 · 5! = 240 diferentes arreglos. (b) Hay 6! con A antes de B como con B antes de A, hay 360 arreglos.= 720 posibles arreglos, y puesto que hay tantos (c) De los 720 posibles arreglos, hay tantos que tienen A antes de B antes de C como tienen cualquiera de los 3! posibles ordenamientos de A, B y C. por lo tanto, hay 720/6 = 120 posibles ordenamientos. (d) De los 360 arreglos que tienen A antes de B, la mitad tendrá C antes de D y la mitad D antes de C. por lo tanto, hay 180 arreglos que tienen A antes de B y C antes de D. (e) Pegar B a la parte posterior de a y D a la parte posterior de C Rinde 4! = 24 ordenamientos diferentes en los que B sigue inmediatamente A y D inmediatamente sigue a C. Dado que el orden de A y B y de C y D se puede revertir, hay 4 · 24 = 96 diferentes arreglos. (f) ¡ Hay 5! los ordenamientos en los que E es el último. Por lo tanto, hay 6! − 5! = 600 los ordenamientos en los que E no es el último. 1.2. 3! 4! 3! 3!, ya que hay 3! posibles ordenamientos de los países y luego los compatriotas deben ser ordenados. 1.3. un 7 = 672. el resultado de la parte b) sigue 6 opciones que no incluyen A o B y hay 3 · 8 · 7 opciones en las que uno especificado de A y B, pero no el otro, sirve. Esto último sigue porque el miembro de la porción de la pareja se puede asignar a cualquiera de las 3 oficinas, la siguiente posición puede ser llenado por cualquiera de las otras 8 personas, y la posición final por cualquiera de los restantes 7. c De Y 9 · 8 · 7 + 9 · 8 = 576. 461

1.4.

un

1,5.

1.6.

Hay

35 opciones de los tres lugares

para las letras. Para cada elección, hay (26)3(10)4 diferentes matrículas. Por lo tanto, en total hay 35 · (26)3 · (10)4 diferentes platos. 1.7. Cualquier elección de R Dela N elementos es equivalente a una opción de N − r, es decir, aquellos elementos no seleccionados. 1.8.

un 10 · 9

9···9 = 10 · 9n−1

i

, ya que hay Opciones de la me lugares para poner los ceros y entonces cada uno de los otros N − me posiciones pueden ser cualquiera de los dígitos 1,...9.

1.9. un 1.10. Hay 9 · 8 · 7 · 6 · 5 números en los que no se repite ningún dígito. Hay 6 números en los que sólo un dígito especificado aparece dos veces, por lo que Hay 9

6 números en los que solo aparece dos veces un solo dígito. Hay 7 números en los que dos dígitos especificados aparecen dos veces, por lo que

Son

números en los que dos dígitos aparecen 2 veces. Por lo tanto, la respuesta es

1.11. un Podemos considerar esto como un experimento de siete etapas. Primero elige las 6 parejas casadas que tienen un representante en el grupo, y luego selecciona uno de los miembros de cada una de estas parejas. Por el principio básico generalizado de contar, hay diferentes opciones. b Primero seleccione las 6 parejas casadas que tienen un representante en el grupo, y luego seleccione las 3 de esas parejas que van a contribuir a un hombre. Por lo tanto, hay diferentes opciones. Otra manera de resolver esto es primero seleccionar 3 hombres y luego seleccionar 3 mujeres no relacionadas con los hombres seleccionados. Esto demuestra que hay

diferentes opciones.

1.12.

3430. el primer término da el número de comités que tienen 3 mujeres y 3 hombres; el segundo da el número que tiene 4 mujeres y 2 hombres. 1.13. (número de soluciones de x1 + ··· + x5 = 4)(número de soluciones de x1 + ··· + x5 = 5)(número de soluciones de x 1.14. Dado que hay

.

vectores positivos cuya suma es j, debe haber

tales vectores. Pero es el número de subconjuntos de tamaño n del conjunto de números {1...,k} en el que J es el elemento más grande del subconjunto. Por consiguiente

es sólo el número total de subconjuntos de tamaño n

de un conjunto de tamaño k, que muestra que la respuesta anterior es igual a. 1.15. Primero determinemos el número de resultados diferentes en los que K la gente pase. Porque hay

diferentes grupos de tamaño K Y k! posibles ordenamientos de sus puntuaciones, se

deduce que hay

! posibles resultados en los que K la gente pase. En consecuencia, hay

k! resultados posibles. 1.16. El número de subconjuntos de tamaño 4 es

4845. debido a que el número de estos que no

contienen ninguno de los cinco primeros elementos es 1365, el número que contiene al menos uno es 3480. Otra manera de resolver este problema es notar que hay que contienen exactamente me de los cinco primeros elementos y sumar este − Para me = 1, 2, 3, 4. 1.17. Multiplicando ambos lados por 2, debemos demostrar que n(N − 1) = k(K − 1) + 2k(N − k) + (N − k)(N − K − 1) Esto sigue porque el lado derecho es igual a k2(1 − 2 + 1) + k(−1 + 2N − N − N + 1) + n(N − 1) Para un argumento combinatoria, considere un grupo de N elementos y un subgrupo de K Dela N Artículos. Entonces

es el número de subconjuntos de tamaño 2 que contienen 2 elementos

del subgrupo de tamaño k, k(N − k) es el número que contiene 1 elemento del subgrupo y es el número que contiene 0 elementos del subgrupo. La adición de estos términos da el número total de subgrupos de tamaño 2, a saber, . 1.18. Hay 3 opciones que se pueden hacer de las familias que consisten en un solo padre y 1 niño; Hay 3 · 1 · 2 = 6 opciones que se pueden hacer de las familias que consisten en un solo padre y 2 niños; Hay 5 · 2 · 1 = 10 opciones que se pueden hacer de las familias que consisten en 2 padres y un solo niño; Hay 7 · 2 · 2 = 28 opciones que se pueden hacer de familias compuestas por 2 padres y 2 niños; Hay 6 · 2 · 3 = 36 opciones que pueden hacerse de familias compuestas por 2 padres y 3 niños. Por lo tanto, hay 80 opciones posibles. 1.19. Primero elija las 3 posiciones para los dígitos, y después ponga en las letras y los dígitos.

Por lo tanto, hay 8 placas diferentes. Si los dígitos deben ser consecutivos, entonces hay 6 posiciones posibles para los dígitos, demostrando que ahora hay 6 · 26 · 25 · 24 · 23 · 22 · 10 · 9 · 8 diferentes Placas.

CAPÍTULO 2

2,1. (a) (d) Apagado = {(cpastai),(cArrozi),(cPatatasi)} (e) 8 (f) Abc = {(cArrozi)} 2,2. Dejar Un ser el caso de que se compre un traje, B ser el caso de que se compre una camisa, y C será el caso de que se compre un empate. Entonces P(Un ∪ B ∪ C) = .22 + .30 + .28 −.11 −.14 −.10 + .06 = .51 (a) 1 −.51 = .49 (b) La probabilidad de que se compren dos o más artículos es P(Apagado ∪ Y ∪ Bc) = .11 + .14 + .10 −.06 −.06 −.06 + .06 = .23 Por lo tanto, la probabilidad de que se compre exactamente 1 artículo es .51 −.23 = .28. 2.3. Por simetría, la decimocuarta tarjeta es igualmente probable que sea cualquiera de las tarjetas 52; por lo tanto, la probabilidad es 4/52. Un argumento más formal es contar el número de la 52! resultados para los que la decimocuarta carta es un as. Esto produce p Dejar Un ser el evento que el primer as se produce en la tarjeta 14, tenemos P 2.4. Dejar D indican que la temperatura mínima es de 70 grados. Entonces P(Un ∪ B) = P(A) + P(B) − P(Apagado) = .7 − P(Apagado) P(C ∪ D) = P(C) + P(D) − P(Cd) = .2 + P(D) − P(Dc) Desde Un ∪ B = C ∪ D Y Apagado = Cd, restando una de las ecuaciones precedentes de los otros rendimientos 0 = .5 − P(D) O P(D) = .5.

2.5. un

2.6. Dejar R ser el caso de que ambas bolas son de color rojo, y dejar B ser el evento que ambos son de color negro. Entonces P

2.7. un

2.8. un

N = i =1

2.9. Dejar S Ai, y considerar el experimento de elegir aleatoriamente un elemento de S. Entonces P(A) = N(A)/N(S), y los resultados siguen a partir de las proposiciones 4,3 y 4,4. 2.10. ¡ Ya que hay 5! = 120 resultados en los que se especifica la posición del caballo número 1, se deduce que N(A) = 360. del mismo modo, N(B) = 120, y N(Apagado) = 2 · 4! = 48. por lo tanto, del problema de auto-prueba 9, obtenemos N(Un ∪ B) = 432. 2.11. Una manera de resolver este problema es comenzar con la probabilidad complementaria de que al menos un traje no aparezca. Dejar Ai, me = 1, 2, 3, 4, sea el acontecimiento que ningunas tarjetas del juego me Aparecen. Entonces P(AiAj) + ··· − P(A1A2A3A4) i=1

i

j

i:i<

La probabilidad deseada es entonces 1 menos la anterior. Otra manera de resolver es dejar que A sea el evento que todos los 4 trajes están representados, y luego utilizar P(A) = P(n,n,n,n,o) + P(n,n,n,o,n) + P(n,n,o,n,n) + P(n,o,n,n,n) Donde P(n, n, n, o, n), por ejemplo, es la probabilidad de que la primera carta sea de un traje nuevo, el segundo es de un traje nuevo, el tercero es de un traje nuevo, el cuarto es de un traje viejo (es decir, uno que ya ha aparecido) y el quinto es de un traje nuevo. Esto da

P 2.12. Hay (10)!/25 diferentes divisiones de los 10 jugadores en un primer par de compañeros de cuarto, un segundo par de compañeros de cuarto, y así sucesivamente. Por lo tanto, hay (10)!/(5! 25) divisiones en 5 pares de compañeros de piso. Hay maneras de elegir los jugadores de Frontcourt y pista trasera para estar en los pares mixtos del compañero de cuarto y entonces 2 maneras de emparejarlos para arriba. ¡ Pues hay entonces 1 manera de emparejar para arriba los dos jugadores restantes del pista trasera y 4!/(2.22) = 3 maneras de hacer dos pares de

compañeros de cuarto de los cuatro jugadores restantes de Frontcourt, la probabilidad deseada es

P{2 pares mixtos} =

2.13. Dejar R denotan el evento que la letra R se repite; de forma similar, defina los eventos Y Y V. Entonces

P{misma letra} = c

Ai⎞ ,me > 1. a continuación, me 1

2.14. Dejar B1 = A1,Bme =

q q

P i=1 Q

... donde la igualdad final utiliza el hecho de que el Bme son mutuamente excluyentes. La desigualdad sigue entonces, ya que Bme ( Ai. 2.15. ⎛ ⎛ q ⎞c⎞ Pp

Ú =1

2.16. El número de particiones para las cualparticiones del resto N − 1 elementos en{1} es un subconjunto es igual al número deK − 1 subconjuntos no vacíos, 2,...,N − 1}

a saber Tk−1(N − 1). Porque hay Tk(N − k1)de ellos en el que a placepartitions de { En K subconjuntos no vacíos y, a continuación, una opción del elemento 1, se deduce que hay Otrosk(N − 1) particiones para las que {1} no es un subconjunto. Por lo tanto, el resultado sigue. 2.17. Dejar R, W, B denotan, respectivamente, los eventos que no hay rojo, no blanco, y no hay bolas azules elegidos. Entonces

P L 0.2933 Por lo tanto, la probabilidad de que todos los colores aparezcan en el subconjunto elegido es de aproximadamente 1 − 0.2933 = 0.7067. 2,18. (a) (b) Porque hay 9 bolas no azules, la probabilidad es. (c) ¡ Porque hay 3! posibles ordenamientos de los diferentes colores y todas las posibilidades de las 3 bolas finales son igualmente probables, la probabilidad es . (d) El probabque las bolas rojas están en un determinado 4 puntos es. Debido a que hay 14 posibles ubicaciones de las bolas rojas donde están todos juntos, la probabilidad es . 2,19. (a) La probabilidad de que las 10 cartas consisten en 4 picas, 3 corazones, 2 diamantes, y 1 Club es . ¡ Porque hay 4! opciones posibles de los trajes para tener 4, 3, 2, y 1 tarjetas, respectivamente, se deduce que el probabilidad es

.

b Porque hay 6 opciones de los dos trajes que van a tener 3 cartas y luego 2 opciones para que el traje tenga 4 cartas, la probabilidad es . 2,20. Todas las bolas rojas se quitan antes de todas las azules si y sólo si la última bola removido es azul. Porque las 30 bolas son igualmente probables ser la última bola quitada, la probabilidad es 10/30.

CAPÍTULO 3 3,1. (a) P (sin ases) b 1 − P (sin ases) c P (i ACES) 3,2. Deje que Li denotar el evento de que la vida de la batería es mayor que 10.000 * i millas. 3,3. Pon 1 blanco y 0 bolas negras en la urna uno, y las restantes 9 blancas y 10 bolas negras en la urna dos.

3,4. Deje T ser el acontecimiento que la bola transferida es blanca, y deje W sea el acontecimiento que una bola blanca se dibuja de la urna B. entonces P (W T) P (T) P (T | W) = | +| | P (W T) P (T) P (W TC) P (TC) 3,5. un r + RW, ya que cada una de las bolas de r + w es igualmente probable que sea la bola de ITH eliminado. (b), (c) P (RiRj) P (RJ R+W r−1 =r+W−1 Un argumento más simple es notar que, para i Z j, dado que la extracción del ith es una bola roja, el retiro del JTH es igualmente probable ser cualquiera de las bolas restantes de r + w − 1, cuyo r − 1 es rojo. 3,6. Que BI denotar el evento que la pelota i es negra, y que RI = BCI. Entonces P (B1 | R2) = | P (R2 | B + 1) P (B1) | P (R2 B1) P (B1) P (R2 R1) P (R1) )][ [R/(b + R + C)] [b/(b + R)] + [(r + C)/(b + R + C)] [R/(b + R)] B =b+r+c 3,7. Deja que B denotar el evento de que ambas cartas son ases. un P B, sí al as de picas P {B | Yes to as of Spades} = {{ }} P sí al as de picas b Dado que la segunda tarjeta es igualmente probable que sea cualquiera de los restantes 51, de los cuales 3 son ACES, vemos que la respuesta en esta situación es también 3/51. c Porque siempre podemos intercambiar qué tarjeta se considera primero y cuál se considera en segundo lugar, el resultado debe ser el mismo que en la parte (b). Un argumento más formal es el siguiente: P B, segundo es ACE P {B | Second es ACE} = {{ }} P segundo es ACE P (B) + P {en primer lugar no es ACE, el segundo es ACE} De P (B) P {B | al menos un} = P al menos una

{

}

3,8. P (H | | E) = P (HE) = P (H) P (E | | H P (G E) P (GE) P (G) p (E G) La hipótesis H es 1,5 veces más probable. 3,9. deje que A denotar el acontecimiento que la planta está viva y que W sea el acontecimiento que fue regado. un P P (A b c | AC) = C | Aseos) P (WC) P (en P (CA)

3,10. (a)1 − P (ningunas bolas rojas) (b) dado que no se eligen bolas rojas, los 6 elegidos son igualmente propensos a ser cualquiera de las 22 bolas no rojas. Así P (2 verde | sin rojo) 3,11. deje que W sea el evento que funciona la batería, y deje que C y D denotan los eventos que la batería es un tipo C y que es una batería de tipo D, respectivamente. un P (W) = P (W | c) P (c) + p (W | d) P (d) =. 7 (8/14) +. 4 (6/14) = 4/7 b P (C | WC) = P (CWc) = P (WC | C) P (C) =. 3 (8/14) =. 4 P (WC) 3/7 3/7 3,12. Que Li sea el acontecimiento que a Maria le gusta el libro i, i = 1, 2. Entonces P (L Usando ese L2 es la Unión de los eventos mutuamente excluyentes L1L2 y Lc1L2, vemos que . Así P 3,13. (a) esta es la probabilidad de que la última bola eliminada sea azul. Debido a que cada una de las 30 bolas es igualmente probable que sea la última eliminado, la probabilidad es 1/3. b Esta es la probabilidad de que la última bola roja o azul que se va a quitar es una bola azul. Debido a que es igualmente probable que sea cualquiera de las 30 bolas rojas o azules, la probabilidad de que sea azul es 1/3. c Deje que B1, R2, G3 denote, respectivamente, los eventos que el primer color eliminado es azul, el segundo es rojo y el tercero es verde. Entonces P donde P (G3) es sólo la probabilidad de que la última pelota es verde y P (R2 | G3) se calcula señalando que, dado que la última bola es verde, cada una de las 20 bolas rojas y 10 azules es igualmente probable que sea la última de ese grupo que se eliminará, por lo que la probabilidad de que sea una de las bolas rojas es 20/30. (Por supuesto, P (B1 | R2G3) = 1.) 3,14. que H sea el evento que la moneda aterriza cabezas, que TH sea el evento que B se le dice que la moneda aterrizó cabezas, que F ser el evento que A olvida el resultado de la sacudida, y dejar C ser el evento que B se le dice el resultado correcto. Entonces un P (TH) = P (TH | F) P (F) + P (TH | FC) P (FC) = (. 5) (. 4) + P (H) (. 6) =. 68 b P c P (HTh) P (H | TH) = P (TH) Nwo P (HTh) = P (HTh | F) P (F) + P (HTh | FC) P (FC) = P (H | F) P (TH | HF) p (F) + P (H) P (FC) = (. 8) (. 5) (. 4) + (. 8) (. 6) =. 64 dando el resultado P (H | TH) =. 64/. 68 = 16/17. 3,15. dado que la rata negra tiene un hermano Pardo, podemos concluir que ambos padres tienen un gen negro y otro marrón. un P (2) 1/4 1 P (2 negro | al menos uno) = = = P (al menos uno) 3/4 3 (b) que F sea el acontecimiento que los 5 descendientes sean negros, deje B2 sea el acontecimiento que la rata negra tiene 2 genes negros, y deje B1 sea el acontecimiento que tiene 1 negro y 1 gene marrón. Entonces P (B2 B1) P (B1)

3,16. deje que F sea el evento que una corriente fluye de la a a la B, y que CI sea el evento que el relé i cierra. Entonces P Nwo P (F | C1) = P (C4 ∪ C2C5) = P (C4) + P (C2C5) − P (C4C2C5) = P4 + p2p5 − p4p2p5 También P (F | C1c) = P (C2C5 ∪ C2C3C4) = p2p5 + p2p3p4 − p2p3p4p5 Por lo tanto, para la parte (a), obtenemos P (F) = P1 (P4 + p2p5 − p4p2p5) + (1 − P1) P2 (P5 + p3p4 − p3p4p5) Para la parte (b), deje Qi = 1 − PI. Entonces P (C3 | F) = P (F | C3) P (C3)/P (F) = P3 [1 − P (C1cC2c ∪ C4cC5c)]/P (F) = P3 (1 − q1q2 − q4q5 + q1q2q4q5)/P (F) 3,17. deje que A sea el evento que el componente 1 está trabajando y deje que F sea el evento que el sistema funciona. un P (AF) P (A) 1/2 2 P (A | F) = = = − = P (F) P (F) 1 (1/2) 2 3 donde P (F) se calculó señalando que es igual a 1 menos la probabilidad de que los componentes 1 y 2 se hayan fallado. b P (AF) P P (A | F) = = + P (F) P (F) (1/2) 3 3 (1/2) 3 4 donde P (F) se calculó señalando que es igual a la probabilidad de que los 3 componentes funcionen más las tres probabilidades relacionadas con exactamente 2 de los componentes que funcionan. 3,18. Si asumimos que los resultados de los giros sucesivos son independientes, entonces la probabilidad condicional del siguiente resultado no se modifica por el resultado de que los 10 giros anteriores aterrizaron en negro. 3,19. condición en el resultado de los lanzamientos iniciales: P (A impar) = P1 (1 − P2) (1 − P3) + (1 − P1) P2P3 + P1P2P3 (A impar) + (1 − P1) (1 − P2) (1 − P3) P (un impar) Así P (A impar) = P1 + (1 − P + 2) (1 − − P3) + − (1 − P1 −) P2P3 P1 P2 P3 P1P2 P1P3 P2P3 3,20. deje que A y B sean los eventos que el primer ensayo sea más grande y que el segundo sea más grande, respectivamente. Además, deje que E sea el caso de que los resultados de los ensayos sean iguales. Entonces 1 = P (A) + P (B) + P (E) Pero, por simetría, P (A) = P (B): así, n P2i 1 P (e) = 1 P Otra forma de resolver el problema es notar que P {resultados del primer ensayo en i, resultados del segundo ensayo en j} i j > i pipj i j>i Para ver que las dos expresiones derivadas de P (B) son iguales, observe que n n

Pj i=1

j=1

i i

j jZi

Ipj pipj i pipj

i i j>i 3,21. Let E = {A obtiene más cabezas que B}; Entonces P (E) = P (E | Un plomos después de ambos tirón n) P (plomos de a después de ambos tirón n) + P (E | incluso después de ambos Flip n) P (incluso después de ambos Flip n) + P (E | B conduce después de ambos Flip n) P (B conduce después de ambos Flip n) = P (A plomos) (incluso) Ahora, por simetría, P (plomos de A) = P (plomos de B) Ahí P 3,22. (a) no es cierto: en el balanceo de 2 dados, que E = {sum es 7}, F = {1st Die no aterriza en 4}, y G = {2nd Die no aterriza en 3}. Entonces P (E | F ∪ G) = P {7 {, not (4, 3})} = 5/36 = 5/35 Z P (E) P no (4, 3) 35/36 b P (E (F ∪ G)) = P (EF ∪ EG = P (EF) + P (EG) desde EFG = ∅ = P (E) [P (F) + P (G)] = P (E) P (F ∪ G desde FG = ∅ c P (EFG) P (G | EF) = P (EF) ya que E es independiente de FG P (EF) P (E) P (F) P (G) por la independencia = P (E) P (F) = P (G). 3,23. a) necesariamente falso; si fueran mutuamente excluyentes, entonces tendríamos 0 = P (AB) Z P (A) P (B) b necesariamente falso; si fueran independientes, entonces tendríamos P (AB) = P (A) P (B) > 0 c necesariamente falso; si fueran mutuamente excluyentes, entonces tendríamos P (A ∪ B) = P (A) + P (B) = 1,2 De posiblemente cierto 3,24. Las probabilidades en las partes (a), (b) y (c) son 5, (. 8) 3 =. 512 y (. 9) 7 L. 4783, respectivamente. 3,25. Deje di, i = 1,2, denotar el acontecimiento que la radio i es defectuosa. También, deje A y B ser los acontecimientos que las radios fueron producidas en la fábrica A y en la fábrica B, respectivamente. Entonces P (D D2) P (D2 = P (D1D2 | A) P (A) + P (D1D2 | B) P (B) P (D1 | A) P (A) + P (D1 | B) P (B) 3,26. Se nos da que P (AB) = P (B) y debemos demostrar que esto implica que P (BcAc) = P (AC). Una forma es la siguiente: P (BcAc) = P ((A ∪ B) c) = 1 − P (A ∪ B = 1 − P (A) − P (B) + P (AB)

= 1 − P (A) = P (CA) 3,27. El resultado es true para n = 0. Con Ai denotando el evento que hay i bolas rojas en la urna después de la etapa n, asumir que 1 P (AI) = + , i = 1,..., n + 1 n 1 Ahora vamos BJ, j = 1,..., n + 2, denotan el evento que hay j bolas rojas en la urna después de la etapa n + 1. Entonces n+1 P (BJ | AI) P (AI) 1 n+1 = AI) n 1 [P (BJ AJ =n+1 | − 1) + P (BJ | i)] Porque hay n + 2 bolas en la urna después de la etapa n, sigue eso P (BJ | AJ − 1) es la probabilidad de que se elija una pelota roja cuando j − 1 de las bolas n + 2 en la urna son rojas y P (BJ | AJ) es la probabilidad de que una bola roja no se elige cuando j de las bolas n + 2 en la urna son de color rojo. Por consiguiente P (BJ | I − 1) = n − + 2, P (BJ | AJ) = n++−2j 1 n 2 j La sustitución de estos resultados en la ecuación para P (BJ) da P + 1 de los n + 2 n + 2 + 2 de Esto completa la prueba de inducción. 3,28. Si AI es el evento que el jugador que recibe un as, entonces P Al numerar arbitrariamente los ases y señalando que el jugador que no recibe el as número uno recibirá n de las restantes tarjetas 2N − 1, vemos que n P (A1A2) = − 2n 1 Por lo tanto P (A Podemos considerar el resultado de la división de tarjetas como resultado de dos ensayos, donde se dice que el ensayo i, i = 1,2, es un éxito si el número de ACE i va al primer jugador. Debido a que las ubicaciones de los dos ases se vuelven independientes mientras n va al infinito, con cada uno siendo igualmente probable que sea dado a cualquiera de los jugadores, se deduce que los juicios se vuelven independientes, siendo cada uno un éxito con probabilidad 1/2. Por lo tanto, en el caso limitante donde n → q, el problema se convierte en uno de determinar la probabilidad condicional de que dos cabezas resultan, dado que al menos uno lo hace, Cuando dos monedas justas se voltean. Becausecoincide con el del ejemplo 2B. 3nn − − 11 converge a 1/3, la respuesta 3,29. (a) para cualquier permutación I1,..., de 1,2,..., n, la probabilidad de que el los tipos cesivos recogidos es la probabilidad deseada es in1!, $... in =, 1in es pi1 · · · PIN = $in = 1 PI. En consecuencia, PI. (b) para I1,..., IK todo distinto, n P (Ei1 · · · Ir) = que sigue porque no hay cupones de tipos I1,..., IK cuando cada una de las selecciones independientes n es uno de los otros tipos de n − k. Ahora sigue la identidad de inclusión – exclusión que Nn PK+1N n−k k=1 Porque 1 es la probabilidad de que uno de cada tipo se obtiene, por parte (a) es igual a NNN!. Sustituyendo esto en la ecuación anterior da NN n!

− NN = 1 ( k=1 O ¡N! = NN k) n k=1 O n ¡N! K k) n k=0 3,30. P (E | Y ∪ F) = P (E | F (E ∪ F)) P (F | E ∪ F) + P (E | FC (E ∪ F)) P (FC | E ∪ F Usando F (y ∪ F) = F Y FC (E ∪ F) = FcE Da P (EE ∪ F | Ú P (E | f) P (f | Y ∪ F) + P (E | F) P (FC | Y ∪ F = P (E | F

CAPÍTULO 4 4,1. como las probabilidades suman 1, debemos tener 4P {X = 3} + 0.5 = 1, implicando que P {X = 0} = .375, P {x = 3} =. 125. Por lo tanto, E [X] = 1 (. 3) + 2 (. 2) + 3 (. 125) = 1,075. 4,2. la relación implica que PI = cip0, i = 1, 2, donde PI = P {X = i}. Debido a que estas probabilidades suman a 1, se deduce que P Ahí 2 E 4,3. deje que X sea el número de volteretas. Entonces la función de la masa de la probabilidad de X es P2 = P2 + (1 − p) 2, P3 = 1 − P2 = 2P (1 − p) Ahí E [X] = 2p2 + 3p3 = 2p2 + 3 (1 − P2) = 3 − P2 − (1 − p) 2 4,4. la probabilidad de que una familia elegida aleatoriamente tenga i niños es ni/m. Así r E/m Además, dado que hay niños ini en familias que tienen hijos, se deduce que la probabilidad de que un niño elegido aleatoriamente sea de una familia con i hijos es r Esto. Por lo tanto r i2ni E [Y] = I = R1 Este Por lo tanto, debemos demostrar que r r ni Este i = R1 Ú i = R1 Inini i=1 o, de manera equivalente, que

r

r

r

r

JNJ j=1 i=1 i=1 j=1 o, de manera equivalente, que r r r r I2ninj Ijninj i=1j=1 i=1j=1 Pero, para un par fijo i, j, el coeficiente de ninj en la sumación del lado izquierdo de la desigualdad precedente es I2 + J2, mientras que su coeficiente en el suma derecho es 2ij. Por lo tanto, basta con demostrar que I2 + J2 usted 2ij que sigue porque (i − j) 2 Ú 0. 4,5. deje p = P {X = 1}. A continuación, E [X] = p y var (X) = p (1 − p), por lo que p = 3P (1 − p) implicando que p = 2/3. Por lo tanto, P {X = 0} = 1/3. 4,6. Si usted apuesta x en una apuesta que gana la cantidad apostada con probabilidad p y pierde esa cantidad con probabilidad 1 − p, entonces sus ganancias previstas son XP − x (1 − p) = (2p − 1) x que es positivo (y aumentando en x) si y sólo si p > 1/2. Por lo tanto, si p... 1/2, uno maximiza el retorno esperado por apostar 0, y si p > 1/2, uno maximiza el retorno esperado apostando la apuesta máxima posible. Por lo tanto, si la información es que la moneda 6 fue elegida, entonces usted debe apostar 10, y si la información es que la moneda 3 fue elegido, entonces usted debe apostar 0. Por lo tanto, su recompensa esperada es C Dado que su pago esperado es 0 sin la información (porque en este caso la probabilidad de ganar es 2), se deduce que si la información cuesta menos de 1, entonces vale la pena comprarlo. 4,7. (a) si usted da vuelta el papel rojo y observa el valor x, después su vuelta esperada si usted cambia al papel azul es 2x (1/2) + x/2 (1/2) = 5x/4 > x Por lo tanto, siempre sería mejor cambiar. (b) Supongamos que el filántropo escribe la cantidad x en el papel rojo. Entonces la cantidad en el papel azul es 2x o x/2. Tenga en cuenta que si x/2 Ú y, entonces la cantidad en el papel azul será al menos y y por lo tanto será aceptado. Por lo tanto, en este caso, la recompensa es igualmente probable que sea 2x o x/2, por lo que E [Ry (x)] = 5x/4, if x/2 Ú y Si x/2 < y... 2x, entonces el papel azul será aceptado si su valor es 2x y rechazado si es x/2. Por lo tanto E [Asociación (x)] = 2x (1/2) + x (1/2) = 3x/2, Si x/2 < y... 2x Finalmente, si 2x < y, entonces el papel azul será rechazado. Por lo tanto, en este caso, la recompensa es x, por lo que Ry (x) = x, Si 2x < y Es decir, hemos mostrado que cuando la cantidad x está escrita en el papel rojo, el retorno esperado bajo la política y es ⎧ x Si x < y/2 E [Ry (x)] = 3x/2 if y/2 … x < 2y ⎩ 5x/4 Si x Ú 2y 4,8. Supongamos que n ensayos independientes, cada uno de los cuales da como resultado un éxito con probabilidad p, se realizan. A continuación, el número de éxitos será menor o igual a i si y sólo si el número de fallas es mayor o igual a n − i. Pero puesto que cada ensayo es un fracaso con la probabilidad 1 − p, se deduce que el número de fallas es una variable aleatoria binomial con parámetros n y 1 − p. Ahí p {bin (n, p)... i} = p {bin (n, 1 − p) efecto n − i} = 1 − P {bin (n, 1 − p)... n − i − 1}

La igualdad final sigue del hecho de que la probabilidad que el número menos thanof fallas es mayor o igual tonelada − i. n − i es 1 menos la probabilidad que es 4,9. dado que E [X] = NPP, var = 4, or (X) p = = NP. 6 (, 1N − = P10), se nos da eso. Ahí NP = 6, EG (1 − p) = 2,4. por lo tanto, 1 − P 4,10. Let XI, i = 1,..., m, denotan el número en la bola de ITH dibujado. Entonces p {X... k} = p {x1... k, x2... k,..., XM... k} = P {x1m... k} P {x2... k} · · · P {XM... k} Por lo tanto M p {x = k} = p {x... k} − P {x... k − 1} = 4,11. (a) dado que A gana el primer juego, ganará la serie si, a partir de entonces, gana 2 partidos antes de que el equipo B gane 3 partidos. Así P {A gana | A gana primero} = p) 4 − i i=2 b P {A gana primero | A WINS} = P {A gana | A gana firstP {A WINS} P} {A gana primero} me me 4,12. para obtener la solución, condicione si el equipo gana este fin de semana: . me 4,13. que C sea el evento que el jurado toma la decisión correcta, y que F sea el evento que cuatro de los jueces acordaron. Entonces Pi i=4 También P (CF) P (C | F) = P (F) 4,14. suponiendo que el número de huracanes puede aproximarse por una variable aleatoria de Poisson, obtenemos la solución ! 4,15. q E iP {X = i}/P{X > 0} me 4,16. (a) 1/n (b) que D sea el acontecimiento que la muchacha i y la muchacha j eligen diversos muchachos. Entonces P (GiGj) = P (GiGj | D) P (D) + P (GiGj | C.c.) P (C.c.) = (1/n) 2 (1 − 1/n) = n − 1 N3 Por lo tanto n 1 P (GI | GJ) = n−2 (c), (d) porque, cuando n es grande, P (GI | GJ) es pequeño y casi igual a P (GI), se deduce del paradigma de Poisson que el número de parejas es aproximadamente Poisson distribuido con media 1. Por lo tanto, P0 L e − 1 y PK L e − 1/k! (e) determinar la probabilidad de que un conjunto determinado de niñas k se junte, condicione sobre si se produce o no D, donde D es el evento que todos eligen diferentes varones. Esto da P (Gi1 · · · fue) = P (Gi1 · · · Fue a | d) p (d) + p (Gi1 · · · Fue a | C.C.) P (C.C.) = P (Gi1 · · · Fue a | d) P (d) = (1/n) k n (n − 1) · · · (n − k + 1)

K Por lo tanto n! n! 1 ··· fue) = k I1 Me (n − k)! (n − k)! k! n2k i <... < IK y la inclusión – la identidad de exclusión produce n ! 1 − P0 = P (i = 1GI) = (− 1) (n − k)! (n − k)! k! n2k k=1 4,17. (a) porque la mujer i es igualmente probable que se vincule con cualquiera de las restantes 2N − 1 personas, P b Porque, condicional en WJ, mujer i es igualmente probable que se emparejó con cualquiera de 2N − 3 personas, P c Cuando n es grande, el número de esposas emparejadas con sus maridos será aproximadamente Poisson con la media 2. Por lo tanto, la probabilidad de que no exista tal emparejamiento es aproximadamente e − 1/2. De Reduce al problema del fósforo. 4,18. (a) (b) si W es su ganancia final y X es el número de apuestas que hace, entonces, ya que ella habría ganado 4 apuestas y perdido X − 4 apuestas, se deduce que W = 20 − 5 (X − 4) = 40 − 5x Ahí E [W] = 40 − 5e [X] = 40 − 5 [4/(9/19)] = − 20/9 4,19. la probabilidad de que una ronda no resulte en una "persona extraña" es igual a 1/4, la probabilidad de que las tres monedas aterrizan en el mismo lado. (a) (1/4) 2 (3/4) = 3/64 (b) (1/4) 4 = 1/256 4,20. deje q = 1 − p. q E 1p y i = 1Q = PI/I q q q = PQ i − 1 DX xq 0 i = 1Q q p i − 1 DX x 4,21. dado que XA − − BB será igual a 1 con probabilidad p o 0 con probabilidad 1P. Porque la varianza-p, sigue que es una variable aleatoria de Bernoulli con el parámetro de una variable aleatoria de Bernoulli es p (1 − p), tenemos p Ahí Var (X) = (a − b) 2P (1 − p) 4,22. deja que X denotar el número de partidas que juegas y el número de partidas que pierdes. un Después de tu cuarto juego, seguirías jugando hasta que pierdas. Por lo tanto, X − 4 es una variable aleatoria geométrica con el parámetro 1 − p, por lo que yP b Si dejamos que z denotar el número de pérdidas que tienes en los primeros 4 juegos, entonces z es una variable aleatoria binomial con los parámetros 4 y 1 − p. porque Y = Z + 1, tenemos e [Y] = e [z + 1] = e [z] + 1 = 4 (1 − p) + 1 4,23. un total de n bolas blancas serán retiradas antes de un total de m bolas negras si y solamente si hay por lo menos n bolas blancas en los primeros n + m − 1 retiros. (Compare con el problema de los puntos, ejemplo 4J del capítulo 3.) Con X igual al número de bolas blancas entre las primeras bolas n + m − 1 retiradas,

X es una variable aleatoria hipergeométrica, y sigue que N M { }=n+M1 + m 1 me P X efectos = 4,24. porque cada bola entra independientemente en la urna i con la misma probabilidad PI, se deduce que XI es una variable aleatoria binomial con parámetros n = 10, p = PI. Primero Note que XI + XJ es el número de bolas que entran en la urna i o en la urna j. Entonces, debido a que cada una de las 10 bolas de forma independiente entra en una de estas urnas con probabilidad PI + PJ, se deduce que XI + XJ es una variable aleatoria binomial con parámetros 10 y PI + PJ. Por la misma lógica, x1 + x2 + x3 es una variable aleatoria binomial con los parámetros 10 y P1 + P2 + P3. Por lo tanto P 4,25. dejar XI igual a 1 si la persona que tiene una coincidencia, y dejar que sea igual a 0 de lo contrario. Entonces n X XI es el número de coincidencias. Tomar las expectativas da n n n n Y donde la igualdad final sigue porque la persona i es igualmente probable que termine con cualquiera de los n sombreros. Para calcular var (X), usamos la ecuación (9,1), que indica que n n Y [XIXJ] i = 1 i = 1 jZi Ahora, para i Z j, E [XiXj] = P {XI = 1, XJ Ahí n E I = 1 JZI − n (n 1) que rinde Var (X) = 2 − 12 = 1 4,26. con q = 1 − p, tenemos, por un lado, q P me i=1Q = PQ i=1 1 = PQ 1 − q = (1 − q) (1 + q) = 1 + q Por otro lado P (e) = P (E | X = 1) p + p (E | X > 1) q = QP (E | X > 1) Sin embargo, dado que el primer ensayo no es un éxito, el número de ensayos necesarios para un éxito es 1 más el número geométricamente distribuido de ensayos adicionales requeridos. Por lo tanto P (E | X > 1) = P (X + 1 es par) = P (EC) = 1 − P (E) que rinde P (E) = q/(1 + q).

CAPÍTULO 5 5,1. deje que X sea el número de minutos jugados. un P {X20 > < 15X} = < 351 −} = P10 {X (. 05...) 15 +} = 5 (. 1025 −) 5 = (. 025.625) =. 875

b P c P {X < 30} = 10 (. 025) + 10 (. 05) =. 75 5,2. un c=n+1 xn + 1 5,3. En primer lugar, vamos a encontrar c mediante el uso de 2 1 = * 0 CX4DX = 32C/5 * c = 5/32 5,4. desde 1 1 = * 0 (AX + BX2) DX = a/2 + b/3 1 .6 = * 0 (ax2 + BX3) DX = a/3 + b/4 obtenemos a = 3.6, b = − 2,4. Ahí (a) P 6 =. 35 b 5,5. para i p {X = i} = p {int (ahora) = i − 1} = P {i − 1... ahora < i} = P% i − n 1... U = 1/N 5,6. Si puja x, 70... x... 140, a continuación, usted ganará la puja y hacer un beneficio de x − 100 con probabilidad (140 − x)/70 o perder la puja y hacer un beneficio OFX es 0 en caso contrario. Por lo tanto, su ganancia esperada si usted puja Diferenciando y estableciendo el igual a 0 anterior da 240 − 2x = 0 Por lo tanto, usted debe pujar 120.000 dólares. Su beneficio esperado será de 40/7 mil dólares. 5,7. (a) P {UU >. >. 12} = | U >. >. 9/1012} =, U. P {U1} = >. P2} {/up{>. En >. 3}/P1} = {u >. 8/ 92} = 7/8 b P {U >. 3 | 7/10 c P {U >. 3} = (d) P { La respuesta a la parte d) también podría haberse obtenido multiplicando las probabilidades en las partes (a), (b) y (c). 5,8. deje que X sea la puntuación de la prueba y deje que Z = (X − 100)/15. Observe que Z es una variable aleatoria normal estándar. un P {X > 125} = p {Z > 25/15} L. 0478 b P {90 < X < 110} = P {− 10/15 < from < 10/15} − L. 4950 5,9. deje que X sea el tiempo de viaje. Queremos encontrar x tal que P {X > x} =. 05 que equivale a P% X − 40 > x − 40/=. 05 7 7 Es decir, necesitamos encontrar x tal que P% de > X − 40/=. 05 7 donde Z es una variable aleatoria normal estándar. Pero P {con > 1,645} =. 05 Así x − 40 = 1,645 O x = 51,515 7 Por lo tanto, usted debe dejar a más tardar 8,485 minutos después de las 12 P.M.

5,10. deje que X sea la vida útil de los neumáticos en unidades de 1000, y deje que Z = (X − 34)/4. Observe que Z es una variable aleatoria normal estándar. (a) P {X > 40} = P {Z > 1,5} L. 0668 b P {30 < X < 35} = p {− 1 < from <. 25} = p {con <. 25} − P {con > 1} L. 44 c P {X > 40 | x > 30} = p {X > 40}/P{X > 30} = p {Z > 1.5}/P{Z > − 1} L. 079 5,11. 3255 5,12. deje que mi y Wi denotan, respectivamente, el número de hombres y mujeres en las muestras que ganan, en unidades de 1000 dólares, al menos i por año. Además, deje que Z sea una variable aleatoria normal estándar. un p {W25 70} = p {W25 69,5} =P L P {de la cuenta 2239} L. 4114 b P {M25... 120} = P {M25... 120,5 L P {Z.... 4452 L. 6719 c {M20 g 150} = p {M20 149,5} L P {de la cuenta 0811} L. 4677 p {W20 100} = p {W20 99,5} L P {de la cuenta − 1,0348} = L. 8496 Ahí P {cuenta M20 150} p {W20 UU 100} L. 3974 5,13. La carencia de la propiedad de la memoria del exponencial da el resultado e − 4/5. 5,14. un ((BC)) Fλ (e − (T23) 2) = = − 2ete − F − 4 (1T2)/= EDX − ET2 − para obtener = 1 − 2T e −9 y [X] = De Deje que Z sea una variable aleatoria normal estándar. Utilice la identidad q y [X] = * 0 q 2 = 2 − 1/2 * 0 Y

2 y − x DX e − y/2 DY

Utilizar el resultado del ejercicio teórico 5 para obtener q 2 2 p. de y [x2] = * 0 2cars − x DX = − e − x 66660 = 1 5,15. (a) (b) PHence, var {X > 6} = (xexp) = {− 1-− 06 λ (π/t) 4. DT} = − 3,45 e P {X < 8 | X > 6} = 1 − P {X > 8 | X > 6} − L. 8892 el 5,16 Para x Ú 0, F1/X (x) = P {1/X... x} = P {X... 0} + P {X efectos 1/X} = 1/2 + 1 − FX (1/x) Rendimientos de diferenciación F = x2π (1 + (1/x) 2) = fX (x) La prueba cuando x < 0 es similar. 5,17. si X denota el número de las primeras n apuestas que ganes, entonces la cantidad que ganarás después de n apuestas es 35 x − (n − X) = 36X − n

Por lo tanto, queremos determinar p = p {36X − n > 0} = P {X > n/36} cuando X es una variable aleatoria binomial con parámetros n y p = 1/38. (a) cuando n = 34, p = P {X Ú 1} = P {X >. 5} (la corrección de continuidad) = P0. = P0. L (. 4229) L. 6638 (Debido a que va a estar por delante después de 34 apuestas si gana al menos 1 apuesta, la probabilidad exacta en este caso es 1 − (37/38) 34 =. 5961.) b Cuando n = 1000, p = P {X > 27,5} = P0. L 1 − (. 2339) L. 4075 La probabilidad exacta — es decir, la probabilidad de que un binomio n = 1000, p = 1/38 variable aleatoria es mayor que 27 — es. 3961. c Cuando n = 100.000, p = P {X > 2777,5} = P0. L 1 − (2.883) L. La probabilidad exacta en este caso es. 0021. 5,18. si X denota la vida útil de la batería, entonces la probabilidad deseada, P {X > s + t | X > t}, se puede determinar de la siguiente manera: P {X > s + t | X > t} = P {X > P {sX + > t, tX} > t} P = {PX {X > > s + t} t} P {X > s + t | la batería es de tipo 1} P1 = P + {XP {> XT | > la batería es de tipo 1s + t | la batería es de tipo 2} P1} P2 + P {X > t | la batería es de tipo 2} P2 = e − λ1e (− s + λ1t) tpp11 + + EE − − λλ22 (TPS + 2T) P2 Otro acercamiento es condicionar directamente en el tipo de batería y después utilizar la propiedad de la carencia-de-memoria de variables aleatorias exponenciales. Es decir, podríamos hacer lo siguiente: P {X > s + t | X > t} = P {X > s + t | X > t, tipo 1} P {tipo 1 | X > t} + P {X > s + t | X > t, tipo 2} P {tipo 2 | X > t} = e − λ1sP {tipo 1 | X > t} + e − λ2sP {tipo 2 | X > t} Ahora para i = 1, 2, uso P {tipo i | X > t} = P {typeP {XI, > X t >} t} = P {X > e − λT | iType 1tpiP {X} p > 1 + t | typeP {XI} p > i t | tipo 2} P2 = e − λ1tp1 + e − λ2tp2 5,19. (leta) Xel valuei ser una variable aleatoria exponencial con meanc debe ser tal que P {x1 > c} =. 05i. Por lo tanto, i = 1, 2. e − c =. 05 = 1/20 o c = log (20) = 2,996. b P 5,20. (a) e [(Z − c) c) + e − x2/2 DX )y−22 q 2 CE − x/2 DX (b) usando el hecho de que X tiene la misma distribución que μ + σZ, donde Z es una variable aleatoria normal estándar, produce Y =E

=SE donde a = c − σμ.

CAPÍTULO 6

6,1. (a) 3C + 6C = 1 * C = 1/9 (b) deje p (i, j) = P {X = i, Y = j}. Entonces p (1, 1) = 4/9, p (1,0) = 2/9, P (0,1) = 1/9, p (0,0) = 2/9 me 6,2. (a) con PJ = P {XYZ = j}, hemos P6 = P2 = P4 = P12 = 1/4 Ahí E [XYZ] = (6 + 2 + 4 + 12)/4 = 6 (b) con QJ = P {XY + XZ + YZ = j}, hemos P11 = Q5 = Q8 = Q16 = 1/4 Ahí E [XY + XZ + YZ] = (11 + 5 + 8 + 16)/4 = 10 6,3. en esta solución, haremos uso de la identidad q * e − xxn DX = n! 0 que sigue porque e − xxn/n!, x > 0, es la función de densidad de una variable aleatoria gamma con parámetros n + 1 y λ y debe integrarse así a 1. un q y 1=C*0 e−y *−y(y − x)dxdy q = C * 0 e − y2y2 DY = 4C Por lo tanto, C = 1/4. (b) dado que la densidad de la articulación es distinto de cero sólo cuando y > x y y > − x, tenemos, para x > 0, fX(x) = 41 * q( −y dy y − x)e x = u) de x Para x < 0, fX x) e − y DY X 1 y x) y De Y 6,4. las variables aleatorias multinomiales XI, i = 1,..., r, representan los números de cada uno de los tipos de resultados 1,..., r que ocurren en n ensayos independientes cuando cada ensayo da como resultado uno de los resultados 1,..., r con las probabilidades respectivas P1,..., PR. Ahora, supongamos que un ensayo produce un resultado de categoría 1 si ese ensayo resultó en cualquiera de los tipos de resultado 1,..., R1; decir que un ensayo resulta en un resultado de categoría 2 si ese ensayo resultó en cualquiera de los tipos de resultado R1 + 1,..., R1 + R2; y así En. Con estas definiciones, Y1,..., YK representan los números de los resultados de la categoría 1, los resultados de la categoría 2, hasta los

resultados de la categoría k cuando n ensayos independientes que cada uno de los resultados en una de las categorías Pero por definición, este vector tiene una distribución multinomial. 1,..., k con probabilidades respectivas RI 1I + 1r + i 1 PJ, i = 1,..., k, se realizan. − 6,5. (a) dejar PJ = P {XYZ = j}, tenemos P1 = 1/8, P2 = 3/8, P4 = 3/8, P8 = 1/8 b Dejando PJ = P {XY + XZ + YZ = j}, tenemos P3 = 1/8, P5 = 3/8, P8 = 3/8, P12 = 1/8 c Dejando PJ = P {x2 + YZ = j}, tenemos P2 = 1/8, P3 = 1/4, P5 = 1/4, P6 = 1/4, P8 = 1/8 6,6. (a) 1 = * * (x/5 + cy) dydx 1 5 0 1 1 = * (4x/5 + 12C) DX 0 = 12C + 2/5 Por lo tanto, c = 1/20. b No, la densidad no factoriza. c 5x P{X + Y > 3} = * * (x/5 + y/20)dydx 1 = * [(2 + x) x/5 + 25/40 − (3 − x) 2/40] DX 0 = 1/5 + 1/15 + 5/8 − 19/120 = 11/15 6,7. a) sí, los factores de la función de densidad de la articulación. YDY = 2x, 0 < x < 1 c FY (y) y 01 xdx y/2, 0 0,y > 0 f 1

1−x P{X + Y < 1} = * 0 0

x

ydydx

6,8. Deje que ti denotar el tiempo en el que se produce un tipo de choque i, de i = 1, 2, 3. Para s > 0, t > 0, P {x1 > s, x2 > t} = P {T1 > s, T2 > t, T3 > Max (s, t)} = P {T1 > s} P {T2 > t} P {T3 > Max (s, t)} = EXP {− λ1s} exp {− λ2t} exp {− λ3 Max (s, t)} = exp {− (λ1s + λ2t + λ3 máx (s, t))} 6,9. (a) no, los anuncios en las páginas que tienen muchos anuncios son menos propensos a ser elegidos que los de las páginas con pocos anuncios. b M1 NN (i) m n (i) m c i = 1nm = n/n, donde)/m i=1 q Nm 6,10. (a) P {X = i} = 1/m, i = 1,..., m. b) paso 2. Generar una variable aleatoria uniforme (0,1) U. Si U < n (X)/n, vaya al paso 3. De lo contrario, regrese al paso 1.

Paso 3. Genere una variable aleatoria U de uniforme (0,1) y seleccione el elemento en la página X en la posición [n (X) U] + 1. 6,11. sí, son independientes. Esto se puede ver fácilmente considerando la pregunta equivalente de si XN es independiente de N. Pero esto es así, ya que saber cuándo se produce la primera variable aleatoria mayor que c no afecta a la distribución de probabilidad de su valor, que es la distribución uniforme en (c, 1). 6,12. permita que PI denotar la probabilidad de obtener puntos en un solo tiro del dardo. Entonces P30 = p/36 P20 = 4P/36 − P30 = p/12 P10 = 9P/36 − P20 − P30 = 5p/36 P0 = 1 − P10 − P20 − P30 = 1 − PI/4 un P/12 b P/9 c 1 − PI/4 De P (30/36 + 20/12 + 50/36) = 35P/9 Y (w/4) 2 f 2 (π/36) (1 − π/4) + 2 (π/12) (5π/36) 6,13. Deje que Z sea una variable aleatoria normal estándar. un Xi b c L P {Z > − 2.239} l. 9874 6,14. En el siguiente, C no depende de n. P {n = n | x = x} = FX | N (x | n) P {n = n}/fX (x) C= = C (λ (1 − p) x) n − 1/(n − 1)! que muestra que, condicional en X = x, N − 1 es una variable aleatoria de Poisson con λ medio (1 − p) x. Es decir P {N = n | X = x} = P {N − 1 = n − 1 | X = x} = e − λ (1 − p) x (λ (1 − p) x) n − 1/(n − 1)!, N efecto 1. 6,15. a) el Jacobio de la transformación es Como las ecuaciones u = x, v implican que x = u, y = v − u, obtenemos fU, V (u, v) = fX, Y (u, v − u) = 1,0 < u < 1, 0 < v − u < 1 o, de manera equivalente, FU, V (u, v) = 1,Max (v − 1,0) < U < minutes (V, 1) (b) para 0 < v < 1, v FV (v) = * de la = V 0 Para 1... v... 2 FV V 6,16. deje que U sea una variable aleatoria uniforme en (7, 11). Si puja x, 7... x... 10, usted será el alto postor con probabilidad 3 (P Por lo tanto, su ganancia esperada — llámeme E [G (x)] — Si usted puja x es Y Cálculo muestra que esto se maximiza cuando x = 37/4. 6,17. deje que I1, I2,..., in, sea una permutación de 1,2,..., n. entonces P {x1 = I1, x2 = I2,..., xn = in} = P {x1 = I1} P {x2 = I2} · · · P {xn = in} = pi1pi2 · · · Pin = P1P2 · · · Pn Por lo tanto, la probabilidad deseada es n! P1P2 · · · PN, que reduce a NNN! Cuando todo PI = 1/n.

n n 6,18. (a) porque Yi, se deduce que N = 2M. b Considere las coordenadas cuyos valores Y son iguales a 0, y llámeme las coordenadas rojas. Debido a que las coordenadas k cuyos valores X son iguales a 1 son igualmente propensos a ser cualquiera de los conjuntos de coordenadas k, se deduce que el número de coordenadas rojas entre estas coordenadas k tiene la misma distribución que el número de bolas rojas elegidas cuando uno elige aleatoriamente k de un conjunto de n bolas de las cuales n − k son de color rojo. Por lo tanto, M es una variable aleatoria hipergeométrica. c e [N] = e [2m] = 2e [M] = 2K (NN − k) De Utilizando la fórmula para la varianza de una hipergeométrica dada en el ejemplo 8J del capítulo 4, obtenemos K/N) (k/N) n 6,19. a) primera nota de que SN Zi es una variable aleatoria normal con 0 y varianza n − k que es independiente ofi = k + 1 Sk. En consecuencia, dado que SK = y, SN es una variable aleatoria normal con la media y y la varianza n − k. (b) debido a que la función de densidad condicional de SK dado que SN = x es una función de densidad cuyo argumento es y, cualquier cosa que no dependa de y puede considerarse como una constante. (Por ejemplo, x se considera como una constante fija.) En el siguiente, las cantidades CI, i = 1, 2, 3, 4 son todas las constantes que no dependen de y: fSk, SN (y, x) el fSk | SN (y | x) = fSn (x) = C donde C = C1 √ √ 1 − e − (x − y) 2/2 (n − k) √ 1 √ e − Y2/2K 2π n k 2π k C= C= C= C= C= Pero reconocemos lo anterior como la función de densidad de una variable aleatoria normal con la media x y varianza − .K K (n k n n 6,20. (a) P {X6 > X1 | X1 = máx (x1,..., X5)} = p {x6 > x1, x1 = máx (x1,...}, X5)} p {x1 = máx (x1,..., X5) = P {x6 = máx (x1,..., x6), x1 = máx (x1,..., X5)} 1/5 Por lo tanto, la probabilidad de que x6 es el valor más grande es independiente de la que es el más grande de los otros cinco valores. (Por supuesto, esto no sería cierto si el XI tenía distribuciones diferentes.) (b) una manera de resolver este problema es condicionar en si x6 > x1. Nwo P {X6 > X2 | X1 = máx (x1,..., X5), x6 > x1} = 1 También, por simetría, P De la parte (a), P Por lo tanto, condicionamiento si x6 > x1 produce el resultado P

CAPÍTULO 7 m

7,1. (a) b P 1... mU < y} = 1/M, i = 1,..., m c Y PX i =d i=1 7,2. deje que ij sea igual a 1 si la bola de JTH retirada es blanca y la (j + 1) St es negra, y deje que ij sea igual a 0 de lo contrario. Si X es el número de instancias en las que una bola blanca es seguida inmediatamente por una negra, entonces podemos expresar X como n+m−1 X Ij Así n+m−1 Y E [ij] j = 1 n + m − 1 P {JTH la selección es blanca, (j + 1) St es negro} n + m − 1 {JTH selección es blanco} P {j + 1) St es negro | JTH es blanco} n m n Mn m 1 nanómetro j=1 + + − =n+M El precedente utilizó el hecho de que cada una de las bolas de n + m es igualmente probable ser la JTH una seleccionada y, dado que esa selección es una bola blanca, cada uno de los otros n + m − 1 bolas es igualmente probable ser la bola siguiente elegida. 7,3. arbitrariamente numeran a las parejas, y luego dejan que ij sea igual a 1 si el matrimonio número j, j = 1,..., 10, está sentado en la misma mesa. Entonces, si X representa el número de parejas casadas que están sentados en la misma mesa, tenemos X ij j = 1 Así Y un Para calcular E [ij] en este caso, considere la esposa número j. Dado que cada uno de los grupos de tamaño 3 no incluyéndola es igual de probable que sean los miembros restantes de su mesa, se deduce que la probabilidad de que su marido esté en su mesa es Por lo tanto, E [ij] = 3/19 y así E [X] = 30/19 b En este caso, ya que los 2 hombres en la mesa de la esposa j son igualmente propensos a ser cualquiera de los 10 hombres, se deduce que la probabilidad de que uno de ellos es su marido es 2/10, por lo que E [ij] = 2/10 Y y [X] = 2 7,4. de ejemplo 2i, sabemos que el número esperado de veces que la matriz necesita ser enrollada hasta que todos los lados han aparecido por lo menos una vez es 6 (1 + 1/2 + 1/3 + 1/4 + 1/5 + 1/6) = 14,7. Ahora, si dejamos que XI denotar el número total de veces que el lado que aparece, entonces, ya que XI es igual al número total de rollos, have 14,7 = y Pero, por simetría, E [XI] será el mismo para todos i, y así sigue de preceder que E [x1] = 14.7/6 = 2,45. 7,5. Deje que ij sea igual a 1 si ganamos 1 cuando la tarjeta roja de la JTH para mostrar se da la vuelta, y dejar que ij sea igual a 0 de lo contrario. (Por ejemplo, I1 será igual a 1 si la primera carta volteada es roja). Por lo tanto, si X es nuestro total de ganancias, entonces y [X] = y Ahora, ij será igual a 1 si las cartas rojas de j aparecen antes de las cartas negras de j. Por simetría, la probabilidad de este evento es igual a 1/2; por lo tanto, E [ij] = 1/2 y E [X] = n/2. 7,6. Para ver que N... n − 1 + I, tenga en cuenta que si se producen todos los eventos, entonces ambos lados de la desigualdad precedente son iguales a n, mientras que si no todos ocurren, entonces la desigualdad se reduce a N... n − 1, que es claramente cierto en este caso. Tomar expectativas rinde

e [n]... n − 1 + e [I] Sin embargo, si dejamos que II sea igual a 1 si se produce IA y 0 de lo contrario, entonces e [N] = E Desde E [I] = P (a1 · · · A), el resultado sigue. 7,7. Imagine que los valores 1, 2,..., n están alineados en su orden numérico y que los valores k seleccionados se consideran especiales. A partir del ejemplo 3e, la posición del primer valor especial, igual al valor más pequeño elegido, significa 1 + n . k Para un argumento más formal, observe que X Ú j si no se elige ninguno de los valores más pequeños de j − 1. Ahí P {X efecto J} = que muestra que X tiene la misma distribución que la variable aleatoria de example 3e (con el cambio notacional que el número total de bolas es ahora n y el número de bolas especiales es k). 7,8. Deja que X denotar el número de familias que salen después de que la familia Sánchez se vaya. Arbitrariamente numerar todas las familias N − 1 no Sánchez, y dejar ir, 1... r... N − 1, igual a 1 si la familia r sale después de la familia Sánchez. Entonces N−1 Xy Tomar las expectativas da N−1 E {familia r sale después de la familia Sanchez} r=1 Ahora considere a cualquier familia no-Sanchez que comprobó en k pedazos de equipaje. Debido a que cada una de las piezas de equipaje de k + j comprobadas por esta familia o por la familia Sánchez es igualmente probable que sea la última de estas k + j en aparecer, la probabilidad de que esta familia se aleja después de que la familia Sánchez es KK + j. porque el número de familias no-Sanchez que se registró en k piezas de equipaje es NK cuando k Z j, o NJ − 1 cuando k = j, obtenemos E K j k 7,9. deje que el vecindario de cualquier punto de la llanta sea el arco que comienza en ese punto y se extiende por una longitud 1. Considere un punto uniformemente elegido en el borde del círculo, es decir, la probabilidad de que este punto se encuentra en un arco especificado de x longitud x es — y que X denotar el número de puntos que se encuentran en su vecinocampana de 2 π. Con ij definido como igual a 1 si el número de artículo j está en la vecindad del punto aleatorio y al igual a 0 de lo contrario, tenemos X ij Tomar las expectativas da E {Item j se encuentra en el vecindario del punto aleatorio} j=1 Pero debido a que el artículo j se encuentra en su vecindario si el punto aleatorio está situado en el arco de la longitud 1 que va desde el elemento j en la dirección contraria a las agujas del reloj, sigue que P {el ítem j se encuentra en el barrio del punto aleatorio} = Ahí Y Debido a que E [X] > 3, al menos uno de los valores posibles de X debe exceder 3, demostrando el resultado. 7,10. Si g (x) = X1/2, entonces G , G por lo que la expansión de la serie Taylor de √ x sobre λ da Tomar expectativas rinde

Y Ahí Var (√ x) = e [x] − (e [√ x]) 2 L L 1/4 7,11. numere las tablas para que las tablas 1, 2 y 3 sean las que tienen cuatro asientos y las tablas 4, 5, 6 y 7 son las que tienen dos asientos. También, número de las mujeres, y dejar XI, j igual a 1 si la mujer que está sentado con su marido en la mesa j. tenga en cuenta que Y j = 1, 2, 3 Y Y j = 4, 5, 6, 7 Ahora, X denota el número de parejas casadas que están sentados en la misma mesa, tenemos y [X] = y 7,12. deje que XI sea igual a 1 si el individuo no recluta a nadie, y deje que XI sea igual a 0 de lo contrario. Entonces E [XI] = P {i no recluta ninguno de i + 1, i + 2,..., n} =i−1n−1 Por lo tanto, E ⎡ ⎤ n n i 1 De lo anterior también obtenemos me Ahora, para i < j, 3 y [XIXJ] − = (i − 1) (j − 2) (n − 2) (n − 1) Así COV (XI, XJ) = − − − − − − − − − (i 1) (j 2) i 1 j 1 (n 2) (n 1 n 1n 1 Por lo tanto COV (XI, XJ) i=1i=1=1J=i+1i=1−i=1j=i+1−− (n 1 (n 2) (n 1 n me (i 1) (n i) (n i 1 − (n − 2) (n − 1) 2 − − − − i=1 7,13. Deja que XI sea igual a 1 si el ith triple consta de uno de cada tipo de jugador. Entonces Y Por lo tanto, para la parte (a), obtenemos Y De lo anterior se desprende que Var (XI) = (2/7) (1 − 2/7) = 10/49 También, para i Z j, y [XIXJ] Por lo tanto, para la parte b), obtenemos XI, XJ) 7,14. Let XI, i = 1,..., 13, igual a 1 si la tarjeta ITH es un as y dejar XI ser 0 de lo contrario. Deje YJ igual 1 si la tarjeta JTH es una pala y dejar i, j = 1,..., 13, ser 0 de lo contrario. Nwo ⎛N n ⎞ Cov(X,Y) n n

COV (XI, YJ) Sin embargo, XI es claramente independiente de YJ porque conocer el traje de una tarjeta en particular no da ninguna información acerca de si es un as y por lo tanto no puede afectar a la probabilidad de que otra tarjeta especificada es un as. Más formalmente, deje AI, s, AI, h, AI, d, AI, c sean los eventos, respectivamente, esa tarjeta es una pala, un corazón, un diamante y un club. Entonces P + P {YJ = 1 | AI, D} + P {YJ = 1 | AI, C}) Pero, por simetría, tenemos P {YJ = 1 | AI, S} = P {YJ = 1 | AI, H} = P {YJ = 1 | AI, d} = P {YJ = 1 | AI, C} Por lo tanto P {YJ = 1} = P {YJ = 1 | AI, s} Como lo anterior implica que P vemos que YJ y XI son independientes. Por lo tanto, COV (XI, YJ) = 0, y por lo tanto COV (X, Y) = 0. Las variables aleatorias X e y, aunque no correlacionadas, no son independientes. Esto se desprende, por ejemplo, del hecho de que P{Y = 13| X = 4} = 0 Z P{Y = 13} 7,15. (a) su ganancia esperada sin ninguna información es 0. b Usted debe predecir cabezas si p > 1/2 y colas de lo contrario. c Condicionamiento en V, el valor de la moneda, da 1 E [ganancia] = * E [ganancia | V = p] DP 0 1 =* [1 (1 − p) − 1 (p)] DP + * [1 (p) − 1 (1 − p)] DP = 1/2 7,16. Dado que el nombre elegido aparece en n (X) diferentes posiciones en la lista, ya que cada una de estas posiciones es igualmente probable que sea la elegida, se deduce que E [i | n (X)] = P {i = 1 | n (X)} = 1/n (x) Ahí e [I] = e [1/N (X)] Así, E [MI] = e [m/n (X)] = d. 7,17. Dejando que XI sea igual a 1 si se produce una colisión cuando se coloca el elemento Ith, y dejando que sea igual a 0 de lo contrario, podemos expresar el número total de colisiones X como m X XI Por lo tanto My Para determinar E [XI], condición en la celda en la que se coloca. E colocado en cellj] PJ j {i causa la colisión | colocado en la célula j] PJ j PJ) i − 1] PJ j PJ) i − 1pj j El siguiente a la igualdad pasada utilizó el hecho de que, condicional en el elemento i que es colocado en la célula j, el artículo i causará una colisión si alguno de los elementos anteriores i − 1 fue puesto en la célula j. Así m n E [X] = m PJ) i − 1pj i=1j=1 Intercambiar el orden de las sumaciones da

n E [X] = m PJ) m j=1 Mirar el resultado muestra que podríamos haberlo derivado más fácilmente al tomar las expectativas de ambos lados de la identidad número de celdas no vacías = m − X A continuación, se encuentra el número esperado de celdas no vacías definiendo una variable de indicador para cada celda, igual a 1 si esa celda no está vacía y a 0 de lo contrario, y luego tomando la expectativa de la suma de estas variables de indicador. 7,18. permita que L denotar la longitud de la carrera inicial. Condicionamiento en el primer valor da n m E [L] = E [L | el primer valor es uno] + + E [L | el primer valor es cero] + N m n m Ahora, si el primer valor es uno, entonces la longitud de la corrida será la posición del primer cero al considerar los valores restantes n + m − 1, de los cuales n − 1 son unos y m son ceros. (Por ejemplo, si el valor inicial del n + m − 1 restante es cero, entonces L = 1). Como resultado similar es cierto dado que el primer valor es un cero, obtenemos de lo anterior, al usar el resultado del ejemplo 3e, que E [L] = + + + + + + + N m n n m m M1nmn1nmn m =m+1+N+1 7,19. deje que X sea el número de volteretas necesarias para que ambas cajas se vacíen, y permita que y denotar el número de cabezas en los primeros saltos de n + m. Entonces n+M Y i=0 n + mi 1 − p) n + m − i EP Ahora, si el número de cabezas en el primer n + m voltea es i, i... n, entonces el número de volteretas adicionales es el número de volteretas necesarias para obtener un adicional n − i cabezas. Del mismo modo, si el número de cabezas en el primer n + m se voltea i, i > n, entonces, porque habría habido un total de n + m − i < m colas, el número de volteretas adicionales es el número necesario para obtener un adicional i − n cabezas. Dado que el número de saltos necesarios para los resultados de j de un tipo particular es una variable aleatoria binomial negativa cuya media es j dividida por la probabilidad de ese resultado, obtenemos n Ni 1 − p) n + m − i EP i=0 n+M PI (1 − p) n + m − i 7,20. tomar las expectativas de ambos lados de la identidad dada en la pista rinde e [xn] = E q = n * E [xn − 1IX (x)] DX 0 q = n * xn − 1E [IX (x)] DX q = NxN − 1F (x) DX Tomar la expectativa dentro del signo integral está justificado porque todas las variables aleatorias IX (x), 0 < x < q, son no negativas. 7,21. considerar una permutación aleatoria I1,..., en que es igualmente probable que sea cualquiera de la n! Permutaciones. Entonces E [aIjaIj 1 | Ij = k] P {ij = k} + k

N k 1 i ij =N| k Para n (n − 1) k

k = i

}

IZk Si

<0 donde la igualdad final siguió desde la suposición de que. Dado que el anterior muestra que ⎡ N ⎤ E se deduce que debe haber alguna permutación I1,..., en la que n j=1 7,22. a) E [X] = L1 + L2, E [X] = L2 + A3 b COV (X, Y) = COV (x1 + x2, x2 + x3) = COV (x1, x2 + x3) + COV (x2, x2 + x3) = COV (x2, x2) = Var (x2) = L2 c Acondicionamiento en x2 da P {X = i, y i, y = j | x2 = k} P {x2 = k} K I − k, x3 = j − k! K I − k, x3 = j − k}! ¡ K y! k Min (i, J) Λi − k λj − k e ! ¡K! =0 7,23. Cov Corr (XI, YJ) = 8nσx2nσy2 i (XI, Yi) i jZi COV (XI, YJ) = Nσxσy =R donde la igualdad al lado de la última utilizó el hecho de que COV (XI, Yi) = ρσxσy 7,24. dejar XI igual a 1 si la tarjeta ITH elegida es un as, y dejar que sea igual a 0 de lo contrario. Kuz X XI y E [XI] = P {XI = 1} = 1/13, sigue que E [X] = 3/13. Pero, con un ser el evento que el as de picas es elegido, tenemos Y = E [X = E [X AC] El uso de ese E [X] = 3/13 da el resultado Y Del mismo modo, dejar que L sea el evento que al menos un as es elegido, tenemos Y

Así Y L 1,0616 Otra manera de resolver este problema es numerar los cuatro ases, con el as de picas teniendo número 1, y luego dejar Yi igual 1 si el número de ACE i es elegido y 0 de lo contrario. Entonces E [X | A] = E donde usamos que el hecho de que el as de picas es elegido las otras dos cartas son igualmente propensos a ser cualquier par de las cartas restantes 51; por lo que la probabilidad condicional de que cualquier tarjeta especificada (no igual al as de picas) se elige es 2/51. También E [X L] = 4P {Y1 = 1 | L Kuz (AL) P (A) P{Y 52 · 51 · 50 obtenemos la misma respuesta que antes. 7,25. (a)Z (X). por lo tanto, E c El resultado sigue ahora becauseSince X − Z es normal con meanE [Iμ] = y varianza 2, haveP {I = 1} = P {Z < X}. p {x > de} = p {x − z > 0} = P 7,26. deje N ser el número de cabezas en el primer n + m − n1heads y en los leastflips. Let M = MAXM (Xtails., Y) ser el número de volteretas necesarias para amasar por lo menos condicionamiento en N da E i n−1 n+m−1 [MN = i] P {N = i} i=0 i=n Ahora, supongamos que se nos da que hay un total de juicios. Si yo < n, entonces ya hemos obtenido en cabezas me llevaré en las colas firstm, por lo que el additionaln + m − 1 número de saltos necesarios es igual al número necesario para un adicional n − i cabezas; del mismo modo, si i Ú n, entonces ya hemos obtenido al menos n cabezas, por lo que el número adicional de saltos necesarios es igual al número necesario para un m − adicional (n + m − 1 − i) colas. En consecuencia, hemos −1 n i EP {N = i} + −1 i+−1 n P {N = i} i=n −1n = n + M+ i n + M 1 PI (1 − p) n + m − 1 − i + −1i+1 n n + M 1 PI (1 − p) n + m − 1 − I y = n − El número esperado de voltea para obtener n cabezas o colas m, E [min (X, y)], ahora se da por n m E[min(X,Y)] = E[X + Y − M] = + − − Y [M] p 1 p 7,27. este es sólo el tiempo esperado para recopilar n − 1 de los n tipos de cupones en el ejemplo 2i. Por los resultados de ese ejemplo la solución es n n n más de 1 − + − + ... + n 1 n 2 2 7,28. con q = 1 − p, q n n NQ E {x efecto} = {x UU} = i = 1 i = 1 7,29.

Cov(X,Y) = E[XY] − E[X]E[Y] = P(X = 1,Y = 1) − P(X = 1)P(Y = 1) Ahí Cov(X,Y) = 0 3 P(X = 1,Y = 1) = P(X = 1)P(Y = 1) Kuz Cov(X,Y) = Cov(1 − X,1 − Y) = −Cov(1 − X,Y) = −Cov(X,1 − Y) el anterior muestra que todos los siguientes son equivalentes cuando X e y son Bernoulli: 1. Cov(X,Y) = 0 2. P(X = 1,Y = 1) = P(X = 1)P(Y = 1) 3. P(1 − X = 1,1 − Y = 1) = P(1 − X = 1)P(1 − Y = 1) 4. P(1 − X = 1,Y = 1) = P(1 − X = 1)P(Y = 1) 5. P(X = 1,1 − Y = 1) = P(X = 1)P(1 − Y = 1) 7,30. número de los individuos, y dejar XI, j igual a 1 si el individuo jth que tiene el tamaño del sombrero i elige un sombrero de ese tamaño, y dejar XI, j igual 0 de lo contrario. Entonces el número de individuos que eligen un sombrero de su tamaño es r ni XXi, j Ahí r ni r ni r Ehin n n i=1j=1 i=1j=1 i=1

Related Documents

Probabilidades
April 2020 6
Probabilidades
April 2020 9
Probabilidades
October 2019 19
Probabilidades En Gc
July 2020 3

More Documents from ""