UNIVERSIDAD FRANCISCO GAVIDIA CENTRO REGIONAL DE OCCIDENTE
ASIGNATURA: Estadística I TEMA: DISTRIBUCIONES DISCRETAS DE PROBABILIDAD
DOCENTE: LIC. WALTER FRANCISCO VASQUEZ FLORES
ALUMNO: HEBER ANTONIO LEMUS VILLEDA
FECHA: Santa Ana, 17 de noviembre de 2008.
INDICE
Distribuciones Discretas de Probabilidad
INTRODUCCIÓN Analizar datos recabados, puede tornarse una tarea difícil en cuanto a cuales pueden ser los resultados y para que necesitarían la información. La estadística, como una rama de la matemática, presenta formas prácticas de resolver estas dificultades. Una distribución de los datos en categorías que ha demostrado ser útil al organizar los procedimientos estadísticos, es la distinción entre variables discretas.
Una variable discreta es sencillamente una variable para la que se dan de modo inherente separaciones entre valores observables sucesivos. En otras palabras, se define una variable discreta como la variable tal que entre 2 valores cualesquiera observables, hay por lo menos un valor no observable. Esta distribución tiene muchas variantes, pero entre las más importantes podemos mencionar 5 y son: Distribución Binomial, la cual mideel número de éxitos
en una secuencia de “n” ensayos
independientes de Bernoulli; Distribución Binomial Negativa, que estudia el número de experimentos, independientes entre sí; La Distribución Poisson, que expresa la probabilidad de un número k de eventos ocurriendo en un tiempo fijo: La Distribución Geométrica e Hipergeométrica.
3
Distribuciones Discretas de Probabilidad
DISTRIBUCIÓN DE PROBABILIDAD En estadística,
dada
una variable
aleatoria X,
la distribución
de
probabilidad de X
es la función FX(x), que asigna a cada evento definido sobre X una probabilidad, que está definida por:
y de manera que se cumplan las siguientes tres condiciones:
1.
y
2. Es continua por la derecha. 3. Es monótona no decreciente. Para simplificar la notación, cuando no hay lugar a confusión se omite el subíndice X, y se escribe simplemente F(x). La función de distribución es la acumulada de la función de densidad de probabilidad f(x). Es decir, se calcula directamente según:
Si x es una variable aleatoria discreta
Si x es una variable aleatoria continua
4
Distribuciones Discretas de Probabilidad
Propiedades
Para
dos
números
y
reales
cualesquiera a y b tal
que (a < b),
los
sucesos
serán mutuamente excluyentes y su unión es el suceso
, por lo
que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable. Para realizar cálculos es más cómodo conocer las distribución de probabilidad, para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad. DISTRIBUCIÓN DE VARIABLE DISCRETA Una variable discreta es sencillamente una variable para la que se dan de modo inherente separaciones entre valores observables sucesivos. En otras palabras, se define una variable discreta como la variable tal que entre 2 valores cualesquiera observables, hay por lo menos un valor no observable. A dicha función se la llama función de masa de probabilidad. En este caso la distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos entonces que:
5
Distribuciones Discretas de Probabilidad
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la
suma de todas las probabilidades desde
hasta el valor x.
Distribuciones de variable discreta más importantes Existen 5 tipos de distribuciones de variable discreta que son las más importantes, y estas son:
Distribución binomial
Distribución binomial negativa
Distribución Poisson
Distribución geométrica
Distribución hipergeométrica
Distribución Binomial Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo experimento consistente en una serie de pruebas repetidas, caracterizadas por tener resultados que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e independientes. La distribución binomial es una generalización de la distribución de Bernoulli, a la que puede llegarse nuevamente haciendo n = 1. Su función de masa de probabilidad está dada por:
para
, siendo
elementos tomados de
6
en
)
Distribuciones Discretas de Probabilidad
las combinaciones de
en
(
Por ejemplo, la distribución binomial se puede usar para calcular la probabilidad de sacar 5 caras y 7 cruces en 12 lanzamientos de una moneda. En realidad solo se calcula la probabilidad de sacar 5 caras, pero como es lógico si en 12 lanzamientos de una moneda sacamos 5 caras el resto deben ser cruces, 7 en este caso. Por lo tanto debemos definir la variable "X: Número de caras obtenidas en 12 lanzamientos de
moneda".
En
este
caso
se
tiene
que
y resulta:
Observese que para el caso concreto de la moneda al ser la probabilidad de éxito θ = 0,5 la función
de masa de probabilidad solo depende del número combinatorio
ya que:
0,5x(1 − 0,5)n − x = 0,5x0,5n − x = 0,5n − x + x = 0,5n que es constante para un n fijo. Su media y su varianza son:
Experimento binomial La variable aleatoria binomial y su distribución están basadas en un experimento que satisface las siguientes condiciones:
El
experimento
consiste
en
una
secuencia
antes del experimento.
7
Distribuciones Discretas de Probabilidad
de n ensayos,
donde n se
fija
Los ensayos se realizan bajo idénticas condiciones, y cada uno de ellos tiene unicamente dos
posibles
resultados,
que
se
denotan
a
conveniencia
por
éxito (E) o
fracaso (F) (p(E)+p(F)=1).
Los ensayos son independientes, por lo que el resultado de cualquier ensayos en particular no influye sobre el resultado de cualquier otro intento.
La probabilidad de éxito es idéntica para todos los ensayos.
Siguiendo estas premisas, la variable aleatoria binomial X está definida como X = el número de E entre los n intentos. Relaciones con otras variables aleatorias
Se verifica que si
parámetro
son tales que cada una sigue una distribución Bernouilli de
, y todas ellas independientes entre sí, entonces
aleatoria con distribución binomial de parámetros
Además, si n es grande y
a
resulta ser una variable
.
es pequeño, de modo que el producto entre ambos parámetros tiende
, entonces la distribución de la variable aleatoria binomial tiende a una distribución de
Poisson de parámetro Por último, se cumple que cuando n es muy grande (n>=30) la distribución binomial se aproxima a la distribución normal. Propiedades reproductivas
Dadas n variables aleatorias
, tales que
todas tienen una distribución binomial
8
Distribuciones Discretas de Probabilidad
todas tienen el mismo parámetro
cada una tiene su propio parámetro
(es decir, los n no necesariamente tienen que ser
iguales)
son todas independientes entre sí
se toma la variable aleatoria
se toma
Entonces:
La variable aleatoria Y tiene una distribución Binomial, con parámetros
y
.
Por lo tanto, dadas n variables binomiales independientes, donde cada una tiene su propio n pero
todas tienen igual
, su suma es también una variable binomial, cuyo parámetro n es la suma de
los n de las variables originales, y cuyo parámetro
coincide con el de las originales.
Distribución binomial negativa En estadística, la distribución binomial negativa, o distribución pascal, es una distribución de probabilidad discreta. Esta distribución de variable discreta estudia el número de experimentos, independientes entre si, realizados hasta la obteción del k-ésimo éxito. Es una variable aleatoria que tiene una distribución binomial negativa con parámetros k y θ. Donde k es el número de ensayos exitosos donde acaba el experimento y θ es la probabilidad de éxito en un ensayo (o experimento).
9
Distribuciones Discretas de Probabilidad
Su función masa de Probabilidad viene dada por:
Para
Siendo el combinatorio Su media y su varianza son:
si pensamos en "fracasos esperados", y
si consideramos "número de experimentos" (incluyen k-1 éxitos y los fracasos)
(para ambos casos)
Por ejemplo, si la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es 0,40, ¿cuál es la probabilidad de que el décimo niño expuesto a la enfermedad sea el tercero en contraerla? Sea X: Número de niños expuestos a una enfermedad contagiosa.
10
Distribuciones Discretas de Probabilidad
Distribución de Poisson En teoría de probabilidad y estadística, la distribución de Poisson1 expresa la probabilidad de un número k de eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una tasa media conocida, y son independientes del tiempo desde el último evento. La distribución fue descubierta por Siméon-Denis Poisson(1781–1840) que publicó, junto con su teoría de probabilidad, en 1838 en su trabajo Recherches sur la probabilité des
jugements
criminelles
et
en
matière
matières civile2.
El
trabajo estaba enfocado en ciertas variables aleatorias N que cuentan,
El eje horizontal es el índice k. La función solamente está definida en valores enteros de k. Las líneas que conectan los puntos son solo guías para el ojo y no indican continuidad.
entre otras cosas, un número de ocurrencias discretas (muchas veces llamadas "arribos") que tienen lugar durante un intervalo de tiempo de duración determinada. Si el número esperado de ocurrencias en este intervalo es λ, entonces la probabilidad de que haya exactamente k ocurrencias (siendo k un entero no negativo, k = 0, 1, 2, ...) es igual a:
dónde
e es el base del logaritmo natural (e = 2.71828...),
k! es el factorial de k,
k es el número de ocurrencias de un evento,
λ es un número real positivo, equivalente al número esperado de ocurrencias durante un intervalo dado. Por ejemplo, si los eventos ocurren de media cada 4 minutos, y se está
1La distribución Poisson es también llamada Poissoniana, análogamente al término Gaussiana para una distribución de Gauss o distribución normal.
2"Investigación sobre la probabilidad de los juicios en materias criminales y civiles"
11
Distribuciones Discretas de Probabilidad
interesado en el número de eventos ocurriendo en un intervalo de 10 minutos, se usaría como modelo una distribución de Poisson con λ = 2.5. Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan
encuadernaciones defectuosas.
Su media y su varianza son:
Como una función de k, ésta es la función probabilidad de masa. La distribución de Poisson puede ser vista como un caso limitante de la distribución binomial, es decir, que una distribución binomial
en la que
y
se puede aproximar por una distribución de Poisson de
valor Ocurrencia La distribución Poisson, Se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de tiempo o en una área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución Poisson incluyen:
El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo.
El número de errores de ortografía que uno comete al escribir una única página.
El número de llamadas telefónicas en una central telefónica por minuto.
12
Distribuciones Discretas de Probabilidad
El número de servidores web accedidos por minuto.
El número de animales muertos encontrados por unidad de longitud de ruta.
El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación.
El número de núcleos atómicos inestables que decayeron en un determinado periodo de tiempo en una porción de sustancia radiactiva. La radiactividad de la sustancia se debilitará con el tiempo, por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia.
El número de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva de un inventor a través de su carrera.
13
Distribuciones Discretas de Probabilidad
Propiedades
El valor esperado de una variable aleatoria con distribución Poisson es igual a λ y también lo es su varianza. Los momentos más altos de la distribución Poisson son polinomios de Touchard en λ cuyos coeficientes tienen un sentido combinatorio. De hecho, cuando el valor esperado de la distribución Poisson es 1, entonces la fórmula de Dobinski dice que el enésimo momento iguala al número de particiones de tamaño n.
Las medidas de tendencia central de una variable aleatoria de distribución Poisson con un
λ no entero es igual a
(o suelo de λ), el cual es el número entero más grande menor o
igual a λ. Esto también es expresado como la función parte entera de λ. Cuando λ es un entero positivo, las medidas de tendencia central son λ y λ − 1.
Sumas de las variables aleatorias de distribución Poisson:
Si
sigue
una
distribución
Poisson
y Xi son independientes entonces
con
también
parámetro
sigue
una
distribución Poisson cuyo parámetro es la suma de los parámetros del componente.
La función generadora de momentos de la distribución Poisson con valor esperado λ es:
Todas las acumulaciones de la distribución Poisson son iguales al valor esperado λ. El enésimo momento factorial de la distribución Poisson es λn.
La distribuciones Poisson son funciones probabilísticas infinitamente divisibles.
14
Distribuciones Discretas de Probabilidad
La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está dada por:
Distribución Geométrica En teoría
de
probabilidad y estadística,
la distribución
geométrica
es
cualquiera
de
las
dos distribuciones de probabilidad discretas siguientes:
La distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
La distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.
Cuál de éstas es la que uno llama "la" distribución geométrica, es una cuestión de convención y conveniencia. Si la probabilidad de éxito en cada ensayo es p, entonces la probabilidad de que n ensayos sean necesarios para obtener un éxito es
para n = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya n fallos antes del primer éxito es
para n = 0,1, 2, 3,.... En ambos casos, la secuencia de probabilidades es una secuencia geométrica. Por ejemplo, supongamos que un dado ordinario es lanzado repetidamente hasta que aparece "1" por primera vez. La distribución de probabilidad del número de veces que el dado es lanzado se encuentra en el conjunto infinito {1, 2, 3,...} y es una distribución geométrica conp=1/6. El valor esperado de una variable aleatoria X distribuida geométricamente es 1/'p y su varianza es (1 − p)/p2;
15
Distribuciones Discretas de Probabilidad
Equivalentemente, el valor esperado de una variable aleatoria distribuida geométricamente Y es (1 − p)/p, y su varianza es (1 − p)/p2.
La función generatriz de probabilidad de X y la de Y son, respectivamente,
Como su continua análoga (la distribución exponencial), la distribución geométrica es sin memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de probabilidad condicional del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución geométrica es de hecho la única distribución discreta sin memoria. De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,... } con un valor esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor entropía La distribución geométrica del número y de fallos antes del primer éxito es infinitamente divisible, esto
es,
para
cualquier
entero
positivo n,
existen
variables
aleatorias
independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1
16
Distribuciones Discretas de Probabilidad
Distribuciones relacionadas La distribución geométrica Y es un caso especial de la distribución binomial negativa, con r = 1. Más generalmente, si Y 1,...,Yr son variables independientes distribuidas geométricamente con
parámetro p,
entonces
sigue
a
una
distribución
binomial
negativa
con
parámetros r y p. Si Y1,...,Yr son variables independientes distribuidas geométricamente (con diferentes parámetros de éxito pm posibles ), entonces su mínimo W = minmYm es también geométricamente distribuido, con parámetro p dado por
1-∏m(1-Pm) Distribución hipergeométrica En estadística la Distribución hipergeométrica es una distribución de probabilidad discreta con tres parámetros discretos N, d y n cuya función de probabilidad es:
N = Tamaño de población. n = Tamaño de muestra. d = Cantidad de elementos que cumple característica deseada. x = Cantidad de éxitos.
17
Distribuciones Discretas de Probabilidad
Aquí,
se refiere al coeficiente binomial, o al número de combinaciones posibles al
seleccionar b elementos de un total a. Esta distribución se refiere a un espacio muestral donde hay elementos de 2 tipos posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos, al extraer (sin reemplazo) una muestra de tamaño n, de un total de N objetos, de los cuales d son del tipo requerido. El valor esperado de una variable aleatoria X de distribución hipergeométrica es
Y su varianza
llamando
,
q=1−p
entonces:
La distribución hipergeométrica se puede aproximar por una distribución binomial Bi(n,p) si
y
18
Distribuciones Discretas de Probabilidad
BIBLIOGRAFÍA
•
Gestiopolis: http://www.gestiopolis.com/recursos/experto/catsexp/pagans/eco/44/distripoisson.htm 10:00 pm - 15 /Nov/ 2008.
•
Monografías: http://www.monografias.com/trabajos27/probabilidadesdiscretas/probabilidadesdiscretas.shtml - 03:15 pm - 16 /Nov/ 2008.
•
Wikipedia: http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad – 9:45 am – 15 /Nov/ 2008.
19
Distribuciones Discretas de Probabilidad