Materia De Proyecto De Probabilidad.docx

  • Uploaded by: best
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Materia De Proyecto De Probabilidad.docx as PDF for free.

More details

  • Words: 3,029
  • Pages: 19
ESPACIOS DE PROBABILIDAD Un experimento aleatorio es cuando se desconoce el resultado del mismo, en general en los experimentos aleatorios existen una falta de información, la cual hace que se desconozca el resultado del experimento, dentro de los experimentos aleatorios se desconoce todos los posibles resultados y este se define como espacio maestral Espacio muestral = {Todos los casos posibles del experimento son representado por Ω} Eventos = {Casos favorable del experimento} σ-Algebra Sea Ω (omega) un conjunto no vacío entonces F es una σ-algebra (sigma-algebra) sobre Ω, si cumple que: 1.- Ω ∈ F 2.-Si B ∈ F, entonces

∈F

3.-Si B1, B2, B3, ……. ∈ F, entonces

F

F es una colección de subconjuntos de Ω, B es visto como un evento. Conjunto Potencia , entonces el conjunto 2^ (Ω) es una σ-algebra sobre Ω.

Sea

σ-algebra de Borel Sea la σ-algebra definida sobre

(números reales) es una colección de todos los

intervalos de la forma (- ∞, a] con a ∈ Ω=

; (- ∞, a] ∈

1.-



2.-

B∈

entonces

3.- B1, B2, B3, ……

∈ entonces

y se llama σ-algebra de Borel (

)

ESPACIOS MEDIBLES , y F una σ-algebra definida sobre Ω , entonces la dupla ( Ω,F) se llama

Sea

espacio medible 

Si

y Ω ∈ σ-algebra entonces: : Evento inseguro

Ω : Evento seguro 

Si B, C ∈ σ-algebra y B

C=

son eventos B y C son eventos ajenos o

mutuamente excluyentes 

Si w ∈ Ω, entonces {w} es un evento elemental {w} ∈ σ-algebra

MEDIDA DE PROBABILIDAD El objetivo es asignar a cada elemento B un número real no negativo que indique el” chance” que tiene B de ocurrir, suponiendo que se realice un experimento aleatorio n-veces y que las condiciones entre que este se ejecute se mantiene constantes.

Frecuencia Relativa Se define Fr(B)=n(B)/dónde n(B) indica cuantas veces ocurre B y n es el número de experimentos La estabilidad de la frecuencia relativa en lo que se conoce como regularidad estadística y es lo que permite al estadístico, hace predicciones que eliminan, aunque sea parcialmente, la incertidumbre presenta en el fenómeno imprescindibles 1. n(B) = o entonces Fr(B)=0 P(B)=0 2. n(Ω)= n entonces Fr(Ω)=1 p(Ω)=1 3. Si B

C=

entonces n(B+C) =n(B) +n(C)

Fr(B+C) =Fr(B)+Fr(C) entonces P (B U C) =P(B) +P(C)

ESPACIO DE PROBABILIDAD Sea (Ω, ∓ ) un espacio medible y sea P una función de F a los

,entonces si P

cumple que : 1. 𝑃(𝐵) ≥ 0 2. 𝑃(Ω) = 1 3.𝑆𝑖 𝐵1, 𝐵2, 𝐵3 ∈ ∓ 𝑦 𝐵𝑖 ∩ 𝐵𝑗 ∞

𝑐𝑜𝑛 𝑖 ≠ 𝑗



𝑃 (⋃ 𝐵𝑖 ) = ∑ 𝑃(𝐵𝑖) 𝑖=1

𝑖=1

P es una medida de probabilidad ∴ 𝑙𝑎 𝑡𝑟𝑖𝑝𝑙𝑒 (Ω, ∓, P) 𝑠𝑒 𝑙𝑙𝑎𝑚𝑎 𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑

Eventos Nulos Sea ( Ω, ∓, 𝑃) es un espacio de probabilidad ,si 𝐵 ∈ ∓𝑦 𝑃(𝐵) = 0 entonces B es un evento nulo ESPACIOS DE PROBABILIDAD COMPLETOS Si ( Ω, ∓, 𝑃) tiene eventos nulos y todos los subconjuntos de estos eventos nulos también son nulos, entonces ( Ω, ∓, 𝑃) se dice completos Medidas de probabilidad 𝑃: ∓→ ℝ Propiedades de una medida de probabilidad 1. 𝑃(∅) = 0 2. 𝑃(Ω) = 1 3. 𝑺𝑖 𝐵 ∩ 𝐶 = ∅ 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶)

4. 𝑆𝑖 𝐵 ⊆ 𝐶 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵) ⊆ 𝑃(𝐶) 𝑦 𝑃(𝐶 − 𝐵) = 𝑃(𝐶) − 𝑃(𝐵) 5. 𝑃(𝐵 𝐶 ) = 1 − 𝑃(𝐵) 6. 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴 ∩ 𝐵) 7. 𝑃(𝐵 ∪ 𝐵 𝐶 ) = 𝑃(𝐵) + 𝑃(𝐵𝐶 ) = 𝑃(Ω) = 1 8. Sea(𝐵𝑛)𝑛 𝑢𝑛𝑎 𝑠𝑢𝑐𝑒𝑠𝑖𝑜𝑛 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝐵𝑛 ∈ ∓, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 𝑦 𝐵𝑛 ⊆ 𝑩𝒏 + 𝟏, ∞ 𝑙𝑖𝑚 𝑝𝑎𝑟𝑎 𝑛 = 1,2,3, . 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃( 𝑛→∞ 𝐵𝑛) =

𝑙𝑖𝑚 𝑙𝑖𝑚 𝑛→∞𝑃(𝐵𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛→∞𝐵𝑛

= ⋃ 𝐵𝑛 𝑛=1

9. Sea (𝑩𝒏)𝒏 𝑢𝑛𝑎 𝑠𝑢𝑐𝑒𝑠𝑖𝑜𝑛 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑑𝑒𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝑩𝒏 ∓, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝒏 𝒚 𝑩𝒏 ⊇ 𝑩𝒏 + 𝟏, 𝑝𝑎𝑟𝑎 𝑛 = 1,2, . . 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: ∞ 𝑙𝑖𝑚 𝑃( 𝑛→∞ 𝐵𝑛)

=

𝑙𝑖𝑚 𝑙𝑖𝑚 𝑛→∞𝑃(𝐵𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛→∞𝐵𝑛

= ⋂ 𝐵𝑛 𝑛=1

10. 𝑃(𝐵 ∪ 𝐶 ∪ 𝐷) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐷) − 𝑃(𝐵 ∩ 𝐶) − 𝑃(𝐵 ∩ 𝐷) + 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶) VECTOR DE PROBABILIDAD Sea

y Ω un conjunto finito o numerable y ∓= 𝑃(Ω) una 𝜎 − 𝑎𝑙𝑔𝑒𝑏𝑟𝑎 completa

y ∅ , 𝐴 ∈ ∓ ,entonces: 𝐴= ⋃𝑤 𝑤∈𝐴

𝑃(𝐴) = 𝑃(⋃ 𝑤) 𝑥∈𝐴

𝑃(𝐴) = ⋃ 𝑃(𝑤) 𝑥∈𝐴

Si Pj=P(wj), entonces la aplicación P que cumple: 1. 𝑃𝑗 ≥ 0

2. ∑∞ 𝑗=1 𝑃𝑗 = 1 3. 𝑃(Ω) = 1 Es una medida e probabilidad y el vector P=(P1,P2,…) con cardinales(Ω) es vector de probabilidad discreta ESPACIO DE PROBABILIDAD DE LAPLACE Sea un espacio de probabilidad, ( Ω, ∓, 𝑃) donde Ω ≠ ∅ y finito o numerables ∓= 1

𝑃(Ω) y 𝑃(𝑤) = |Ω| entonces P es una medida de uniforme o clásica. 𝑃(𝐵) = 𝑃(⋃ 𝑤 = 𝑤𝜖𝐵

∑ 𝑤𝜖𝐵

∑𝑤𝜖𝐵 1 = ∑ 𝑃(𝑤) |Ω| 𝑤𝜖𝐵

1 |𝐵| = 𝑃(𝐵) = |Ω| |Ω|

ANÁLISIS COMBINATORIO Sea una muestra de tamaño de un conjunto de cardinalidad n, entonces a modo de resumen tenemos que:

Muestra

Con Remplazo

Con Orden

𝑛𝑘

Sin Orden

(

𝑛−𝑘+1 ) 𝑘

Sin Remplazo

𝑛𝑃𝑘 =

𝑛𝐶𝑘 =

𝑛! (𝑛 − 𝑘)!

𝑛! 𝑛! (𝑛 − 𝑘)!

PROBABILIDAD COORDINADA E INDEPENDIENTE DE EVENTOS Pretende calcular probabilidades de algún evento, sea un espacio de probabilidad ( Ω, ∓, 𝑃) Con 𝐵 ∈ ∓ 𝑦 𝑃(𝐵) > 0 ,entonces la probabilidad coordinada se define como: 𝐵 𝑃(𝐵 ∩ 𝐶) 𝑃( ) = = 𝐶 𝑃(𝐵)

(𝐵 ∩ 𝐶) |𝐵 ∩ 𝐶| (Ω) = (𝐵) |𝐵| (Ω)

con Pr(B)>0 MEDIDA DE PROBABILIDAD CONDICIONAL Eventos dependientes: Es aquel el cual su misma palabra lo dice, su resultado se ve afectado por el resultado de otro(s) evento(s). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. Eventos independientes: Si el conocimiento de que el evento B ocurre no cambia la probabilidad de que el evento A ocurra, se dice que A y B son eventos independientes. TEOREMA DE BAYES Si se conoce Pr(A|Bi ) para cada i, el teorema de Bayes proporciona una fórmula útil para calcular las probabilidades condicionales de los Bi eventos dado A . Sea Bi,...,Bk los eventos que forman una partición del espacio S tal que Pr(Bi )>0 para j=1,2,...,k y sea A un evento tal que Pr(A) >0. Entonces para i=1,...,k 𝐏𝐫(𝑩𝒊\𝑨) =

𝐏𝐫(𝑩𝒊) 𝐏𝐫(𝑨\𝑩𝒊) ∑𝒌𝒋=𝟏 𝐏𝐫(𝑩𝒋) 𝐏𝐫(𝑨\𝑩𝒋)

DISTRIBUCIÓN A-PRIORI Y A- POSTERIORI Sea una partición A1,A2,A3,………,An de Ω y P(An)>0, 𝐵 ∈ ∓ 𝑦 𝑃(𝐵) > 0,entonces

(P(An))n se llama distribución a-priori y (P(An/B))n se llama distribución a-posteori P(A1)P(A2),P(A3)……..(P(An))n P(A1/B)P((A2/B),…..,P(An/B)n Independencia de eventos Los eventos son independientes si solo si se cumple que 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵) Nota. - 𝑃(𝐴/𝐵) = 𝑃(𝐴), 𝑃(𝐵/𝐴) = 𝑃(𝐵) LEY DE LA PROBABILIDAD TOTAL Suponga que los eventos forman una partición de S y para j=1,2,...k. Entonces para cada evento A en S: 𝑘

Pr(𝐴) = ∑ Pr(𝐴\𝐵𝑗) Pr(𝐵𝑗) 𝑗=1

MEDIDA DE PROBABILIDAD INDUCIDO Para cualquier intervalo de la forma (−∞, 𝑥],se puede obtener su imagen inversa bajo x, es decir : 𝑥 −1 (−∞, 𝑥] = {𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥}, como este conjunto pertenece a f por la definición de variables aleatorias, se puede aplicar la medida de probabilidad P, pues esta tiene como dominio f, así mediante la función x puede trasladarse la medida de probabilidad P, a intervalos de la forma (−∞, 𝑥] y puede demostrarse que ello es suficiente para extenderla a la totalidad de la 𝝈 − 𝑨𝒍𝒈𝒆𝒃𝒓𝒂 𝒅𝒆 𝑩𝒐𝒓𝒆𝒍 𝒅𝒆 ℝ. Variable aleatoria (−∞, 𝑎], 𝑎 ∈ ℝ 𝜷(ℝ) {(ℝ, 𝜷(ℝ)}

((𝛀, ∓) Sea (Ω, ∓, 𝑃) un espacio de probabilidad entonces una variable aleatoria es una transformación del espacio muestral a los números reales así: 𝑋: Ω → ℝ También para un numero x fijo se tiene que: {𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥} ∈ ∓ Gráficamente: X

.w

x



Ω Notación Sea A ∈ 𝛽(ℝ), entonces: (x ∈ 𝐴): {𝑤 ∈ Ω ∶ 𝑥(𝑤) ∈ 𝐴} A este conjunto se le llama la imagen inversa de A y solo denota también por 𝑥 −1 𝐴 Gráficamente: Espacio de

(Ω, ∓, 𝑃)

probabilidad

X(ℝ, 𝛽(ℝ), 𝑃𝑥)

Nuevo espacio de probabilidad

Nuestro interés como estadísticos es el estudio de los distintos cuentos de la forma (x ∈ 𝐴) y sus probabilidades es donde x es una variable aleatoria y A es un conjunto de Borel ℝ (x ∈ 𝐴),-x es una V.A -A ∈ 𝛽(ℝ) Evento Px ( x ∈ 𝐴) = 𝑃(𝑥 ∈ 𝐴)

VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS Considerando el conjunto de valores de una variable aleatoria puede tomar se tiene la siguiente clasificación: V.A.Discreta: Cuando el número de elementos es finito numerable , (ℕ) V.A.Continua: Cuando pueden tomar todos los valores en un intervalo FUNCIÓN DE PROBABILIDAD Se puede definir una función de probabilidad para el caso de la variable aleatoria discretas y continuas. Sea una variable x con posibles valores 𝑥 = {𝑥0 , 𝑥𝑖 , … … … . } y con probabilidad siguiente 𝑃0 = {𝑃(𝑥 = 𝑥0 ), 𝑃1 = 𝑃(𝑥 = 𝑥) 𝑋: Ω → ℝ 𝑥0 , 𝑥𝑖 , … … . ∈ ℝ La función de probabilidad x se defiende como aquella función que toman estas probabilidades como valores. Definición: Sea x una V.A.Discreta con valores 𝑥0 , 𝑥𝑖 , … …., la función de probabilidad f(x): ℝ → ℝ se define como: 𝑃(𝑋 = 𝑋) 𝑓(𝑥) = { 0

Ω: 𝑋 = 𝑥0 , 𝑥1 , … . 𝐸𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Tabla

X

𝑿𝟎

𝑿𝟏

𝑿𝟐

f(x)

f(𝑿𝟎 )

𝒇(𝑿𝟏 )

𝒇(𝑿𝟐 )

Sea un evento entonces

P(A)=∑𝑋𝜖𝐴 𝑃(𝑋) = ∑𝑋𝜖𝐴 𝑓(𝑋)

A={𝑥0 , 𝑥1 , … … } P(x=𝑥0 )=0 P(x=𝑥0 )=c ; c≠ 0

Propiedades 1. 𝑓(𝑥) ≥ 0 2. ∑ 𝑓(𝑥) = 1 Recíprocamente a toda función f(x) que sea 0, excepto en ciertos puntos 𝑥0 , 𝑥1 , … ..En donde la función toma valores positivos se les llama función de probabilidad cuando se cumplen las 2 propiedades anteriormente y sin que haya de por medio una variable aleatorio que la defina de esta manera e estudio del modelo de probabilidad se traslada al estudio de funciones reales. CASO CONTINUO Sea x una V.A Continua entonces la función integrable y no negativa f(x): ℝ → ℝ es llamada la función de densidad, si para cualquier intervalo [a,b] ∈ ℝ, se cumple que: 𝑏

𝑃(𝑋 ∈ [𝑎, 𝑏]) = ∫ 𝑓(𝑥)𝑑𝑥 𝑎

g también debe cumplir las siguientes propiedades 1. 𝑓(𝑥) ≥ 0 ∞

2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1 Gráficamente: 𝒇(𝒙)

𝑏

𝑃(𝑥 ∈ [𝑎, 𝑏]) = ∫𝑎 𝑓(𝑥)𝑑𝑥 a 𝑥0 b

X

Es decir, la probabilidad de que la variable aleatoria continua tome con valor dentro del intervalo [a,b] se puede calcular o expresar como el área bajo la curva de la f(x) en dicho intervalo. De esta forma el cálculo de una probabilidad se reduce al cálculo de una integral. Recíprocamente toda función f(x): ℝ → ℝ que se satisfagan las 2 propiedades anteriores, sin necesidad de tener variable aleatoria de promedio se llamara función de densidad. FUNCION DE DISTRIBUCION 𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥) 𝐹(𝑋) = 𝑃(𝑋 ∈ (−∞, 𝑥])

~Caso Discreto 𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥) 𝐹(𝑋) = ∑ 𝑓(𝑢) 𝑢≤𝑥

~Caso Continuo 𝐹(𝑋) = 𝑃(𝑋 = 𝑥)

𝑥

𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢 −∞

° Caso Continuo Para obtener la función de densidad a partir de la función de distribución se lo realiza de la siguiente manera: 𝑥

𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢 = 𝑃(𝑋 ≤ 𝑥) −∞

𝑓(𝑥) = 𝐹 ′(𝑋)

° Caso Discreto Para el caso discreto se obtiene la función de probabilidad de la siguiente manera: 𝑓(𝑥) = 𝐹(𝑋) − 𝐹(𝑋 −) ; 𝐹(𝑋 −) = lim 𝐹(𝑥 − ℎ) = 𝑃(𝑋 < 𝑥) ℎ→0

𝐹(𝑋 +) = lim 𝐹(𝑥 + ℎ) ℎ→0

Proposiciones Toda función de distribución F(x) satisface las siguientes proposiciones y son 4: a) b)

lim 𝐹(𝑥) = 1

𝑥→∞

lim 𝐹(𝑥) = 0

𝑥→−∞

c) Si 𝑋1 , 𝑋2 ∈ ℝ 𝑦 𝑋1 ≤ 𝑋2 → 𝐹(𝑋1 ) ≤ 𝐹(𝑋2 ) d) 𝐹(𝑥) = 𝐹(𝑥+)

TEOREMA DEL CAMBIO DE VARIABLES ~Caso Discreto Para 𝑦 ∈ 𝑌 con 𝑌 = 𝜑(𝑥), 𝑡𝑒𝑛𝑒𝑚𝑜𝑠 𝑞𝑢𝑒 𝑃(𝑌 = 𝑦) = 𝑃(𝑥 ∈ 𝜑−1 (𝑦)) 𝑃(𝑌 = 𝑦) =



𝑃(𝑋 = 𝑥)

𝑥∈ 𝜑−1 (𝑦)

~Caso Continuo 𝑓𝑌 (𝑦) = {𝑓𝑋 (𝜑

−1 (𝑦))

|

𝑑 −1 𝜑 (𝑦)| 𝑝𝑎𝑟𝑎 𝑦 ∈ 𝑅𝑎𝑛𝑔(𝜑(𝑥)) 𝑑𝑦 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

° Caso 1 Si 𝜑(𝑥) es creciente entonces 𝜑−1 es creciente y (𝜑−1 ) es positiva 𝑓𝑋 (𝜑−1 (𝑦)) |

𝑑 −1 𝜑 (𝑦)| 𝑑𝑦

° Caso 2 Si 𝜑(𝑥) es decreciente entonces 𝜑−1 es decreciente y (𝜑−1 )′ es negativa −𝑓𝑋 (𝜑−1 (𝑦)) |

𝑑 −1 𝜑 (𝑦)| 𝑑𝑦

INDEPENDENCIA DE VARIABLES ALEATORIAS 𝐹𝑥,𝑦 (𝑥, 𝑦) = 𝐹𝑥 (𝑥) ∙ 𝐹𝑦 (𝑦) 𝑃(𝑋 ≤ 𝑥 𝑦 𝑌 ≤ 𝑦) = 𝑃(𝑋 ≤ 𝑥) ∙ 𝑃(𝑌 ≤ 𝑦) 𝑃(𝑋 ≤ 𝑥 , 𝑌 ≤ 𝑦) = 𝑃(𝑋 ≤ 𝑥) ∙ 𝑃(𝑌 ≤ 𝑦) ~Caso Discreto 𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥) ∙ 𝑃(𝑌 = 𝑦) 𝑃(𝑋 = 𝑥) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑦

𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑥

~Caso Continuo 𝑓𝑥,𝑦 (𝑥, 𝑦) = 𝑓𝑥 (𝑥) ∙ 𝑓𝑦 (𝑦) ∞

𝑓𝑥 (𝑥) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑥 −∞ ∞

𝑓𝑦 (𝑦) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑦 −∞

ESPERANZA ~Caso Discreto 𝐸[𝑥] = ∑ 𝑥 𝑓(𝑥) 𝑥

~Caso Continuo ∞

𝐸[𝑥] = ∫ 𝑥 𝑓(𝑥) 𝑑𝑥 −∞

ESPERANZA DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA 𝑋; 𝜑(𝑥) = 𝑎𝑥 + 𝑏 𝜑(𝑥) = 𝑥 2 𝑦 = 𝜑(𝑥) = 𝑒 𝑥 𝐸[𝑌] = ∑ 𝑦 𝑓(𝑦) 𝑦 ∞

𝐸[𝑌] = ∫ 𝑦 𝑓(𝑦) 𝑑𝑦 −∞

~Teorema del estadístico inconsciente ° Caso Discreto 𝐸[𝜑(𝑥)] = ∑ 𝜑(𝑥)𝑓(𝑥) ; 𝜑(𝑥) = 𝑌 𝑥

° Caso Continuo ∞

𝐸[𝜑(𝑥)] = ∫ 𝜑(𝑥) 𝑓𝑥 (𝑥) 𝑑𝑥 −∞

PROPIEDADES GENERALES DE LA ESPERANZA Sean 𝑥, 𝑦 variables aleatorias y 𝑐 una constante: 1. 𝐸[𝑐] = 𝑐 2. 𝐸[𝑐𝑥] = 𝑐𝐸[𝑥] 3. 𝑠𝑖 𝑥 ≥ 0, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝐸[𝑥] ≥ 0 4. 𝐸[𝑋 + 𝑌] = 𝐸[𝑋] + 𝐸[𝑌] 5. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝐸[𝑋 𝑌] = 𝐸[𝑋] 𝐸[𝑌]

VARIANZA ~Caso Discreto Sea una variable aleatoria discreta con función de probabilidad 𝑓(𝑥), su varianza es: 𝑉𝑎𝑟(𝑥) = ∑(𝑥 − 𝜇)2 𝑓(𝑥) ; 𝑑𝑜𝑛𝑑𝑒: 𝜇 = 𝐸[𝑥] 𝑥

~Caso Continuo Sea una variable aleatoria continua con función de densidad 𝑓(𝑥), su varianza es: ∞

𝑉𝑎𝑟(𝑥) = ∫ (𝑥 − 𝜇)2 𝑓(𝑥) 𝑑𝑥 ; 𝑑𝑜𝑛𝑑𝑒: 𝜇 = 𝐸[𝑥] −∞

𝑠𝑖 𝜑(𝑥) = (𝑥 − 𝜇)2 ; 𝜇 = 𝐸[𝑥] 𝐸[𝜑(𝑥)] = 𝐸[(𝑥 − 𝜇)2 ] = 𝑉𝑎𝑟(𝑥) ° Propiedades 1. 𝑉𝑎𝑟(𝑥) ≥ 0 2. 𝑉𝑎𝑟(𝑐) = 0 3. 𝑉𝑎𝑟(𝑐𝑥) = 𝑐 2 𝑉𝑎𝑟(𝑥) 4. 𝑉𝑎𝑟(𝑥 + 𝑐) = 𝑉𝑎𝑟(𝑥) 5. 𝑉𝑎𝑟(𝑋 + 𝑌) ≠ 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) 6. 𝑉𝑎𝑟(𝑥) = 𝐸[𝑥 2 ] − 𝐸 2 [𝑥] 7. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS ~Distribución Uniforme Discreta 𝑓(𝑥) = 𝑃(𝑥 = 𝑖) =

𝐹(𝑥) =

1 ; 𝑖 = 1,2,3, … , 𝑛 𝑛

1 ∑ 1(−∞,𝑥] 𝑛 𝑥

𝐸[𝑥] =

𝑛+1 2

𝑉𝑎𝑟[𝑥] =

𝑛2 − 1 12

~Distribución Hipergeométrica 𝑥~𝐻(𝑁, 𝑛, 𝑟) (𝑛𝑥)(𝑁−𝑛 ) 𝑟−𝑥 𝑓(𝑥) = {

(𝑁𝑟)

; 𝑐𝑢𝑎𝑛𝑑𝑜 𝑥 = 0,1,2, … , 𝑚𝑖𝑛{𝑛, 𝑟} 0

𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝐸[𝑥] =

𝑛 𝑟 𝑁

𝑉𝑎𝑟[𝑥] =

𝑛 𝑛 𝑁−𝑟 𝑟(1 − )( ) 𝑁 𝑁 𝑁−1

~Distribución de Bernoulli 𝑥~𝐵𝑒𝑟(𝑝) 𝑥 1−𝑥 𝑠𝑖 𝑥 = 0 , 1 𝑓(𝑥) = {𝑝 𝑞 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝐸[𝑥] = 𝑝 𝑉𝑎𝑟[𝑥] = 𝑝 ∙ 𝑞

~Distribución Binomial 𝑥~𝐵𝑖𝑛(𝑛, 𝑝) 𝑛 ( ) 𝑝 𝑥 𝑞𝑛−𝑥 𝑠𝑖 𝑥 = 0 , 1, 2, … 𝑛 𝑓(𝑥) = { 𝑥 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 𝐸[𝑥] = 𝑛 ∙ 𝑝 𝑉𝑎𝑟[𝑥] = 𝑛 ∙ 𝑝 ∙ 𝑞

~Distribución Geométrica 𝑥~𝐺(𝑝) 𝑥−1 𝑠𝑖 𝑥 = 1,2, … 𝑓(𝑥) = {𝑝𝑞 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

1 𝑝

𝐸[𝑥] =

𝑉𝑎𝑟[𝑥] =

𝑞 𝑝2

~Distribución Binomial Negativa 𝑥~𝐵𝑁(𝑟, 𝑝) 𝑥 − 1 𝑟 𝑥−𝑟 𝑠𝑖 𝑥 = 𝑥: 𝑟, 𝑟 + 1, 𝑟 + 2, … , 𝑟 ≥ 1 𝑓(𝑥) = {(𝑟 − 1 ) 𝑝 𝑞 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 𝐸[𝑥] =

𝑉𝑎𝑟[𝑥] =

1 𝑟 𝑝 𝑞 𝑟 𝑝2

~Distribución de Poisson 𝑥~𝑃(λ) λ𝑥 −λ 𝑒 𝑠𝑖 𝑥 = 0,1,2, … 𝑓(𝑥) = { 𝑥! 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 𝐸[𝑥] = 𝑉𝑎𝑟[𝑥] = λ

DISTRIBUCIONES CONTINUAS ~ Distribución Uniforme Continua 𝑥~𝜇[𝑎, 𝑏] 1 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏] 𝑏−𝑎 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝑓(𝑥) = {

0 𝑥−𝑎 𝐹(𝑥) = { 𝑏−𝑎 1 𝐸[𝑥] =

𝑉𝑎𝑟[𝑥] =

𝑠𝑖 𝑥 < 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 𝑠𝑖 𝑥 > 𝑏 𝑏+𝑎 2 (𝑏 − 𝑎)2 12

~Distribución Exponencial 𝑥~𝜀(λ) ; λ > 0 𝑓(𝑥) = {

0

𝐹(𝑥) = {

λ𝑒 −λx 𝑠𝑖 𝑥 ≥ 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑥 < 0) 0 1 − 𝑒 −λx 𝐸[𝑥] =

𝑠𝑖 𝑥 < 0 𝑠𝑖 𝑥 ≥ 0

1 λ

𝑉𝑎𝑟[𝑥] =

1 λ2

° Relación entre la Distribución de Poisson y la Exponencial 𝑃(𝑇 ≤ 𝑡) = 1 − (𝑃(𝑇 > 𝑡)) = 1 − 𝑃(𝑥 = 0) 𝐹𝑇 (𝑡) = 1 − 𝑒 −λx

(λx)0 0!

𝐹𝑇 (𝑡) = 1 − 𝑒 −λx

~Distribución Normal 𝑥~𝑁(𝜇, 𝜎 2 ) 𝑓(𝑥) =

1 √2𝜋 𝜎

1 𝑥−𝜇 2 ) 𝜎

𝑒 −2(

; 𝑝𝑎𝑟𝑎 𝑥 ∈ (−∞, ∞)

𝐸[𝑥] = 𝜇 𝑉𝑎𝑟[𝑥] = 𝜎 2

~Teorema Central de Límite Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias independientes, con distribuciones de media 𝜇 y varianza 𝜎 2 entonces se cumple que: 𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 Con 𝐸(𝑌) = 𝑛𝜇

𝑉𝑎𝑟(𝑌) = 𝑛𝜎 2

𝑦

Si definimos una nueva variable aleatoria Z de la siguiente manera: 𝑧=

𝑌 − 𝐸(𝑌) √𝑉𝑎𝑟(𝑦)

=

𝑌 − 𝑛𝜇 𝜎√𝑛

𝑍 ≅ 𝑁(0,1) 𝑠𝑖 𝑛 → ∞

Related Documents


More Documents from ""