Definición 2.1
El conjunto de todos los resultados posibles de un experimento (estadístico, económico, etc.) se llama espacio muestral y se suele representar por el símbolo S. Los elementos del espacio muestral son también llamados resultados elementales, o puntos muestrales. Algunos textos utilizan los símbolos Φ o ε para denotar un espacio muestral.
Definición 2.2
Un evento es un subconjunto de un espacio muestral.
Definición
El evento A está contenido en el evento B, o B contiene a A, si cada punto muestral de A es también un punto muestral de B. Siempre que esto es cierto se escribirá A⊂B ,o B⊃ A.
Definición
Dos eventos A y B son iguales, A=B, si mismos puntos muestrales.
Definición
El conjunto que no contiene elementos es llamado el conjunto vacio y denotado por para ∅ , es llamado imposible.
Definición 2.3
El complemento de un evento A con respecto a S es el subconjunto de todos los elementos de S que no está en A. Es decir, el conjunto que contiene todos los puntos muestrales que no están el evento A será llamado el complemento de A y denotado AC, se puede leer como no A, una notación alternativa para el complemento es A' o A ,
Definición 2.4
La intersección de dos eventos A y B, denotada mediante los símbolos AB o A∩B , es el evento que contiene a todos los elementos que son comunes a A y a B. La definición de intersección puede ser extendida para el caso de eventos infinitos. De esta forma:
A⊂B y B⊂ A.
Es decir, dos eventos son iguales si contienen exactamente los
∅ . El evento correspondiente
n
A1 ∩ A 2 ∩⋯∩ A n también denotado como ∩ A i i=1
Definición 2.5
Dos eventos A y B son mutuamente excluyentes o disjuntos si A∩B = Ø; es decir, si A y B no tienen elementos en común.
Definición 2.6
La unión de dos eventos A y B, que se denota mediante A∪B , es el evento que contiene todos los elementos que pertenecen a A o a B o a ambos. La definición de unión puede ser extendida para el caso de eventos infinitos. De esta forma: n
A1 ∪ A 2 ∪⋯∪ A n también denotado como ∪ A i i=1
Definición
La diferencia A\B contiene todos los puntos muestrales que pertenecen a A pero no a B. Es claro que, S\a es lo mismo que AC, algunas formulas pueden ser simplificadas introduciendo la operación diferencia de dos eventos: A\B = A∩BC.
1 DE 17
Teorema
Las operaciones definidas sobre eventos obedecen las siguientes leyes, Idempotencia Doble complemento Absorción en particular
A∪ A= A ,
A∩ A= A.
c c
A =A , A∪ B=B , si A∩B= A si A⊂B. A∪∅= A , A∪ S=S , A∩∅=∅ , A∩S= A.
esto significa que ∅⊂A⊂S.
Conmutativa
A∪ B=B∪ A ,
A∩B= B∩ A.
Asociativa
A∪ B∪C = A∪ B∪C ,
Distributiva
A∩ B∪C = A∩ B∪ A∩C ,
Leyes de Morgan
c
c 1
A∩ B∩C= A∩B∩C. c n
A1 ∪⋯∪ An = A ∩⋯∩ A ;
A∪ B∩C= A∪B ∩ A∪C . A1∩⋯∩ An c = A c1∪⋯A cn .
Definición
El producto cartesiano. Si A y B son conjuntos, entonces el producto cartesiano A x B esta definido como el conjunto de todos los pares ordenados (a,b) donde a∈ A y b∈B.
Teorema 2.1
(regla de la multiplicación o principio fundamental del conteo). Si
A1
y
A 2 son conjuntos finitos, que
consisten respectivamente de k 1 y k 2 elementos, entonces el producto cartesiano
A1 x A 2 está formado de
k 1⋅k 2 elementos. Esto es posible si una operación se puede llevar a cabo en k 1 formas, y si para cada una de éstas se puede realizar una segunda operación en k 2 formas. Teorema 2.2
Regla de la multiplicación generalizada. Se puede definir el producto cartesiano para más de dos conjuntos. De esa manera, si A1 ,... , A n son conjuntos, entonces el producto Cartesiano A1 x A 2 x⋯x A n es el conjunto de todas las ntuplas a 1 , a2 ,... , a n con a i ∈ Ai , i=1,2 ,... , n. Entonces si elementos pertenecientes a
Ai i=1,2,3 , ... ,n , entonces
A1 ,... , A n son conjuntos finitos, con k i
A1 x A 2 x⋯x A n contiene k i ⋯k n
Corolario
El número de pares ordenados (x,y) con tamaño n es n(n1).
Definición 2.7
Una permutación es un arreglo u ordenación de elementos de un conjunto.
Teorema 2.3
El número de permutaciones de n objetos distintos es n! formas, n!=n n−1 n−2⋯3⋅2⋅1 .
Teorema 2.4
El número de permutaciones de n objetos distintos tomados de r a la vez es
x≠ y que pueden ser formados de n elementos distintos en un conjunto de
n
Teorema 2.5
elementos.
P r=
n! . n−r !
El número de permutaciones de n objetos distintos arreglados en un círculo es n−1!.
2 DE 17
Teorema 2.6
El número de permutaciones distintas de n cosas de las que n1 son de una clase, n 2 de una segunda clase, ..., n! . n k de una késima clase es n1! n 2 ! n3 !⋯n k !
Teorema 2.7
El número de formas de partir un conjunto de n objetos en r celdas con n1 elementos en a primera celda, n 2 elementos en la segunda, y así sucesivamente, es
n! n = . n1 ,n 2 ,... , nr n 1 ! n 2!⋯nr !
donde n 1 n2 ⋯ nr =n. Teorema 2.8
El número de combinaciones (formas de seleccionar objetos sin importar el orden) de n objetos distintos tomados de r a la vez es
Definición 2.8
n! n = . r n−r ! r!
La probabilidad de un evento A es la suma de los pesos1 de todos los puntos muestrales en A. Se observa que, 0P A1,
Teorema 2.9
P ∅=0,
P S=1.
Si un experimento puede tener como resultado cualquiera de N diferentes resultados igualmente probables, y si exactamente n de estos resultados corresponden al evento A, entonces la probabilidad del evento A es P A=
Teorema 2.10
y
n N
Si A y B son cualesquiera dos eventos , entonces P A∪ B= P AP B−P A∩B
Corolario 1
Si A y B son mutuamente excluyentes, entonces P A∪ B= P AP B
Corolario 2
Si
A1 , A 2 ,... , An
son mutuamente excluyentes, entonces P A1 ∪ A2 ∪⋯∪ A n =P A1 P A2 ⋯ P An
Corolario 3
1
Si
A1 , A 2 ,... , An
es una partición de un espacio muestral S, entonces
El peso (o probabilidad) es un número real en el intervalo [0,1], que evalúa la ocurrencia probabilística de un evento.
3 DE 17
P A1 ∪ A2 ∪⋯∪ A n = P A1 P A2 ⋯ P A n =P S =1 Teorema 2.11
Para tres eventos A, B y C,
Teorema 2.12
Si A y A' son eventos complementarios, entonces
Definición 2.9
La probabilidad condicional de B, dado A, que se denota con
P A∪ B∪C=P A P B PC −P A∩B− P A∩C − P B∩C P A∩B∩C .
P B∣A=
P A P A' =1. P B∣A , se define como
P A∩ B
si P A0
P A
Definición 2.10 Dos eventos A y B son independientes si y sólo si P B∣A=P B
y
P A∣B=P A
De otra forma, A y B son dependientes. Teorema 2.13
Si en un experimento pueden ocurrir los eventos A y B, entonces P A∩ B= P A P B∣ A
Teorema 2.14
Dos eventos A y B son independientes si y sólo si
Teorema 2.15
P A∩ B=P A PB Si, en un experimento, pueden ocurrir los eventos A1 , A 2 ,... , A k , entonces P A1 ∩ A2 ∩ A 3∩⋯∩ Ak =P A 1 P A 2∣ A 1 P A 3∣ A 1 ∩ A2 ⋯P A k∣ A 1 ∩ A2 ∩ A3 ∩⋯∩ A k −1
Si los eventos
A1 , A 2 ,... , Ak son independientes, entonces P A1 ∩ A2 ∩ A 3∩⋯∩ Ak =P A 1 P A 2 P A 3 ⋯P A k
Teorema 2.16
Si los eventos
B1 , B2 ,... , B k constituyen una partición del espacio muestral S tal que
P B i ≠ 0 para
i=1,2 ,... , k , entonces para cualquier evento A de S, k
k
P A= ∑ P B i ∩ A= ∑ P Bi P A∣Bi i=1
Teorema 2.17
i=1
(Regla de Bayes) Si los eventos B1 , B2 ,... , B k constituyen una partición del espacio muestral S donde para i = 1,2,3,...,k, entonces para cualquier evento A en S tal que P A≠ 0 , P B r∣ A=
P B r∩ A k
=
P B r P A∣B r k
∑ P Bi ∩ A ∑ P B i P A∣B i i= 1
Definición 3.1
para r = 1,2, ...,k.
i=1
Una variable aleatoria es una función que asocia un número real con cada elemento del espacio muestral.
4 DE 17
P B i≠0
Definición 3.2
Si un espacio muestral contiene un número finito de posibilidades o una serie interminable con tantos elementos como números enteros existen, se llama espacio muestral discreto.
Definición 3.3
Si un espacio muestral contiene un número infinito de posibilidades igual al número de puntos en un segmento de línea, se llama espacio muestral continuo.
Definición
Una variable aleatoria se llama variable aleatoria discreta si se puede contar su conjunto de resultados posibles. Cuando una variable aleatoria puede tomar valores en una escala continua, se le denomina variable aleatoria continua.
Definición 3.4
El conjunto de pares ordenados x , f x es una función de probabilidad, función masa de probabilidad o distribución de probabilidad de la variable aleatoria discreta X si , para cada resultado posible x,
Definición 3.5
1)
f x≥0.
2)
∑ f x =1.
3)
P X = x= f x .
La distribución acumulada
x
F x de una variable aleatoria discreta X con distribución de probabilidad F x= P X ≤ x= ∑ f t
f x es
para −∞ x∞
t≤ x
Definición 3.6
La función f x es una función de densidad de probabilidad para la variable aleatoria continua X, definida en el conjunto de números reales R, si 1)
f x≥0,
2)
∫ f x dx=1.
para toda x ∈ ℝ
∞
−∞ b
3)
P aX b=∫ f x dx. a
Definición 3.7
La distribución acumulada
F x de una variable aleatoria continua X con función de densidad
f x
es
x
F x= P X ≤ x= ∫ f t dt
para −∞x∞ .
−∞
Definición 3.8
La función f x , y es una distribución de probabilidad conjunta o función de masa de probabilidad de las variables aleatorias discretas X y Y si 1)
f x , y≥0
2)
∑ ∑ f x , y=1.
3)
P X = x ,Y = y= f x , y .
x
para todo x , y.
y
5 DE 17
P [ X ,Y ∈ A ] =∑ A ∑ f x , y .
Para cualquier región A en el plano xy, Definición 3.9
La función
f x , y es una función de densidad conjunta de las variables aleatorias continuas X y Y si 1)
f x , y≥0
2)
∫∫
∞
para toda x , y .
∞
f x , y dxdy=1.
−∞ −∞
3)
P [ X ,Y ∈ A ] =∫
A
∫ f x , y dxdy
para cualquier región A en el plano xy. Definición 3.10 Las distribuciones marginales de X sola y Y sola son g x= ∑ f x , y
h y= ∑ f x , y
y
y
x
para el caso discreto, y ∞
∞
g x= ∫ f x , y dy
h y= ∫ f x , y dx
y
−∞
−∞
para el caso continuo. Definición 3.11 Sean X y Y dos variables aleatorias, discretas o continuas. La distribución condicional de la variable aleatoria Y, dado que X=x, es f y∣x=
f x , y g x
,
g x 0.
De manera similar, la distribución condicional de la variable aleatoria X, dado que Y = y, es f x∣y=
f x , y h x
,
h y0.
Definición 3.12 Sean X y Y dos variables aleatorias, discretas o continuas, con distribución de probabilidad conjunta f(x,y) y distribuciones marginales g(x) y h(y), respectivamente. Se dice que las variables aleatorias X y Y son estadísticamente independientes si y sólo si f x , y=g x h y para toda (x,y) dentro de sus rangos. Definición 4.1
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de X es = E X =∑ x f x x
si X es discreta, y ∞
= E X =∫ x f x dx −∞
6 DE 17
si X es continua. Teorema 4.1
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de la variable aleatoria g(x) es g X = E [ g X ]= ∑ g x f x si X es discreta, y ∞
g X = E [ g X ]= ∫ g x f x dx −∞
si X es continua.
Definición 4.2
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria g(X,Y) es gX ,Y =E [ g X ,Y ] = ∑ ∑ g x , y f x , y x
y
si X y Y son discretas, y ∞
∞
gX ,Y =E [ g X ,Y ] = ∫
∫ g x , y f x , y dxdy
−∞ −∞
si X y Y son continuas. Definición 4.3
Sea X una variable aleatoria con distribución de probabilidad f(x) y media μ . La varianza de X es 2 =E [ X−2 ] =∑ x−2 f x x
si X es discreta, y ∞
2 =E [ X −2 ]= ∫ x−2 f x dx −∞
Si X es continua. La raíz cuadrada positiva de la varianza, σ, se llama desviación estándar de X. Teorema 4.2
La varianza de una variable aleatoria X es 2 =E [ X 2 ] −2.
Teorema 4.3
Sea X una variable aleatoria con distribución de probabilidad f(x). La varianza de la variable aleatoria g(X), es 2
2g X =E [ g X − g X 2 ] =∑ [ g x−g x ] f x x
si X es discreta, y 2g x = E
∞
{ [ g X − ] } =∫ [ g x− ] 2
g X
g x
−∞
7 DE 1 7
2
f x dx
si X es continua. Definición 4.4
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La covarianza de X y Y es
[
]
XY =E X− X Y −Y = ∑ ∑ x− X y−Y f x , y x
y
si X y Y son discretas, y
[
]
∞
XY =E X− X Y −Y = ∫
∞
∫ x− X y− Y f x , ydxdy
−∞ −∞
Si X y Y son continuas.
8 DE 17
Teorema 4.4
La covarianza de dos variables aleatorias X y Y con media X y Y , respectivamente, está dada por XY = E [ XY ] − X Y
Definición 4.5
Sean X y Y variables aleatorias con varianza XY y desviaciones estándar X y Y , respectivamente. El coeficiente de correlación X y Y es XY =
XY X Y
Teorema 4.5
Si a y b son constantes, entonces
Corolario 1
Al hacer a = 0 , vemos que E(b)= b.
Corolario 2
Al hacer b = 0, vemos que E(aX)= aE(X).
Teorema 4.6
El valor esperado de la suma o diferencia de dos o más funciones de una variable aleatoria X es la suma o diferencia de los valores esperados de las funciones. Es decir,
E aX b=aE X b.
E [ g X ±h X ] =E [ g X ] ±E [ h X ] Teorema 4.7
El valor esperado de la suma o diferencia de dos o más funciones de las variables aleatorias X y Y es la suma o diferencia de los valores esperados de las funciones. Es decir, E [ g X , Y ±h X ,Y ]= E [ g X ,Y ]± E [ h X ,Y ]
Corolario 3
Al hacer
g X ,Y = g X y h X ,Y =h Y , vemos que E [ g X ±h Y ] = E [ g X ] ±E [ hY ]
Corolario 4
Al hacer
g X ,Y = X y h X ,Y =Y , vemos que E X ±Y =E X ±E Y
Teorema 4.8
Sean X y Y dos variables aleatorias independientes. Entonces E XY =E X E Y
Teorema 4.9
2 2 2 2 2 Si a y b son constantes, entonces aX b =a X =a .
Corolario 1
2 2 2 Al hacer a = 1 vemos que Xb = X = .
Corolario 2
2 2 2 2 2 Al hacer b = 0, se observa que aX= a X =a .
Teorema 4.10
Si X y Y son variables aleatorias con distribución de probabilidad conjunta
9 DE 17
f x , y , entonces
2aX bY =a2 2X b2 2Y 2 ab XY
10 DE 17
Corolario 1
Si X y Y son variables aleatorias independientes, entonces 2aX bY =a2 2X b2 2Y
Corolario 2
Si X y Y son variables aleatorias independientes, entonces 2aX −bY =a2 2X b2 2Y
Corolario 3
Si
X 1 , X 2 ,... , X n
son variables aleatorias independientes, entonces
2a Teorema 4.11
1
X 1 a2 X 2⋯a n X n
=a 21 2X a22 2X ⋯a 2n 2X 1
2
(Teorema de Chebyshev) La probabilidad de que cualquier variable aleatoria X tome un valor dentro de K desviaciones estándar de la media es al menos 1 –
1 k2
. Es decir,
P – k X k ≥1− Definición 5.1
1 k
f x ;k son
k
k
= i=1 k
∑ x i−2
2 = i =1
y
x= 0,1 ,2 , ... , n
La media y la varianza de la distribución binomial b(x;n,p) son =np
Definición 5.3
k
Distribución binomial Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un fracaso con probabilidad q=1− p . Entonces la distribución de probabilidad de la variable aleatoria binomial X, el número de éxitos en n pruebas independientes, es b x ; n , p= n p x qn− x x
Teorema 5.2
x 1 , x 2 ,... , x k , con idénticas
x= x1 , x 2 ,... , x k
La media y la varianza de la distribución uniforme discreta
∑ xi
Definición 5.2
1 k2
Distribución uniforme discreta Si la variable aleatoria X toma los valores probabilidades, entonces la distribución uniforme discreta ésta dada por f x ;k =
Teorema 5.1
n
2
y
=npq
Distribución multinomial Si una prueba dada puede conducir a los k resultados
E 1 , E 2 ,... , E k con probabilidades
p 1 , p2 ,... , pk , entonces la distribución de probabilidad de las variables aleatorias representan el número de ocurrencias para E 1 , E 2 ,... , E k en n pruebas independientes es
f x1 , x 2 ,... , x k ; p1 , p2 ,... , pk ,n= con
11 DE 17
n p x p x ⋯ p xk x 1 , x 2 , ..., x k 1 2 1
2
k
X 1 , X 2 ,... , X k ,
que
k
k
∑ xi =n
∑ pi=1
y
i=1
Definición 5.3
i=1
Distribución hipergeométrica La distribución de probabilidad de la variable aleatoria hipergeométrica X, el número de éxitos en una muestra aleatoria de tamaño n que se selecciona de N artículos de los que k se denominan éxito y Nk fracaso, es k N−k x n−x h x ; N ,n , k= Nn
Teorema 5.3
La media y la varianza de la distribución hipergeométrica h(x;N,n,k) son =
Definición 5.4
x=0,1,2... , n
nk N
2 =
y
N−n k k ⋅n⋅ 1– N−1 N N
Distribución hipergeométrica multivariada Si N artículos se pueden dividir en k celdas A1 , A 2 ,... , Ak con a1 ,a 2 ,... ,a k elementos, respectivamente, entonces la distribución de probabilidad de las variables aleatorias X 1 , X 2 ,... , X k , que representan el número de elementos que se seleccionan de A1 , A 2 ,... , Ak en una muestra aleatoria de tamaño n, es
a1 a2
f x 1 , x 2 , ... , x k ; a1 ,a 2 ,... ,a k , N , n=
x1 x2
⋯
ak xk
N n
con k
∑ xi =n
k
∑ ai =N
y
i=1
Definición 5.5
i=1
Distribución binomial negativa Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p y un fracaso con probabilidad q=1− p , entonces la distribución de probabilidad de la variable aleatoria X, el número de la prueba en la que ocurre el késimo éxito, es
b ∗ x ; k , p= x−1 pk qx −k k −1 Definición
Distribución geométrica Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p y un fracaso con probabilidad q=1− p , entonces la distribución de probabilidad de la variable aleatoria X, el número de la prueba en el que ocurre el primer éxito, es g x ; p= pqx −1
Teorema 5.4
x=k ,k 1,k 2,...
x=1,2,3,. ..
La media y la varianza de una variable aleatoria que sigue la distribución geométrica son =
1 p
12 DE 17
2=
1− p p2
13 DE 17
Definición 5.6
Distribución de Poisson La distribución de probabilidad de la variable aleatoria de Poisson X, que representa el número de resultados que ocurren en un intervalo dado o región específica que se denota con t, es p x ; t =
e− t t x
x= 0,1 ,2 , ...
x!
donde es el número promedio de resultados por unidad de tiempo o región. Teorema 5.5
La media y la varianza de la distribución de Poisson
Teorema 5.6
Sea
p x ; t tiene el valor t
X una variable aleatoria binomial con distribución de probabilidad n ∞ , p 0 y =np permanece constante,
b x ; n , p . Cuando
bx ; n , p p x ; Definición
Distribución Uniforme La función de densidad de la variable aleatoria uniforme continua X en el intervalo [A,B] es
{
1 f x ; A , B= B− A 0 Teorema 6.1
en cualquier otro caso
}
La media y la varianza de la distribución uniforme son =
Definición
A≤ x≤B
AB 2
2=
y
B− A2 12
Distribución normal La función de densidad de la variable aleatoria normal X, con media y varianza 2 es − 1 2 n x ; ,= e 2 1
[
x−
]
2
−∞x∞
Definición 6.1
La distribución de una variable aleatoria normal con media cero y varianza 1 se llama Distribución normal estándar
Teorema 6.2
Si X es una variable aleatoria binomial con media =np y varianza 2=npq , entonces la forma limitante de la distribución de Z= conforme n ∞ ,
Definición 6.2
X− np
npq
es la distribución normal estándar n z ; 0,1 .
La función gamma se define como ∞
=∫ x−1 e−x dx
para 0
0
se enuncian algunas propiedades: =−1 −1 n= n−1! 12 =
14 DE 17
1
15 DE 17
Definición 6.3
Distribución Gamma La variable aleatoria continua X tiene una distribución gamma, con parámetros α y β, si su función de densidad está dada por
{
1 x −1 e− x/ f x= 0,
{
cuando
cualquier otro caso
2
y
=
y
2 =2
Distribución ji cuadrada La variable aleatoria continua X tiene una distribución ji cuadrada, con v grados de libertad, si su función de densidad está dada por
{
v
en cualquier otro caso
}
y
2v
Distribución logarítmica normal La variable aleatoria continua X tiene una distribución logarítmica normal si la variable aleatoria Y = ln(X) tiene una distribución normal con media μ y desviación estándar σ. La función de densidad de X que resulta es f x=
Corolario
x0
La media y la varianza de la distribución ji cuadrada son =v
Definición 6.6
2
La media y la varianza de la distribución exponencial son
−1 1 2 e−x /2 f x= 2v / 2 v /2 x 0 donde v es un enteropositivo .
Corolario
}
La media y la varianza de la distribución gamma son
= Definición 6.5
x0
0.
=
Teorema 6.4
}
Distribución exponencial La variable aleatoria continua X tiene una distribución exponencial, con parámetro β, si su función de densidad está dada por 1 −x / e f x= 0
Teorema 6.3
en cualquier otrocaso
0 y 0 .
cuando
Definición 6.4
x0
{
2 2 1 e− ln x− /2 2 x 0
x0
}
2
2
x≥0
La media y varianza de la distribución logarítmica normal son 2
E X =e
2
y
16 DE 17
Var X =e2 ⋅e −1
Definición
Distribución de Weibull La variable aleatoria continua X tienen una distribución de Weibull, con parámetros α y β si su función de densidad está dada por
{
−1 − x x0 f x= x e 0 cualquier otrocaso donde 0 y 0
}
Teorema 6.4 La media y la varianza de la distribución Weibull son −1 /
=
1
1
2
−2/
=
{ [ ] } 1
2 1 − 1
2
POKER Una baraja de poker consiste en 52 cartas arregladas en 4 palos de trece cartas cada uno. Hay trece valores nominales (2,3,4,5,6,7,8,9,10,sota,reina,rey,as) en cada palo. Los cuatro palos se llaman tréboles, espadas,corazones y diamantes. Los dos últimos son rojos y los primeros son negros. A las cartas que tienen el mismo valor nominal se les llama de la misma clase. Por definición poker significa seleccionar 5 cartas de la baraja.
17 DE 17