Mapa Copcentual Analisis Organizacional

  • Uploaded by: Ana Rincon
  • 0
  • 0
  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Mapa Copcentual Analisis Organizacional as PDF for free.

More details

  • Words: 1,420
  • Pages: 2
MAPA CONCEPTUAL ESTADISTICA INFERENCIAL

ANA ERIKA RINCON BALLEN 590937

Tutor: MILLER ALEXANDER CASTILLEJO BELTRAN NRC4398

UNIVERSIDAD MINUTO DE DIOS UVD FACULTAD DE CIENCIAS EMPRESARIALES ADMINISTRACION FINANCIERA BOGOTA D.C 2018-3

ESTIMACION ESTADISTICA

Estimación (o estimar) es el proceso de encontrar una aproximación sobre una medida, lo que se ha de valorar con algún propósito es utilizable incluso si los datos de entrada pueden estar incompletos, incierto, o inestables. En el ámbito de la estadística estimación implica ” usar el valor de una estadística derivada de una muestra para estimar el valor de un parámetro correspondiente a población”; la muestra establece que la información puede ser proyectada a través de diversos factores, formal o informalmente, son procesos para determinar una gama muy probablemente y descubrir la información que falta

ESTIMACION PUNTUAL El objetivo de la estimación puntual es usar una muestra para obtener números que, en algún sentido, sean los que mejor representan a los verdaderos valores de los parámetros de interés. Supongamos que se selecciona una muestra de tamaño n de una población. Antes de obtener la muestra no sabemos cuál será el valor de cada observación. Así, la primera observación puede ser considerada una v.a. X1, la segunda una v.a. X2, etc. Por lo tanto, antes de obtener la muestra denotaremos X1, X2, Xn a las observaciones y, una vez obtenida la muestra, denotaremos x1, x2,., xn a los valores observados.

TIPOS ESTIMACION ESTADISTICA Criterios de selección del estimador

Algunas estadísticas son mejores estimadores que otras. Afortunadamente, podemos evaluar la calidad de una estadística como estimador mediante el uso de cuatro criterios

ESTIMACION POR INTERVALOS

Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables

PRINCIPALES ESTIMADORES PUNTUALES

ESTIMADOR DEL PARÁMETRO p DE UNA DISTRIBUCIÓN BINOMIAL B(n,p) Consideremos un experimento aleatorio cuyos resultados son dos sucesos A, A, mutuamente excluyentes, de probabilidades p y q=1-p, respectivamente. Sabemos que la variable aleatoria ligada a un experimento con las características anteriores sigue una distribución Binomial B(n,p); pues bien, como estimador puntual de p, que llamaremos ˆ p , tomaremos la frecuencia relativa del suceso A, al realizar n pruebas, es decir: p = (nº de veces que ocurre A)/(nº de pruebas). Este estimador es eficiente, pues la distribución de ˆ p tiene de media p, y su varianza, que vale pq n es mínima; además, para un tamaño de muestra n suficientemente grande, ˆ p se distribuye según una distribución Normal

ESTIMADOR DEL PARÁMETRO λ DE UNA DISTRIBUCIÓN DE POISSON P(λ) Consideremos una determinada población en la cual estudiamos una característica que sigue una distribución de Poisson P(λ), y sea x1, ... , xn una muestra genérica aleatoria de dicha población; en estas condiciones se verifica que un buen estimador de λ es la media muestral ˆ ! = xi n i=1 n " . El estimador ˆ ! es insesgado ya que su distribución en el muestreo tiene de media λ, y como su varianza es mínima, resulta ser un estimador eficiente; además, para n suficientemente grande, ˆ ! sigue una distribución Normal N !, ! n "

ESTIMACIÓN DE LOS PARÁMETROS µ Y σ DE UNA DISTRIBUCIÓN NORMAL N(µ,σ) Consideremos una población en la que estudiamos una determinada característica que se distribuye según una distribución Normal N(µ,σ), y sea x1, ... , xn una muestra tomada al azar de dicha población. En estas condiciones se verifica que un estimador eficiente de µ es µˆ = xi n i=1 n ! = x (media muestral); además, puesto que la cuasi-varianza muestral: !ˆ 2 = (xi " x ) 2 i=1 n "1 n # = s 2 es un buen estimador de ! 2 como estimador de σ tomaremos !ˆ = s (cuasi-desviación típica muestral). Tanto µˆ como !ˆ 2 son estimadores eficientes, verificándose además, que µˆ sigue una distribución N µ, ! n " # $ % y que (n !1)s 2 " 2 sigue una distribución ! 2 con n-1 grados de libertad.

Ausencia de sesgo. Se dice que un estimador es insesgado (o centrado) si la esperanza del estimador coincide con el parámetro a estimar. E( ˆ !) = ! . ¡En caso contrario se dice que es sesgado y a la cantidad b(!) = [! " E( ˆ !)] se la denomina sesgo. La propiedad es importante ya que los posibles valores del estimador fluctúan alrededor del verdadero parámetro. Por ejemplo, si utilizamos la media muestral como estimador 233 de la media poblacional en una distribución normal, se trata de un estimador insesgado ya que la esperanza de su distribución muestral es la media poblacional µ

Consistencia: Se dice que un estimador ˆ ! es consistente si se aproxima cada vez más al verdadero valor del parámetro a medida que se aumenta el tamaño muestral. Más formalmente, un estimador es consistente si Pr ˆ $ ! " ! > # % & ' ( 0 cuando n ! " , para ! > 0 . o dicho de otra forma la distribución del estimador se concentra más alrededor del verdadero parámetro cuando el tamaño muestral aumenta. La media muestral es un estimador consistente de la media poblacional en una distribución normal, ya que, la varianza de la misma !2 n tiende a cero para n ! " , de forma que la distribución se concentra alrededor del verdadero valor µ cuando n crece

Eficiencia: Es claro que un estimador será tanto mejor cuanto menor sea su varianza, ya que se concentra más alrededor del verdadero valor del parámetro. Se dice que un estimador insesgado es eficiente si tiene varianza mínima. Una cota inferior para la varianza viene dada por la denominada cota de Cramer-Rao. Sea X1, X2, ... , Xn. una muestra aleatoria simple de una distribución con densidad f(x; θ). S

Suficiencia. Un estimador es suficiente si utiliza una cantidad de la información contenida en la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población que se está estimando

PRINCIPALES ESTIMADORES POR INTERVALOS INTERVALO DE CONFIANZA PARA LA MEDIA µ DE UNA DISTRIBUCIÓN NORMAL DE VARIANZA CONOCIDA Sea X una variable aleatoria que sigue una distribución Normal N(µ,σ) de la que conocemos la varianza pero desconocemos la media µ. Por lo visto anteriormente, podemos estimar µ a partir de la media muestral x , que como sabemos es una variable aleatoria (depende de cada muestra) que, para n suficientemente grande, sigue una distribución Normal N µ, ! n " # $ % independientemente de cómo se distribuya la población de partida. Sabemos también que la variable aleatoria tipificada Z = x ! µ " n sigue una distribución N(0,1).

INTERVALO DE CONFIANZA PARA LA MEDIA µ DE UNA POBLACIÓN NORMAL DE VARIANZA DESCONOCIDA En el caso anterior hemos supuesto conocida la varianza población, cosa que no suele ser frecuente, toda vez que en su cálculo interviene µ, y ésta es desconocida (¡por eso se desea estimar!). En el caso de desconocer ! 2 , lo lógico será sustituirla en el razonamiento anterior por su estimador ˆ s 2 (cuasi-varianza muestral), de tal modo que el estadígrafo que usaremos para determinar el intervalo de confianza será x ! µ ˆ s n !1 , estadígrafo que, como variable aleatoria que es, para muestras pequeñas sigue una distribución t de Student con n-1 grados de libertad (siendo n = tamaño de la muestra ).

INTERVALO DE CONFIANZA PARA EL PARÁMETRO P DE UNA DISTRIBUCIÓN BINOMIAL B(N,P) Dada una variable aleatoria X que sigue una distribución Binomial B(n,p), trataremos en este apartado de determinar un intervalo de confianza para p. Como sabemos, en el caso de tamaños de muestras grandes, la distribución Binomial B(n,p) se aproxima a una Normal N(np, npq ). Como estimador puntual de p tomaremos ˆ p = f n, siendo f el número de veces en las que se obtiene el éxito en n pruebas, y como estimador de q tomaremos q ˆ =1 ! f n .

INTERVALO DE CONFIANZA PARA EL PARÁMETRO P DE UNA DISTRIBUCIÓN HIPERGEOMÉTRICA H(N,N,P) Dada una variable aleatoria X que sigue una distribución Hipergeométrica H(N,n,p), sabemos que se puede obtener una aproximación mediante el modelo Normal:

Related Documents

Organizacional
October 2019 37
Organizacional
May 2020 23
Mapa
May 2020 43
Mapa
November 2019 71

More Documents from ""