ESCUELA SUPERIOR POLITÉCNICA DE CHIMBORAZO FACULTAD DE MECÁNICA CARRERA DE INGENIERÍA INDUSTRIAL
DISEÑO EXPERIMENTAL TAREA #1 PRIMER PARCIAL SUPUESTOS Y PRINCIPIOS
NOMBRE Y CÓDIGO: SOLEDAD MEZA
2047
SEMESTRE: NOVENO “1” DOCENTE: ING. IVÁN ACOSTA FECHA DE ENTREGA: 2019/03/26
SUPUESTOS Y PRINCIPIOS DEL DISEÑO EXPERIMENTAL I.
INTRODUCCIÓN
El Diseño de Experimentos tuvo su inicio teórico a partir de 1935 por Sir Ronald A. Fisher, quién sentó la base de la teoría del Diseño Experimental, Su uso en las aplicaciones son múltiples- La experimentación proporciona los datos experimentales, en contraste con los datos que generaría sin la inclusión de un factor perturbador caracterizado por un tratamiento. Los datos obtenidos son las realizaciones obtenidas en las unidades elementales. Estos no deben ser cambiados ni modificados por el investigador en el curso de la experimentación. El diseño de experimento identifica el planear un experimento para obtener la información requerida sobre un problema de interés para tomar decisiones estadísticamente correctas. El diseño del experimento es una etapa fundamental de la experimentación, que permite obtener datos que pueden ser procesados a posteriori, para hacer deducciones estadísticamente válidas sobre el problema estudiado. El enfoque estadístico del diseño experimental permite el uso de métodos que permiten obtener la mayor cantidad de información válida acerca de una investigación, teniendo en cuenta el factor costo garantizando un pequeño error experimental. II.
HIPÓTESIS DE LOS MODELOS ESTADÍSTICOS
Los supuestos de cada modelo estadístico son: a. Aditividad: Los factores o componentes del modelo estadístico son aditivos, es decir la Variable respuesta es la suma de los efectos del modelo estadístico. b. Linealidad: La relación existente entre los factores o componentes del modelo estadístico es de tipo lineal. c. Normalidad: Los valores resultados del experimento provienen de una distribución de Probabilidad Normal con media y variancia . d. Independencia: Los resultados observados de un experimento son independientes entre sí. e. Variancias Homogéneas (Homocedasticidad): Las diversas poblaciones generadas por la aplicación de los tratamientos tienen variancias homogéneas (variancia común). Tomando en cuenta como se hace la selección de los tratamientos y otros factores se tienen que los modelos se pueden clasificar como sigue: Modelo I (Efectos Fijos): los tratamientos y demás factores que intervienen en un experimento son fijados por el investigador. En ellos las conclusiones derivadas del análisis de varianza solamente son válidas para los tratamientos y otros factores usados en el experimento. . Modelo II (Efectos aleatorios): los tratamientos y demás factores que intervienen en un experimento son elegidos al azar de una población. En estos casos las conclusiones del análisis de varianza son válidas, tanto para los tratamientos y demás factores usados, así como para todas las poblaciones de tratamientos y factores. Modelo III (Modelo Mixto): este es la combinación de los dos anteriores y se presenta cuando algunos factores son fijados y otros son elegidos al azar. En estos casos las conclusiones del análisis de variancia serán válidas para toda la población de factores
cuando estos son elegidos al azar, y solamente para los factores usados cuando estos son fijados. III.
VALIDACIÓN DE LOS SUPUESTOS DEL MODELO
Suposición de Aditividad La Prueba recomendada para investigar la falta de aditividad del modelo es la Prueba de aditividad de Tukey, que desafortunademente no está disponible en este software. Suposición de Independencia Para verificar este supuesto graficar los residuos contra el orden del tiempo en el que se recopilaron los datos es útil para detectar alguna correlación entre ellos. Una tendencia a tener secuencias con residuos positivos y negativos indica la falta de independencia. (Ver gráfico 1). Dentro de los test que pueden usarse para determinar si una secuencia ordenada de observaciones es aleatoria (independiente) se dispone de los contrastes de rachas y auto correlación. Suposición de Homogeneidad de varianzas (Homocedasticidad)
Residuos contra el orden del tiempo Residuos contra los valores estimados Las medias con las varianzas o con los desvíos estándar Residuos contra los niveles de los factores Dentro de las pruebas empleadas para contrastar la Homogeneidad de Varianzas se encuentran el test de Bartlett, el test de Cochran, el test de Hartley, el test de Levene, entre otras
Suposición de Normalidad
Histograma de los residuos Probabilidad normal acumulada de los residuos Quantile – Quantile Plot Normal (Q-Q plot normal) También existen una serie de pruebas para contrastar la Normalidad de los datos. El Test de Chi-Cuadrado, test W de Shapiro-Wilks, Kolmogorov-Smirnov, son algunas de las pruebas de las que se dispone para verificar el cumplimiento de este supuesto.
S1.- Los efectos de tratamientos y bloques son aditivos y las respuestas dentro de los bloques tienen la misma tendencia con respecto a los efectos de los tratamientos. S2.- Las observaciones en las bt=n celdas son muestras aleatorias de tamaño 1 de cada una de las posibles n poblaciones S3.-Todas las poblaciones son normalmente distribuidas. S4.-Las varianzas de cada una de las poblaciones son iguales (homocedasticidad)
IV.
PRINCIPIOS BÁSICOS DEL DISEÑO EXPERIMENTAL
Los principios básicos del diseño experimental son: repetición, aleatorización, y control local. Repetición: es la reproducción o réplica del experimento básico (asignación de un tratamiento a una unidad experimental). Estas se usan para obtener una estimación del error experimental. A mayor número de repeticiones le corresponde estimaciones más precisas del tratamiento en estudio. Aleatorización: La aleatorización mide y reduce el error. Consiste en la asignación al azar de los tratamientos en estudio a las unidades experimentales para garantizar la no presencia de sesgo. Esta soporta la validez de los métodos de inferencia y las pruebas estadísticas. En los diseños experimentales la aleatorización es como se distribuyen los sujetos en los diferentes grupos que forman parte del estudio. El primer ensayo clínico aleatorizado se efectuó en 1.947 por Sir Austin Bradford Hill y lo llevó a cabo sobre el efecto de la Estreptomicina en la Tuberculosis, es el primer estudio realizado con un diseño experimental, hasta ese momento el diseño se realizaba era el “estudio de casos”, estudios observacionales simples. Ejemplo: para un estudio de la incidencia de tuberculosis se fijarían grupos de personas que con características similares como estructura de edad, idéntica proporción de género y raza. , posteriormente se procedería a la comparación del efecto de los distintos sueros citostáticos en cada uno de los grupos. Control o Control del error Experimental: Consiste en tomar medidas dentro del diseño experimental que le hagan más eficiente y confiable controlando todas la posibles fuentes externas de error y así hacer las pruebas más sensibles a cualquier prueba de significación. De acuerdo a la selección de los tratamientos se tiene la siguiente clasificación: Modelos de Efectos Fijos. Se presenta cuando los niveles de los factores (y con esto, los tratamientos) que intervienen en un experimento son todos los posibles para el factor o de antemano son fijados por el investigador como los únicos sobres los que se realizará la inferencia; es decir, no se efectúa una elección aleatoria. En estos casos las conclusiones del análisis de variancia solamente son válidas para los tratamientos usados en el experimento. Modelos de Efectos aleatorios Se presenta cuando los niveles de los factores que intervienen en un experimento son elegidos al azar de una población de posibles niveles. En estos casos las conclusiones del análisis son válidas de más ampliamente, tanto para los niveles incluidos en el estudio como para los demás no usados. Modelos de Efectos Mixtos Se presenta cuando se incluyen en el estudio factores con efectos fijos y otros con efectos aleatorios.
V. CONCLUSIONES En este trabajo podemos darnos cuenta de la importancia del diseño de experimentos, o dicho de otra manera, el planear paso a paso las operaciones para así obtener un resultado satisfactorio a nuestro problema planteado. Aleatorizar los factores no controlados Transforma la variabilidad sistemática no planificada en variabilidad no planificada o ruido aleatorio. Dicho de otra forma, aleatorizar previene contra la introducción de sesgos en el experimento. A diferencia de lo que ocurre con los factores tratamiento, el experimentador no está interesado en investigar las posibles diferencias de la respuesta entre los niveles de los factores bloque. Los dos primeros (aleatorizar y bloquear) son estrategias eficientes para asignar los tratamientos a las unidades experimentales sin preocuparse de qué tratamientos considerar. La factorización del diseño define una estrategia eficiente para elegir los tratamientos sin considerar en absoluto como asignarlos después a las unidades experimentales.
VI. 1. 2. 3. 4. 5. 6.
BIBLIOGRAFÍA KEMPTHORNE O. The Design and Analysis of Experiments. John Wiley and Sons. , New York, 1952, p.10 BICKING A. C. Some Uses of statistics en the Planning of Experiments. OSTLE B. Estadística Aplicada. COX D. R. Planning of Experiments. John Wiley and Sons, Inc. New York,
1978