Tarea #1 Primer Parcial.docx

  • Uploaded by: SoleMeza
  • 0
  • 0
  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Tarea #1 Primer Parcial.docx as PDF for free.

More details

  • Words: 1,444
  • Pages: 5
ESCUELA SUPERIOR POLITÉCNICA DE CHIMBORAZO FACULTAD DE MECÁNICA CARRERA DE INGENIERÍA INDUSTRIAL

DISEÑO EXPERIMENTAL TAREA #1 PRIMER PARCIAL SUPUESTOS Y PRINCIPIOS

NOMBRE Y CÓDIGO: SOLEDAD MEZA

2047

SEMESTRE: NOVENO “1” DOCENTE: ING. IVÁN ACOSTA FECHA DE ENTREGA: 2019/03/26

SUPUESTOS Y PRINCIPIOS DEL DISEÑO EXPERIMENTAL I.

INTRODUCCIÓN

El Diseño de Experimentos tuvo su inicio teórico a partir de 1935 por Sir Ronald A. Fisher, quién sentó la base de la teoría del Diseño Experimental, Su uso en las aplicaciones son múltiples- La experimentación proporciona los datos experimentales, en contraste con los datos que generaría sin la inclusión de un factor perturbador caracterizado por un tratamiento. Los datos obtenidos son las realizaciones obtenidas en las unidades elementales. Estos no deben ser cambiados ni modificados por el investigador en el curso de la experimentación. El diseño de experimento identifica el planear un experimento para obtener la información requerida sobre un problema de interés para tomar decisiones estadísticamente correctas. El diseño del experimento es una etapa fundamental de la experimentación, que permite obtener datos que pueden ser procesados a posteriori, para hacer deducciones estadísticamente válidas sobre el problema estudiado. El enfoque estadístico del diseño experimental permite el uso de métodos que permiten obtener la mayor cantidad de información válida acerca de una investigación, teniendo en cuenta el factor costo garantizando un pequeño error experimental. II.

HIPÓTESIS DE LOS MODELOS ESTADÍSTICOS

Los supuestos de cada modelo estadístico son: a. Aditividad: Los factores o componentes del modelo estadístico son aditivos, es decir la Variable respuesta es la suma de los efectos del modelo estadístico. b. Linealidad: La relación existente entre los factores o componentes del modelo estadístico es de tipo lineal. c. Normalidad: Los valores resultados del experimento provienen de una distribución de Probabilidad Normal con media y variancia   . d. Independencia: Los resultados observados de un experimento son independientes entre sí. e. Variancias Homogéneas (Homocedasticidad): Las diversas poblaciones generadas por la aplicación de los tratamientos tienen variancias homogéneas (variancia común). Tomando en cuenta como se hace la selección de los tratamientos y otros factores se tienen que los modelos se pueden clasificar como sigue: Modelo I (Efectos Fijos): los tratamientos y demás factores que intervienen en un experimento son fijados por el investigador. En ellos las conclusiones derivadas del análisis de varianza solamente son válidas para los tratamientos y otros factores usados en el experimento. . Modelo II (Efectos aleatorios): los tratamientos y demás factores que intervienen en un experimento son elegidos al azar de una población. En estos casos las conclusiones del análisis de varianza son válidas, tanto para los tratamientos y demás factores usados, así como para todas las poblaciones de tratamientos y factores. Modelo III (Modelo Mixto): este es la combinación de los dos anteriores y se presenta cuando algunos factores son fijados y otros son elegidos al azar. En estos casos las conclusiones del análisis de variancia serán válidas para toda la población de factores

cuando estos son elegidos al azar, y solamente para los factores usados cuando estos son fijados. III.

VALIDACIÓN DE LOS SUPUESTOS DEL MODELO

Suposición de Aditividad La Prueba recomendada para investigar la falta de aditividad del modelo es la Prueba de aditividad de Tukey, que desafortunademente no está disponible en este software. Suposición de Independencia Para verificar este supuesto graficar los residuos contra el orden del tiempo en el que se recopilaron los datos es útil para detectar alguna correlación entre ellos. Una tendencia a tener secuencias con residuos positivos y negativos indica la falta de independencia. (Ver gráfico 1). Dentro de los test que pueden usarse para determinar si una secuencia ordenada de observaciones es aleatoria (independiente) se dispone de los contrastes de rachas y auto correlación. Suposición de Homogeneidad de varianzas (Homocedasticidad)     

Residuos contra el orden del tiempo Residuos contra los valores estimados Las medias con las varianzas o con los desvíos estándar Residuos contra los niveles de los factores Dentro de las pruebas empleadas para contrastar la Homogeneidad de Varianzas se encuentran el test de Bartlett, el test de Cochran, el test de Hartley, el test de Levene, entre otras

Suposición de Normalidad    

Histograma de los residuos Probabilidad normal acumulada de los residuos Quantile – Quantile Plot Normal (Q-Q plot normal) También existen una serie de pruebas para contrastar la Normalidad de los datos. El Test de Chi-Cuadrado, test W de Shapiro-Wilks, Kolmogorov-Smirnov, son algunas de las pruebas de las que se dispone para verificar el cumplimiento de este supuesto.

S1.- Los efectos de tratamientos y bloques son aditivos y las respuestas dentro de los bloques tienen la misma tendencia con respecto a los efectos de los tratamientos. S2.- Las observaciones en las bt=n celdas son muestras aleatorias de tamaño 1 de cada una de las posibles n poblaciones S3.-Todas las poblaciones son normalmente distribuidas. S4.-Las varianzas de cada una de las poblaciones son iguales (homocedasticidad)

IV.

PRINCIPIOS BÁSICOS DEL DISEÑO EXPERIMENTAL

Los principios básicos del diseño experimental son: repetición, aleatorización, y control local. Repetición: es la reproducción o réplica del experimento básico (asignación de un tratamiento a una unidad experimental). Estas se usan para obtener una estimación del error experimental. A mayor número de repeticiones le corresponde estimaciones más precisas del tratamiento en estudio. Aleatorización: La aleatorización mide y reduce el error. Consiste en la asignación al azar de los tratamientos en estudio a las unidades experimentales para garantizar la no presencia de sesgo. Esta soporta la validez de los métodos de inferencia y las pruebas estadísticas. En los diseños experimentales la aleatorización es como se distribuyen los sujetos en los diferentes grupos que forman parte del estudio. El primer ensayo clínico aleatorizado se efectuó en 1.947 por Sir Austin Bradford Hill y lo llevó a cabo sobre el efecto de la Estreptomicina en la Tuberculosis, es el primer estudio realizado con un diseño experimental, hasta ese momento el diseño se realizaba era el “estudio de casos”, estudios observacionales simples. Ejemplo: para un estudio de la incidencia de tuberculosis se fijarían grupos de personas que con características similares como estructura de edad, idéntica proporción de género y raza. , posteriormente se procedería a la comparación del efecto de los distintos sueros citostáticos en cada uno de los grupos. Control o Control del error Experimental: Consiste en tomar medidas dentro del diseño experimental que le hagan más eficiente y confiable controlando todas la posibles fuentes externas de error y así hacer las pruebas más sensibles a cualquier prueba de significación. De acuerdo a la selección de los tratamientos se tiene la siguiente clasificación: Modelos de Efectos Fijos. Se presenta cuando los niveles de los factores (y con esto, los tratamientos) que intervienen en un experimento son todos los posibles para el factor o de antemano son fijados por el investigador como los únicos sobres los que se realizará la inferencia; es decir, no se efectúa una elección aleatoria. En estos casos las conclusiones del análisis de variancia solamente son válidas para los tratamientos usados en el experimento. Modelos de Efectos aleatorios Se presenta cuando los niveles de los factores que intervienen en un experimento son elegidos al azar de una población de posibles niveles. En estos casos las conclusiones del análisis son válidas de más ampliamente, tanto para los niveles incluidos en el estudio como para los demás no usados. Modelos de Efectos Mixtos Se presenta cuando se incluyen en el estudio factores con efectos fijos y otros con efectos aleatorios.

V. CONCLUSIONES  En este trabajo podemos darnos cuenta de la importancia del diseño de experimentos, o dicho de otra manera, el planear paso a paso las operaciones para así obtener un resultado satisfactorio a nuestro problema planteado.  Aleatorizar los factores no controlados Transforma la variabilidad sistemática no planificada en variabilidad no planificada o ruido aleatorio. Dicho de otra forma, aleatorizar previene contra la introducción de sesgos en el experimento.  A diferencia de lo que ocurre con los factores tratamiento, el experimentador no está interesado en investigar las posibles diferencias de la respuesta entre los niveles de los factores bloque.  Los dos primeros (aleatorizar y bloquear) son estrategias eficientes para asignar los tratamientos a las unidades experimentales sin preocuparse de qué tratamientos considerar.  La factorización del diseño define una estrategia eficiente para elegir los tratamientos sin considerar en absoluto como asignarlos después a las unidades experimentales.

VI. 1. 2. 3. 4. 5. 6.

BIBLIOGRAFÍA KEMPTHORNE O. The Design and Analysis of Experiments. John Wiley and Sons. , New York, 1952, p.10 BICKING A. C. Some Uses of statistics en the Planning of Experiments. OSTLE B. Estadística Aplicada. COX D. R. Planning of Experiments. John Wiley and Sons, Inc. New York,

1978

Related Documents


More Documents from "Elmer Alvarado"

Tarea #1 Primer Parcial.docx
December 2019 14
Ejercicios Grupales.docx
December 2019 8
Essay_codigo_2047.pdf
December 2019 3