INSTITUTO POLITECNICO NACIONAL Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas. ALUMNOS: CASTAÑEDA GUZMAN OSCAR ARMANDO CRUZ MONREAL JESSICA DELGADILLO GALVEZ PEDRO DE JESUS GONZALEZ CAMACHO ALEXIS JAVIER IBARRA ZAMORANO KEILA JIREH OTILIO CASTILLO JOSE LUIS NAVA RAMIREZ RODRIGO SECUENCIA 4AV70 CONTROL DE LOS PROCESOS. PROFESOR: GONZALEZ BERMEJO JUAN JOSE.
“MANUAL DE CONTROL DE LOS PROCESOS”
“La técnica al servicio de la patria”
INDICE: UNIDAD TEMATICA 1: FUNDAMENTOS DEL CONTROL DE CALDAD EN LOS PROCESOS 1.1 Filosofías de la calidad 1.2 Enfoque de los procesos y el empleo de las herramientas básicas de calidad 1.2.1 Recopilación de la información (hoja de control, verificación o comprobación) 1.2.2 Determinación de las causas (diagrama de Ishikawa) 1.2.3 Determinación de las causas relevantes (diagrama de Pareto) 1.3 Diagrama de estratificación. CONCLUSIONES ESPECÍFICAS UNIDAD TEMATICA 2: HERRAMIENTAS ESTADISTICAS BASICAS 2.1 Relación de las causas más importantes (diagrama de dispersión) 2.2 Histogramas 2.3 Distribución normal en los procesos 2.4 Graficas de control 2.4.1 Por variables 2.4.2 Por atributos 2.5 Capacidad y habilidad del proceso (CP y CPK) CONCLUSIONES ESPECÍFICAS
UNIDAD TEMATICA 3: TECNICAS AVANZADAS DE CALIDAD 3.1 Las 7 nuevas herramientas 3.2 Las 5 S’S 3.3 Mejora continua (Kaizen) 3.4 Six Sigma 3.5 Otras técnicas importantes 3.5.1 Reingeniería 3.5.2 Kanban 3.5.3 Poca yoke 3.5.4 Just time 3.5.5 Benchmarking CONCLUSIONES ESPECÍFICAS EJEMPLOS RESUELTOS EJEMPLOS SIN RESOLVER CASOS PRACTICOS CONCLUSIONES GENERALES
UNIDAD TEMATICA 1: FUNDAMENTOS DEL CONTROL DE CALDAD EN LOS PROCESOS 1.1 FILOSOFÍAS DE LA CALIDAD Cuando se habla de la Calidad y su evolución histórica, todos los autores se refieren, obligatoriamente, a los llamados cinco grandes de la calidad, o gurus de la calidad, que son: William Eduards Deming, Joseph M. Juran, Armand V. Feigenbaum, Kaoru Ishikawa y Philip B. Crosby. El control de la calidad surgió en Estados Unidos en los años 20 del siglo pasado, y estaba basado en las técnicas del Control Estadístico de los Procesos industriales. William Eduards Deming desarrolló este Control Estadístico de la Calidad orientándolo, en los años 40, hacia las operaciones que se desarrollaban en el ámbito de la administración de la empresa, demostrando que era tan efectivo como en el ámbito industrial. Eduards Deming fue invitado, en 1947, a ir a Japón Los catorce puntos de Deming: 1. Crear constancia en el propósito de mejorar el producto y el servicio 2. Adaptar la empresa a la nueva economía en que vivimos 3. Evitar la inspección masiva de productos 4. Comprar por calidad, no por precio, y estrechar lazos con los proveedores 5. Mejorar continuamente en todos los ámbitos de la empresa 6. Formar y entrenar a los trabajadores para mejorar el desempeño del trabajo 7. Adaptar e implantar el liderazgo 8. Eliminar el miedo, para que las personas trabajen seguras y en lo mejor de sí mismas 9. Romper las barreras entre departamentos 10. Eliminar eslóganes y consignas para los operarios, sustituyéndolo por acciones de mejora 11. Eliminar estándares de trabajo, incentivos y trabajo a destajo, pues son incompatibles con la mejora continua 12. Eliminar las barreras que privan a la gente de estar orgullosas de su trabajo 13. Estimular a la gente para su mejora personal 14. Poner a trabajar a todos para realizar esta transformación, aplicando el método PDCA
Con sus “catorce puntos para la gestión”, Deming pretende mostrar la importancia del papel de las personas, y, en especial, de la dirección, en la competitividad de las empresas. Durante la segunda mitad del siglo XX, W. Edwards Deming popularizó el ciclo PDCA (Planificar, Desarrollar, Comprobar, Actuar), inicialmente desarrollado por Shewhart, que es utilizado extensamente en los ámbitos de la gestión de la calidad. Esta herramienta ayuda a establecer en la organización una metodología de trabajo encaminada a la mejora continua. Planificar (P). La dirección de la organización define los problemas y realiza el análisis de datos, y marca una política, junto con una serie de directrices, metodologías, procesos de trabajo y objetivos que se desean alcanzar en un periodo determinado, incluyendo la asignación de recursos. Estas actividades que corresponden a la alta dirección se engloban bajo el término “Planificar” (“Plan”, en inglés), que constituye el primero de los grupos anteriormente citados. Hacer (D). A partir de las directrices que emanan de la planificación, la organización efectúa una serie de actividades encaminadas a la obtención de los productos o los servicios que proporciona a sus clientes (“Do” en inglés). En estos procesos, se deben tener en cuenta todos los requisitos del cliente, de forma que el producto o servicio obtenido se ajuste lo más posible a sus expectativas. De ello dependerá el grado de satisfacción del cliente. Comprobar (C). Finalizado el proceso productivo, debemos evaluar su eficacia y eficiencia realizando un seguimiento y un control con una serie de parámetros que son indicativos de su funcionamiento. Se trata de comprobar (“Check” en inglés) objetivamente los resultados obtenidos por la organización mediante el análisis de sus procesos, comparándolos con los resultados previamente definidos en los requisitos, en la política y en los objetivos de la organización, para verificar si se han producido las mejoras esperadas, averiguar las causas de las desviaciones o errores y plantear posibles mejoras. Ajustar (A). En función de los resultados obtenidos, y una vez analizados por la dirección, ésta marcará una serie de nuevas acciones correctoras para mejorar aquellos aspectos de los procesos en los que se han detectado debilidades o errores. En consecuencia, se tiene que “Actuar” (“Act” en inglés) para estandarizar las soluciones, mejorar la actividad global de la organización y la satisfacción del cliente. Para cerrar el ciclo, la dirección, haciendo un análisis global del ciclo completo, volverá a planificar una serie de objetivos aplicables a la siguiente iteración del bucle.
1.2 ENFOQUE DE LOS PROCESOS Y EL EMPLEO DE LAS HERRAMIENTAS BÁSICAS DE CALIDAD
ENFOQUE DE PROCESOS •
Un proceso es un conjunto de actividades que están relacionadas entre sí, o que interactúan entre sí. Los procesos utilizan recursos para trasformar insumos en productos o servicios.
Las Siete Herramientas Básicas de la Calidad Estas herramientas, que posteriormente se denominaron “las siete herramientas básicas de la calidad”. Pueden ser descritas genéricamente como métodos para la mejora continua y la solución de problemas. Las siete herramientas básicas de la calidad son:
Diagrama Causa – Efecto. Ayuda a identificar, clasificar y poner de manifiesto posibles causas, tanto de problemas específicos como de efectos deseados. Hoja de Comprobación. Registro de datos relativos a la ocurrencia de determinados sucesos, mediante un método sencillo. Gráficos de Control. Herramienta estadística utilizada para controlar y mejorar un proceso mediante el análisis de su variación a través del tiempo. Histograma. Gráfico de barras verticales que representa la distribución de frecuencias de un conjunto de datos. Diagrama de Pareto. Método de análisis que permite discriminar entre las causas más importantes de un problema (los pocos y vitales) y las que lo son menos (los muchos y triviales). Diagrama de Dispersión. Herramienta que ayuda a identificar la posible relación entre dos variables. Estratificación. Procedimiento consistente en clasificar los datos disponibles por grupos con similares características. Muestra gráficamente la distribución de los datos que proceden de fuentes o condiciones diferentes.
Su éxito radica en la capacidad que han demostrado para su aplicación en un amplio rango de problemas. Desde el control de calidad hasta las áreas de
producción, marketing y administración. Las organizaciones de servicios también son susceptibles de aplicarlas, aunque su uso comenzara en el ámbito industrial.
1.2.1 RECOPILACION DE LA INFORMACIÓN VERIFICACION O COMPROBACION)
(HOJA
DE
CONTROL,
Recopilación de la información. Es esencial al hacer investigación saber cómo localizar los trabajos previos relativos al área de investigación de su interés, para eso debe conocer: 1. Las fuentes de información que contienen los trabajos anteriores o información sobre ellos. 2. los organismos que generan, recopilan u organizan ese tipo de información. 3.
La forma en que se puede tenerse acceso a esa información.
4. Los procedimientos correspondientes para obtenerla, tanto en el país de origen como en el extranjero; el tiempo que tardaría en tenerla en sus manos y, 5. Costo aproximado de los servicios más inmediatos para obtener la información.
Dentro de la recolección de datos se pueden apelar a diversas técnicas: las encuestas, la observación, la toma de muestras y las entrevistas, entre otras, permiten realizar la tarea. La recolección de datos es muy importante ya que permite sustentar el conocimiento que se generará luego. De todas formas, la recolección por sí sola no garantiza la calidad del saber producido. El mejoramiento incesante de la calidad de bienes y servicios es un asunto que emplea una metodología que hace uso de herramientas tradicionales y se enriquece con nuevas técnicas cada día.
Hoja de control.
Las hojas de control o también llamadas hojas de registro o recogida de datos son formas estructuradas que facilitan la recopilación de información, previamente diseñadas con base en las necesidades y características de los datos que se requieren para medir y evaluar uno o varios procesos. Una hoja de registro es un formato pre impreso en el cual aparecen los ítems que se van a registrar, de tal manera que los datos puedan recogerse fácil y concisamente. (Vasco & Kumen, 1992). Las Hojas de Recogida de Datos son impresos que se utilizan para reunir datos que, en general, se anotan de forma tabular o en columnas. Normalmente requieren de un proceso adicional, una vez recogidos los datos, utilizando una herramienta de análisis de los mismos. Se puede afirmar que las hojas de control son las herramientas bases para la recolección y análisis de datos, que permiten realizar seguimientos en el proceso de resolución de problemas. Hojas de Comprobación Las hojas de comprobación (también llamadas “de verificación”, “de control” o “de chequeo”) son impresos con formato de tabla o diagrama, destinados a registrar datos relativos a la ocurrencia de determinados sucesos, mediante un método sencillo. Las hojas de comprobación:
Facilitan el registro de datos de forma fácil y comprensible.
Suponen poca interferencia con la actividad habitual de quien realiza el registro.
Permiten que los patrones de comportamiento de un fenómeno se visualice rápidamente.
Facilitan el estudio de los síntomas de un problema.
Ayudan a investigar las causas de un problema.
Permiten analizar datos para probar alguna hipótesis.
Esta técnica de recogida de datos se prepara de manera que su uso sea fácil. Que no interfiera lo menos posible con la actividad de quien realiza el registro. En la mejora de la Calidad, se utiliza tanto en el estudio de los síntomas de un problema, como en la investigación de las causas o en la recogida y análisis de datos para probar alguna hipótesis. Las hojas de comprobación centran la atención en los hechos. Es decir, objetiva un problema sobre la base de datos que ofrezcan una perspectiva realista.
Los datos a coleccionar pueden ser de muy distinta naturaleza, así como los fenómenos a estudiar. Los tipos de formatos de hojas de comprobación también pueden ser muy diversos, de modo que se ajusten al problema o hipótesis a analizar. Fases de Aplicación de las Hojas de Comprobación 1. Determinar el objetivo Precisándolo de manera clara e inequívoca: verificar la distribución de un proceso, revisar defectos y/o errores, contar la frecuencia en la ocurrencia incidencias… 2. Definir el modo en que se llevará a cabo el registro En este paso se establece quién efectuará el registro, cómo y dónde, si se registrarán todas las ocurrencias o se realizará un muestreo,… 3. Diseñar la hoja de comprobación La hoja de comprobación ha de permitir que el registro de datos sea sencillo, que la situación registrada pueda entenderse con inmediatez y que los datos no presenten dificultad para ser procesados. 4. Tomar datos Una vez diseñada la hoja de comprobación se procede a iniciar la toma de datos. A continuación se presenta un formato de hoja de comprobación. En este caso, destinado a obtener datos sobre las incidencias informadas en la vía pública según el distrito de la ciudad.
La hoja de verificación se utiliza para reunir datos basados en la observación del comportamiento de un proceso con el fin de detectar tendencias, por medio de la captura, análisis y control de información relativa al proceso. Básicamente es un formato que facilita que una persona pueda tomar datos en una forma ordenada y de acuerdo al estándar requerido en el análisis que se esté realizando. Las hojas de verificación, también conocidas como de comprobación o de chequeo, organizan los datos de manera que puedan usarse con facilidad más adelante. Brinda grandes respuestas.
Consejos para la elaboración e interpretación de las hojas de verificación.
Asegúrese de que las observaciones sean representativas.
Asegúrese de que el proceso de observación es eficiente de manera que las personas tengan tiempo suficiente para hacerlo.
La población (universo) muestreada debe ser homogénea, en caso contrario, el primer paso es utilizar la estratificación (agrupación) para el análisis de las muestras/observaciones las cuales se llevarán a cabo en forma individual.
Sus objetivos principales de manera general son: · Facilitar la recolección de datos. · Organizar automáticamente los datos de manera que puedan usarse con facilidad más adelante.
· Son el punto de partida para la elaboración de otras herramientas, como por ejemplo los Gráficos de Control.
Ventajas: · Es un método que proporciona datos fáciles de comprender y que son obtenidos mediante un proceso simple y eficiente que puede ser aplicado a cualquier área de la organización. · Estas hojas reflejan rápidamente las tendencias y patrones derivados de los datos. · Proporciona registros históricos, que ayudan a percibir los cambios en el tiempo. · Facilita el inicio del pensamiento estadístico. · Ayuda a traducir las opiniones en hechos y datos.
Características: A continuación se citan una serie de características que ayudan a comprender la naturaleza de la herramienta. · Sencillez: Una Hoja de Comprobación permite registrar los datos de forma simple y directa. · Comunicación de información: Permite ver si hay una tendencia en los datos según se va completando la hoja. Permite un análisis visual de dichas tendencias o comportamientos. · Flexibilidad: La forma en la que presentan los datos, permite utilizar, los mismos para múltiples análisis posteriores y contestar diferentes preguntas. · Disponibilidad: Permiten tener los datos reunidos de forma ordenada y sencilla para su posterior utilización. Usos y aplicaciones: La hoja de recogida de datos se construye en función de los objetivos y de la finalidad, que pueden ser muy diversos de una situación a otra: · Problemas relacionados con la seguridad · Tipo y número de defectos. · Cantidad de producto fuera de las especificaciones. · Respeto de una secuencia de operaciones. · Valoración completa o en detalle de un problema.
· Grado de influencia sobre un problema de aspectos tales como el turno, los materiales, las maquinas, etc.
Proceso para la elaboración y aplicación de hojas de control. Paso 1: Formulación de las preguntas Formular las preguntas correctas es el primer paso clave para el éxito de la recogida de datos. Las preguntas deben ser concretas y específicas. El plantear preguntas de este tipo favorece su labor en dos aspectos: - Facilita la definición de los datos que han de ser obtenidos. - Ayuda a que los demás nos faciliten los datos, puesto que se sabe lo que se busca y la información resultante va a ser utilizada. Paso 2: Definir las herramientas apropiadas para el análisis de datos Cada una de las herramientas utilizadas en el análisis posterior de datos tiene sus particularidades, ventajas, inconvenientes, y aplicaciones ligeramente diferentes. Algunas de estas diferencias se traducen en diferentes requerimientos para los datos. (Volumen de datos, exactitud, características, etc). Es frecuente ver repeticiones de recogidas de datos o tomas de decisiones basadas en análisis incompletos debido a que los datos no sirven como base del tratamiento posterior que se considera idóneo.
Paso 3: Definir el punto de recogida de los datos El objetivo de este paso es identificar un punto del proceso en estudio donde se pudiesen recoger todos los datos necesarios sin introducir perturbaciones en el propio proceso. La herramienta clave para la identificación de los puntos idóneos de recogida de datos es el diagrama de flujo del proceso en estudio. Paso 4: Elegir el personal que debe recoger los datos La obtención de datos será realizada por las personas con un acceso más fácil y directo a los hechos. A la hora de diseñar la recogida de datos hay que tener en cuenta que, en general, su realización introduce factores que distorsionan el proceso. El grupo de trabajo analizará tanto las actividades necesarias para la recogida de datos como la asignación de responsabilidades para las mismas, de forma que el sesgo a introducir sea el menor posible. Paso 5: Evaluar los conocimientos del personal encargado de la recogida de datos y de su entorno · El grupo de trabajo debe tener en cuenta los siguientes factores: · La formación y experiencia del personal de recogida de datos. Este factor afecta a la complejidad del trabajo que se puede realizar y a los conocimientos que se puedan dar por sabidos. · El tiempo disponible por este personal para dedicar a las tareas necesarias para la recogida de datos. · La cantidad de trabajo que suponen dichas tareas. · La posibilidad de información o formación directa para estas personas, o bien la necesidad de basarse en instrucciones escritas. · El impacto de la toma de datos sobre el entorno de trabajo y/o bien el impacto del entorno sobre la tarea de recogida de datos. Paso 6: Diseño del impreso de toma de datos Una vez definida la pregunta o preguntas, el tipo de datos necesario, los puntos del proceso y las condiciones de la recogida de datos, se decidirá, en base a estos factores y a las características particulares de los dos tipos de Hojas, cuál de ellos es el idóneo.
Principios a tener en cuenta para el diseño: a) La anotación de los datos debe ser una tarea sencilla. b) Se diseñará tratando de evitar posibilidades de error y/o malentendidos en la anotación e interpretación de los datos. c) El impreso debe ser completo. d) El impreso debe ser auto explicativo. e) Se prestará atención al aspecto del impreso. Paso 7: Preparación de la utilización del impreso Atendiendo a las características del impreso, de las personas que realizarán las actividades y de las condiciones de la recogida de datos se deben diseñar las instrucciones y la capacidad para su puesta en práctica. Paso 8: Probar los impresos y sus instrucciones Es importante probar los impresos y sus instrucciones para evitar la aparición de problemas imprevistos tales como: · Errores por malentendidos respecto a la forma de rellenar los impresos. · Pasar por alto información adicional importante, debido a que en la fase de diseño no se conocían todas las variables del proceso. · Datos incompletos debido a impresos difíciles de rellenar en medio de la problemática del proceso. · Datos incompletos o sesgados por temor a la utilización de la información obtenida. Paso 9: Informar y formar al personal de toma de datos Asegurarse de que el personal conoce y entiende: - El propósito de la recogida de datos. - El significado de cada parte del impreso (mostrar un ejemplo relleno). - La importancia de obtener datos completos y no sesgados. Paso 10: Realización de la recogida de datos Se recogerán los datos según el plan establecido. Paso 11: Revisar el proceso de toma de datos y validar los resultados
Se debe revisar y observar el proceso de obtención y recogida de datos. Antes de empezar el análisis de los datos, hay que validar los resultados: - ¿Contesta la recogida de datos a las preguntas planteadas? - ¿Muestran los resultados de las revisiones evidencias de sesgos en el proceso de obtención? - ¿Es el número de observaciones realizado, el especificado? - ¿Son similares los datos recogidos por todos los encargados de la toma de datos? Paso 12: Interpretación de resultados Una vez obtenidos y validados los datos es hora de analizarlos y satisfacer las necesidades de información respondiendo a las preguntas inicialmente formuladas. Tipos y ejemplos: Hoja de control para la distribución de frecuencias: Para estudiar la distribución de los valores característicos de un proceso, se usan normalmente histogramas. Una manera más sencilla es clasificar los datos exactamente en el momento de recogerlos; para ello se utiliza una hoja de control en la cual se coloca una marca cada vez que se realiza una medición, de manera que el histograma esté listo cuando se acaben de hacer las mediciones.
Hoja de control de defectos Se utiliza para cuantificar o tipificar los defectos presentados en los productos. El simple conocimiento del número total de defectos no lleva a acciones correctivas,
pero si se usa una hoja de registro como el ejemplo mostrado en la figura 3, podrán obtenerse indicios muy importantes para el mejoramiento del proceso porque la información muestra claramente cuáles son los defectos más frecuentes y cuáles no. En la figura muestra se muestra otra hoja de control de defectos, estratificándolos por día, turno, máquina y operario, lo que permite analizar si alguno de los estratos está relacionado con una causa importante de defectos.
Hoja de control de ubicación del defecto. Cuando los defectos son externos no es suficiente con indicar su frecuencia y el estrato en que se han utilizado. La ubicación del defecto puede ayudar a encontrar la causa que lo genera, consiguiéndose de esta forma su eliminación y, por tanto, la mejora de calidad. Normalmente esta hoja de control contiene una figura del producto con el fin de ubicar en él los diferentes defectos que se encuentren. En la figura 5 se observa una hoja de control diseñada para responder a la pregunta: ¿Son ciertas aéreas de nuestros electrodomésticos más susceptibles de sufrir desconchados del esmalte durante el transporte?
•
Las hojas de control, también llamadas de verificación, se pueden utilizar como lista de comprobación a la hora de recoger datos.
•
Las hojas de verificación se utilizan para organizar los hechos de manera que se facilite la recopilación de un conjunto de datos útiles sobre un posible problema de calidad.
LA FUNCION DE UNA HOJA DE VERIFICACIÓN VARÍA DE ACUERDO AL TIPO DE HOJA •
Para cuantificar los defectos por producto
•
Para cuantificar defectos por localización
•
Para cuantificar defectos por causa (maquina o trabajador)
•
Para realizar un seguimiento a las actividades de un proceso (lista de verificación)
1.2.2 DETERMINACION DE LAS CAUSAS (DIAGRAMA DE ISHIKAWA) Diagrama de Ishikawa La cantidad de procesos y elementos que se mueven en el interior de las empresas son muchísimos, por lo que se hace necesario algún tipo de metodología que sirva para estructurar, analizar, corregir errores y definir estrategias. Una de estas metodologías es el empleo del diagrama de Ishikawa o diagrama de espina de pescado, también denominado diagrama de causa y efecto, ideado por el químico japonés Kaoru Ishikawa en el año 1943, experto en control de calidad. Esto puede ser muy útil para la realización de un análisis FODA en la empresa. ¿Qué es el diagrama de Ishikawa? El diagrama de Ishikawa o diagrama de espina de pescado (por su forma similar a la de un pez), es una representación gráfica muy sencilla en la que puede verse, de manera relacional, una especie de espina o línea central en horizontal, la cual representa el problema concreto a analizar.
Además, a través del método Ishikawa tenemos aglutinadas distintas variables y/o categorías que podrían ser consideradas como origen y causa del problema en cuestión. El diagrama de Ishikawa identifica un problema y luego enumera un conjunto de potenciales causas que lo hayan podido provocar. Así, lo que Kaoru Ishikawa consiguió con metodología es disponer de un diagrama muy atractivo a la vista y donde se ordenan de manera clara, amigable y sencilla las posibles causas de los problemas que surgen en cualquier proceso de la empresa. Esto nos puede ayudar a conocer los motivos de las debilidades de la empresa y poder darle soluciones. ¿Cómo hacer un Diagrama de Ishikawa? El diagrama de Ishikawa o diagrama de espina de pescado es empleado para facilitar el análisis de los problemas y detectar rápidamente las posibles soluciones al mismo. Para ello, Kaoru Ishikawa, experto en control de calidad comprobó que muchos de los problemas con los que se topan las empresas día a día tienen 4 categorías:
Personas.
Materiales.
Maquinaria.
Procesos o métodos.
Estos cuatro elementos cubren casi todas las potenciales causas que dan origen a un problema empresarial. Otras formas de hacer un diagrama de causa y efecto Más allá de las detecciones hechas por controles de calidad y demás, existen clasificaciones específicas de áreas del conocimiento, concretamente las 8p’s del mercadeo y las 4s’s de la industria de servicios. 8p’s del mercadeo Es una evolución de las 4p’s. En este caso, tu diagrama de pescado estaría compuesto por:
Personas Evidencia física o presentación (Physical evidence) Proceso (Process) Alianzas estratégicas (Partners) Producto (product) Precio (price) Plaza o distribución (Place) Promoción o comunicación (promotion)
Alexis Rosas de Mejora tu empresa da un acercamiento más profundo al tema de las 8p’s del mercadeo 4’s de la industria de servicios Es de común aplicación en la industria de servicios al considerar los siguientes aspectos:
Entorno (Surroundings) Habilidades (Skills) Sistemas (systems) Proveedores (Suppliers)
1.2.3 DEFINICION DE LAS CAUSAS RELEVANTES (DIAGRAMA DE PARETO) El diagrama de Pareto, también llamado curva cerrada o Distribución A-B-C, es una gráfica para organizar datos de forma que estos queden en orden descendente, de izquierda a derecha y separados por barras. Permite asignar un orden de prioridades. El diagrama permite mostrar gráficamente el principio de
Pareto (pocos vitales, muchos triviales), es decir, que hay muchos problemas sin importancia frente a unos pocos muy importantes. Mediante la gráfica colocamos los "pocos que son vitales" a la izquierda y los "muchos triviales" a la derecha. El diagrama facilita el estudio de las fallas en las industrias o empresas comerciales, así como fenómenos sociales o naturales psicosomáticos, como se puede ver en el ejemplo de la gráfica al principio del artículo. Hay que tener en cuenta que tanto la distribución de los efectos como sus posibles causas no es un proceso lineal sino que el 20% de las causas totales hace que sean originados el 80% de los efectos y rebotes internos del pronosticado. El principal uso que tiene el elaborar este tipo de diagrama es para poder establecer un orden de prioridades en la toma de decisiones dentro de una organización. Evaluar todas las fallas, saber si se pueden resolver o mejor evitarla. DESCRIPCIÓN Pareto enunció el principio basándose en el denominado conocimiento empírico. Estudió que la gente en su sociedad se dividía naturalmente entre los «pocos de mucho» y los «muchos de poco»; se establecían así dos grupos de proporciones 80-20 tales que el grupo minoritario, formado por un 20% de población, ostentaba el 80% de algo y el grupo mayoritario, formado por un 80% de población, el 20% de ese mismo algo. En concreto, Pareto estudió la propiedad de la tierra en Italia y lo que descubrió fue que el 20% de los propietarios poseían el 80% de las tierras, mientras que el restante 20% de los terrenos pertenecía al 80% de la población restante. Estas cifras son arbitrarias; no son exactas y pueden variar. Su aplicación reside en la descripción de un fenómeno y, como tal, es aproximada y adaptable a cada caso particular. El principio de Pareto se ha aplicado con éxito a los ámbitos de la política y la Economía. Se describió cómo una población en la que aproximadamente el 20% ostentaba el 80% del poder político y la abundancia económica, mientras que el otro 80% de población, lo que Pareto denominó «las masas», y tenía poca influencia política. Así sucede, en líneas generales, con el reparto de los bienes naturales y la riqueza mundial. Cabe mencionar que si bien Pareto determinó esta relación basándose en sus estudios sobre la riqueza, la aplicación universal, es decir, la aplicación del principio a otras áreas fuera de la economía se debe al trabajo de Joseph Juran, quién encontró la relación 80-20 y la aplicó a otros fenómenos. VENTAJAS 1.
-Permite centrarse en los aspectos cuya mejora tendrá más impacto, optimizando por tanto los esfuerzos.
2.
-Proporciona una visión simple y rápida de la importancia relativa de los problemas.
3.
-Ayuda a evitar que se empeoren algunas causas al tratar de solucionar otras y ser resueltas.
4.
-Su visión gráfica del análisis es fácil de comprender y estimula al equipo para continuar con la mejora. APLICACIONES Cuando un almacén tiene un inventario grande, para concentrar los esfuerzos de control en los artículos o mercancías más significativos, se suele utilizar el principio de Pareto. Así, controlando el 20% de los productos almacenados puede controlarse aproximadamente el 80% del valor de los artículos del almacén. La clasificación ABC de los productos también se utiliza para agrupar los artículos dentro del almacén en un número limitado de categorías, cuando se controlan según su nivel de disponibilidad. Los productos A, 20% de los artículos, que generan el 80% de los movimientos del almacén, se colocarán cerca de los lugares donde se preparan los pedidos, para que se pierda el menor tiempo posible en mover mercancías dentro de un almacén.
EN CONTROL DE CALIDAD: El principio de Pareto permite utilizar herramientas de gestión, como el diagrama de Pareto, que se usa ampliamente en cuestiones relacionadas con el control de calidad (el 20% de los defectos afectan en el 80% de los procesos). Así, de forma relativamente sencilla, aparecen los distintos elementos que participan en un fallo y se pueden identificar los problemas realmente relevantes, que acarrean el mayor porcentaje de error. EN INGENIERÍA DEL SOFTWARE: De la misma manera, en el mundo de la ingeniería del software el principio de Pareto puede ser enunciado de diferentes formas: 5. Así por ejemplo cuando hablamos de los costes de desarrollo podríamos decir que «el 80% del esfuerzo de desarrollo (en tiempo y recursos) produce el 20% del código, mientras que el 80% restante es producido con tan solo un 20% del esfuerzo». 6.
Si hablamos de pruebas de software, el principio nos dice que «el 80% de los fallos de un software es generado por un 20% del código de dicho software, mientras que el otro 80% genera tan solo un 20% de los fallos».
Además existen algunas particularizaciones o instancias conocidas del principio, como la regla del noventa-noventa cuyo enunciado en tono cómico dice que «el primer 90% del código ocupa el 90% del tiempo de desarrollo. El 10% restante del código ocupa el otro 90% de tiempo de desarrollo» haciendo alusión a la creencia
en el entorno del desarrollo de software de que cualquier planificación nace condenada a no cumplirse. De ahí que los porcentajes referidos al tiempo son mayores a 100. FINANZAS PERSONALES: Por dónde empezar para generar nuevos ingresos? Dicho de otra manera, si tienes que recortar tus gastos, si en tu empresa tienes que eliminar costos superfluos, si no todos los productos que vendes te dejan la misma ganancia, ¿qué hacer si vives al día con tu sueldo y te sientes atrapado? Hace más de un siglo, alguien observó algo muy interesante sobre la relación causa-efecto. Esta regla no es exacta, pero vale la pena tener en cuenta esta visión del mundo y sus consecuencias. El Principio de Pareto establece que, para muchos eventos, aproximadamente 80 por ciento de los efectos provienen de 20 por ciento de las causas. El Principio de Pareto es también conocido como la regla 80-20. Estas cifras son arbitrarias; no son exactas y pueden variar. Su aplicación reside en la descripción de un fenómeno y, como tal, es aproximada y adaptable a cada caso particular. El italiano, Wilfredo Pareto, decía que la gente en su sociedad se podía dividir en dos grupos: el minoritario, formado por 20 por ciento de población, ostentaba 80 por ciento de algo, y el grupo mayoritario, formado por 80 por ciento de población, que era poseedora de 20 por ciento de ese mismo algo. Ejemplos: 80 por ciento de tus ventas, provienen de 20 por ciento de tus clientes. 80 por ciento de tus gastos personales, provienen de 20 por ciento de tu lista de presupuesto mensual. 80 por ciento de la riqueza mundial, se concentra en menos de 20 por ciento de la población. Entonces cabe preguntarse: ¿Dónde hay que poner el foco? Me preocupo por el 80 o por el 20? La respuesta mágica es: depende. Hay muchos que hicieron fortunas trabajando solo con la venta de los mejores libros (best sellers), o con las mejores películas, o con la mejor música. Seguramente, éstos son el 20 por ciento que genera el 80 por ciento del dinero en un mercado. ¿Qué pasa con el resto? Como dicen algunos: “estamos dejando dinero sobre la mesa”.
Hay muchos autores desconocidos que tienen una audiencia, también reducida. El punto es que son muchos; pequeños, pero muchos. Antes existían menos de una decena de canales de televisión, solo trasmitidos por antena y disponibles en la zona geográfica donde uno vivía; luego apareció la televisión por cable, agregando así más de 100 canales. Hoy en día, con internet, existen cientos de miles de canales. Algunos genios han creado un modelo de negocios nuevo e innovador, pensando en esa multitud que “solo” genera 20 por ciento de ingresos o de flujo de dinero de un mercado, del otro 80 por ciento, ya se están ocupando las grandes marcas conocidas. Para tu economía personal, la reflexión de este principio es: que es común que tengas pocas fuentes de ingresos (generalmente tenemos una) y, que de ellas, emane la mayor parte del monto total de tus gastos. Independientemente de que hagas un presupuesto y te apegues a él, es importante que busques fuentes alternas de ingresos. Ingresos por tus hobbies, por tus pasiones, por ayudarle a alguien en su trabajo, por innovar, por resolver el problema de algún conocido, amigo o familiar, por ventas de objetos que ya no usas o de servicios profesionales que sabes que puedes brindar, etc. Quizás, simplemente haciendo sinergias, recomendando personas para el intercambio de servicios o productos a cambio de ayudar a alguien y, además, quizás obtener una comisión como producto de hacer comunidad, comunidad que también puede ser financiera. 1.3 DIGRAMA DE ESTRATIFICACIÓN Estratificación. Herramienta para la mejora La estratificación es una técnica utilizada en combinación con otras herramientas de análisis de datos. Cuando los datos, de una variedad de fuentes o categorías, han sido agrupados su significado puede ser imposible de interpretar. Esta herramienta separa los datos para que los patrones de distribución de dos o más grupos se puedan distinguir. A cada grupo se le denomina estrato. El objetivo es aislar la causa de un problema, identificando el grado de influencia de ciertos factores en el resultado de un proceso. Los estratos a definir lo serán en función de la situación particular de que se trate, pudiendo establecerse estratificaciones atendiendo a:
Personal.
Materiales.
Maquinaria y equipo.
Áreas de gestión.
Tiempo.
Entorno.
Localización geográfica.
Otros. La estratificación puede apoyarse en distintas herramientas de calidad, si bien el histograma es el modo más habitual de presentarla. El desarrollo de la técnica atiende a la metodología presentada para los histogramas, para el caso de los histogramas estatificados[1]. Al fin y al cabo se trata de construir los histogramas correspondientes. Ventajas de la estratificación
Permite aislar la causa de un problema, identificando el grado de influencia de ciertos factores en el resultado de un proceso
La estratificación puede apoyarse y servir de base en distintas herramientas de calidad, si bien el histograma es el modo más habitual de presentarla
Destaca que la comprensión de un fenómeno resulta más completa
Fases de aplicación de la estratificación
1. Definir el fenómeno o característica a analizar.
2. De manera general, representar los datos relativos a dicho fenómeno.
3. Seleccionar los factores de estratificación. Los datos los podemos agrupar en función del tiempo (turno, día, semana, estaciones, etc.); de operarios (antigüedad, experiencia, sexo, edad, etc.); máquinas y equipo (modelo, tipo, edad, tecnología, útiles, etc.); o materiales (proveedores, composición, expedición, etc.).
4. Clasificar los datos en grupos homogéneos en función de los factores de estratificación seleccionados.
5. Representar gráficamente cada grupo homogéneo de datos. Para ello se pueden utilizar otras herramientas, como por ejemplo, histogramas o el análisis de Pareto.
6. Comparar los grupos homogéneos de datos dentro de cada criterio de estratificación para observar la posible existencia de diferencias significativas
entre los propios grupos. Si observamos diferencias significativas, la estratificación habrá sido útil. Usos de la estratificación
a. Identificar las causas que tienen mayor influencia en la variación.
b. Comprender de manera detallada la estructura de un grupo de datos, lo cual permitirá identificar las causas del problema y llevar a cabo las acciones correctivas convenientes.
c. Examinar las diferencias entre los valores promedios y la variación entre diferentes estratos, y tomar medidas contra la diferencia que pueda existir.
Ejemplos de estratificación En un determinado departamento, se está estudiando un defecto de producción y se han recogido datos, que se han representado en un histograma como el de la figura 1.
Figura 1. Estratificando esos datos se pueden obtener informaciones útiles; por ejemplo, si ese departamento trabaja en dos turnos, puede resultar útil, estratificar los datos entre los dos turnos y observar si existen diferencias. En el caso que se analizará, como se refleja en los dos histogramas de las figuras 2 y 3, se observa que la dispersión del primer turno es mayor que la del segundo. Ese hecho nos proporciona la clave de la lectura de la situación: efectivamente, nos dice que el primer turno ofrece una situación menos positiva. Eso servirá de base para un análisis más profundo, aunque limitado al primer turno.
Figura 2.
Figura 3. Otro ejemplo, si en una empresa mecánica existen tres maquinas fresadoras cuya producción total tiene unos rechazos del 10%, se puede proceder a una estratificación de los rechazos por tipo de maquina recogiendo los datos durante una semana. Estratificando de esta manera se puede poner de manifiesto, por ejemplo, que una de las tres maquinas genera por sí sola el 9% de los rechazos, mientras que cada una de las otras dos provoca unos rechazos del 0,5%. El objetivo de la estratificación es el de hacer que hablen los datos, es decir, definir el factor (o los factores) más significativos en cuanto a los datos que representan cierto fenómeno.
CONCLUSIONES ESPECÍFICAS 1ER PARCIAL FUNDAMENTOS DEL CONTROL DE CALIDAD EN LOS PROCESOS Consideramos que en el desarrollo de esta unidad temática se abordan los temas fundamentales sobre el control de calidad enfocado a los procesos que se establecen en las organizaciones. Desde los aspectos filosóficos sobre lo que conlleva la calidad y como se aplica, y analizando las herramientas básicas con las cuales se califica la calidad en un proceso. Para esto se utilizan técnicas para recopilar información por diversos métodos, dependiendo las necesidades que se tengan o los objetivos que se tengan. Algunos de los métodos que utilizamos son el de Hoja de Control, y el de Verificación o Comprobación. Por otra parte, se analizan las causas de los diversos problemas que se podrían presentar en una organización, esto aplicando el Diagrama de Ishikawa, en el cual se analizan los factores y se determina el porque de las causas de dichos sucesos para determinar una solución a estos hechos. El cual va ligado al Diagrama de Pareto o Diagrama 80/20 en el cual también se analizan las causas y el cual nos dice que analizando el 20% de las causas más frecuentes o más relevantes, y atendiendo solo estas se solucionarán las demás, ya que estás son el origen de las demás, y esto se puede emplear en cualquier otro ámbito.
Con estos temas tenemos los conocimientos necesarios para abordar el tema de calidad y como se lleva su control en los procesos, sabremos identificarlos y aplicar procedimientos para determinar en que situación se encuentra un proceso y determinar las causas del porque están ahí.
UNIDAD TEMATICA 2: HERRAMIENTAS ESTADISTICAS BASICAS 2.1 Relación de las causas más importantes (Diagrama de dispersión). Un Diagrama de dispersión es la forma más sencilla de definir si existe o no una relación causa efecto entre dos variables y que tan firme es esta relación, como estatura y peso. Una aumenta (o disminuye) al mismo tiempo con la otra. El Diagrama de Dispersión es de gran utilidad para la solución de problemas de la calidad en un proceso y producto, ya que nos sirve para comprobar que causas (factores) están influyendo o perturbando la dispersión de una característica de calidad o variable del proceso a controlar. Tres conceptos especialmente destacables son que el descubrimiento de las verdaderas relaciones de causa-efecto es la clave de la resolución eficaz de un problema, que las relaciones de causa-efecto casi siempre muestran variaciones, y que es más fácil ver la relación en un diagrama de dispersión que en una simple tabla de números.
Características Impacto visual: Un diagrama de dispersión muestra la posibilidad de la existencia de correlación entre dos variables de un vistazo. Comunicación. Simplifica el análisis de situaciones numéricas complejas Guía en la investigación. El análisis de datos mediante esta herramienta proporciona mayor información que el simple análisis matemático de correlación, sugiriendo posibilidades y alternativas de estudio, basadas en la necesidad de conjugar datos y procesos en su utilización. Estratificación. Separar un conjunto de datos en diferentes grupos o categorías, de forma que los datos pertenecientes a cada grupo comparten características comunes que definen la categoría. Proceso Pasos previos a la construcción de un diagrama de dispersión: Paso 1: Elaborar una teoría admisible y relevante sobre la supuesta relación entre dos variables. Este paso previo es de gran importancia, puesto que el análisis de
un Diagrama de Dispersión permite obtener conclusiones sobre la existencia de una relación entre dos variables, no sobre la naturaleza de dicha relación. Paso 2: Obtener los pares de datos correspondientes a las dos variables al igual que en cualquier otra herramienta de análisis de datos, estos son la base de las conclusiones obtenidas, por tanto cumplirán las siguientes condiciones: En cantidad suficiente: Se consideran necesarios al menos 40 pares de datos para construir un diagrama de dispersión. Datos correctamente emparejados: Se estudiará la relación entre ambos. Datos exactos: Las inexactitudes afectan a su situación en el diagrama desvirtuando su apariencia visual. Datos representativos: Asegúrese de que cubren todas las condiciones operativas del proceso. Información completa: Anotar las condiciones en que han sido obtenidos los datos. Paso 3: Determinar los valores máximo y mínimo para cada una de las variables. Paso 4: Decidir sobre qué eje representará a cada una de las variables Si se está estudiando una posible relación causa-efecto, el eje horizontal representará la supuesta causa. EJEMPLO Con el ejemplo base que hemos expuesto podemos analizar que la variable tiempo de egreso de la IPS, después del alta médica, está relacionada con los días estancia en la institución, con el tipo de patología, la condición del paciente; para nuestros fines se analizara la primera consecuencia que es la estancia que ocasiona el paciente por sus variantes expuestas. Relacionamos tiempo de demora del cierre de la cuenta o tiempo que se gasta la institución en dar la salida después del alta médica con las estancias de los pacientes en la institución. Tomo una muestra al azar de 22 pacientes y se determinaron los días de estancia y el tiempo medidos por el egreso del hospital después de haber sido dado de alta por el galeno respectivo. Se muestra en la tabla siguiente la muestra que fue tomada aleatoriamente de 22 pacientes y además el gráfico de dispersión realizado con los días estancia y tiempo de cierre y alta del hospital, con su coeficiente de correlación (es un índice
que relaciona linealmente las dos abribles analizadas) que para el caso es de 0.87 ó sea muy cercano a 1 que es la máxima correlación; además la correlación fue positiva es decir a medida que aumente los días estancias de los pacientes el tiempo para el cierre de la cuenta es mayor, ó sea el paciente se va a demorar más para salir de la institución, situación que deben analizar los especialistas o responsable de los procesos.
PACIENTE 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
ESTANCIA DÍAS 2 3 1 3 4 4 7 7 6 7 15 25 18 10 9 5 5 2 12 10 14 22
DEL
PACIENTE TIEMPO MINUTOS 40 42 45 34 38 45 56 67 56 67 78 95 87 54 56 45 48 22 67 56 68 85
DEL
EGRESO
2.2 Histogramas Es una representación gráfica que maneja distintas estadísticas. Su utilidad se basa en ver o mostrar la posibilidad de establecer de manera visual, ordenada y fácil los datos numéricos y estadísticos que pueden tornarse complicados de entender. Existen varios tipos de histogramas que ejecutan de manera variada muchos tipos de información. Normalmente son utilizados en la estadística, con la intención de exponer gráficamente número, variables y cifras con el fin de que los resultados sean visualmente claros y ordenados. Casi siempre se presenta en barras, ya que es mucho más fácil entenderlos de esta manera, dependiendo de cómo se utilicen. Los puntos focales de un histograma, son los siguientes:
Realizar un análisis de distribución de datos. Comprobar el grado de cumplimiento de las especificaciones. Evaluar la eficacia de las soluciones.
Existen además, dos tipos de informaciones básicas para la elaboración de los histogramas, las cuales son la complejidad, el diseño, la frecuencia de los valores y los valores en sí. Normalmente, las frecuencias son representadas en el eje vertical mientras que en el horizontal se representan los valores de cada una de las variables (que aparecen en el histograma como barras bi o tridimensionales). Tipos de histogramas:
De barras simples: son las más utilizados. De barras compuestas: permiten introducir información sobre dos variables. De barras agrupadas: se rigen bajo un información específica. Polígono de frecuencia y ojiva porcentual: ambos son utilizados normalmente por expertos.
A pesar de la complejidad con la que esta definición se trata, existe material suficiente respecto a la creación de estos gráficos estadísticos. Las frecuencias acumuladas según expertos son más fácil de representar en los histogramas, ya que se muestran en las barras con bastante claridad dos situaciones distintas, por ejemplo: comparar una fecha con otra o un período con otro, para así facilitar el entendimiento de la misma. Otra manera frecuente es representar dos histogramas de la misma variable con dos ejemplos, muy parecido al anterior pero partiendo de situaciones completamente distintas. Existen además, las variables cuantitativas y las cualitativas ordinales que pueden presentarse en forma de polígonos de frecuencia en vez de histogramas, en este caso cuando es un gráfica acumulativa pasaría a ser ojiva.
Como puntos destacables tenemos:
Es una forma eficaz de organizar y ordenar datos. Nos muestra la naturaleza y el grado de la variación de los resultados de un proceso, actividad, etc.… Adopta la forma de gráfico de barras donde el eje vertical muestra la frecuencia y el horizontal las clases. Son de utilidad para comparar datos mediante la segmentación por elementos y para la investigación de diferencias entre segmentos. Permiten comprobar la efectividad de las medidas de mejora implantadas comparando el gráfico inicial creado con el posterior, después de haber implantado las acciones de mejora.
2.3 Distribución normal en los procesos La distribución normal es una distribución de probabilidad de variable continua que describe los datos que se agrupan en torno a un valor central. Todo proceso en el que solo existan causas aleatorias de variación sigue una ley de distribución normal. Esta condición que aparece con frecuencia en fenómenos naturales (de ahí que se la denomine “normal”), puede obtenerse en los procesos industriales si los procesos se llevan a un esta do en el que solo existen causas comunes de variación. Una distribución normal se caracteriza por: 1. Los valores de las mediciones tienden a agruparse alrededor de un punto central, la media
2. La representación de los datos es simétrica a ambos lados de la media 3. Las desviaciones estándares quedan situadas a igual distancia unas de otras 4. La proporción de mediciones situada entre la media y las desviaciones es una constante en la que:
La media ± 1 * desviación estándar = cubre el 68,3% de los casos La media ± 2 * desviación estándar = cubre el 95,5% de los casos
La media ± 3 * desviación estándar = cubre el 99,7% de los casos Podemos analizar el comportamiento de los procesos gráficos y determinar su efectividad tomando como base su grado de aproximación a la curva de distribución normal a partir de los datos generados y la creación de histogramas que permitan la comparación con curva de distribución normal. Posibilidades: La curva de distribución normal del proceso coincide o está dentro de los límites establecidos por la industria (bien en las normas de calidad desarrolladas o bien en las recomendaciones establecidas por las asociaciones). En este caso el proceso opera con eficacia y se pueden realizar trabajos de alta exigencia con respecto a la variable controlada. La curva de distribución supera los límites establecidos por la industria. En este caso puede que estén operando causas asignables de variación o que existen limitaciones debidas a los recursos y equipos empleados por lo que no es posible realizar trabajos exigentes con respecto a la variable controlada hasta que no se hayan eliminado las causas especiales de variación o no se dispongan de los recursos y equipos adecuados. El histograma generado no muestra las características básicas de una distribución normal. En este caso están claramente actuando causas asignables de variación que habrá que resolver si queremos conseguir un alto grado de fiabilidad del proceso y realizar trabajos de alta exigencia.
2.4 Gráficas de control Los gráficos de control tienen su origen al final de la década de 1920, cuando Walter A. Shewhart analizó numerosos procesos de Gráficos de control fabricación concluyendo que todos presentaban variaciones. Encontró que estas variaciones pueden ser de dos clases: una aleatoria, entendiendo por ella que su causa era insignificante o desconocida. Otra, imputable (también llamada asignable), cuyas causas podían ser descubiertas y eliminadas tras un correcto diagnóstico. La variación de una determinada característica de calidad puede ser cuantificada realizando un muestreo de las salidas del proceso y estimando los parámetros de su distribución estadística. Shewhart inició así el moderno control de calidad. Este se fundamenta en el control estadístico del proceso. Rebasa así al clásico control de calidad, limitado a la inspección final del producto. Los cambios en la distribución pueden comprobarse representando ciertos parámetros en un gráfico en función del tiempo, denominado gráfico de control. Todo proceso tendrá variaciones, pudiendo estas agruparse en: Causas aleatorias de variación: Desconocidas y con poca significación. Su origen está en el azar y se encuentran presentes en todo proceso. Causas específicas (imputables o asignables): Normalmente no deben estar presentes en el proceso. Provocan variaciones significativas. Las causas aleatorias son de difícil identificación y eliminación. Las causas específicas sí pueden descubrirse y elimnarse, para alcanzar el objetivo de estabilizar el proceso. Existen diferentes tipos de gráficos de control: 2.4.1 POR VARIABLES Las gráficas de control de variables grafican datos de procesos de medición continua, tales como longitud o presión, en una secuencia ordenada por tiempo. En contraste, las gráficas de control de atributos grafican datos de conteo, tales como el número de defectos o unidades defectuosas. Las gráficas de control de variables, las gráficas de variables, como todas las gráficas de control, ayudan a identificar las causas de variación que se deben investigar, de manera que usted pueda ajustar su proceso sin controlarlo exageradamente. Existen dos tipos principales de gráficas de control de variables: gráficas para datos recopilados en subgrupos y gráficas para mediciones individuales.
2.4.2 POR ATRIBUTOS Son Gráficos de Control basados en la observación de la presencia o ausencia de una determinada característica, o de cualquier tipo de defecto en el producto, servicio o proceso en estudio. Los gráficos de control por atributos se utilizan para representar la evolución de características no medibles ni cuantificables, tan solo se puede representar si se verifica o no dicha característica. Se trata de características que no pueden medirse, pero que sin embargo hay que controlar. Las características de calidad que no pueden ser medidas con una escala numérica, se juzga a través de un criterio más o menos subjetivo. Los datos se presentan con periodicidad a la gerencia y con ellos se integran números índices, que son muy importantes en el desarrollo de una empresa, estos pueden referirse al producto, desperdicio rechazo de materiales. Dentro de la clasificación de las características calidad por atributos se requiere: · De un criterio · De una prueba · De una decisión El criterio se establece de acuerdo con las especificaciones. La prueba consiste en la operación que se realiza para averiguar la existencia o no del criterio establecido. La decisión determina que título debe darse al productos, es decir si paso o no pasa.
El gráfico cuenta con una línea central y con dos límites de control, uno superior (LCS) y otro inferior (LCI), que se establecen a ± 3 desviaciones típicas (sigma) de la media (la línea central). El espacio entre ambos límites define la variación aleatoria del proceso. Los puntos que exceden estos límites indicarían la posible presencia de causas específicas de variación. 2.5 Capacidad y Habilidad del proceso (Cp y Cpk) CP. Cp quiere decir “Capacidad del Proceso” (Process Capability) La “capacidad” a la que nos referimos es la que tiene el proceso para producir piezas de acuerdo con las especificaciones, es decir, dentro de los límites de tolerancia establecidos. Para evaluar la capacidad de un proceso es necesario contar con suficientes muestras, por lo que el cálculo del Cp se encuadra dentro de un estudio estadístico.
Un proceso se considera “capaz” si Cp ≥ 1,33
Ahora bien, la media (μ), no entra en juego en el Cp. Por lo que lo que podríamos tener un Cp muy alto gracias a valores muy centrados (pequeña desviación típica) pero muy desplazados de lo que se requiere según especificación:
Para evitar este problema debemos incluir en el cálculo de la capacidad el valor medio de los resultados del proceso: μ media Para ello consideramos el indicador Cpk. CPK. Con el Cpk conseguimos evaluar no sólo si la capacidad es acorde con las tolerancias sino si la media “natural” del proceso se encuentra o no centrada.
CONCLUSIONES ESPECÍFICAS 2DO PARCIAL HERRAMIENTAS ESTADISTICAS BÁSICAS En este parcial se abordaron temas que tienen relación con la determinación de las causas pero sobre todo con la distribución que se tiene durante los procesos, aplicando gráficas en las cuales se representarán los datos obtenidos para determinar los datos estadísticos de como se encuentran los procesos que se están analizando. Se estudia la relación que tienen las causas más importantes por medio de un Diagrama de Dispersión con el cual nos ayudará a darles una solución oportuna. En esta unidad temática se desarrolla bastante la elaboración de gráficas de diferente tipo con el fin de observar el comportamiento de las causas y de los factores que influyen en los procesos, y con cada diferente tipo de gráfica se analizan diferentes parámetros dependiendo de los datos con los que se cuentan o el objetivo que se tiene y se pretende alcanzar. Las gráficas de control nos indican como están establecidos los estándares de calidad y nos muestran los resultados de que tanto control se tiene en los procesos. Estas se presentan analizando una variable y la forma en la que está influye en los resultados de calidad y también se analiza por producto, en este tipo de gráficas se evalúa todos los procesos que lleva a la producción de algún producto y que tanto se tiene en control todos los procesos involucrados.
Al final del desarrollo de todos estos temas tenemos el conocimiento de como evaluar y expresar los estándares de control y de calidad que se tienen de un proceso o de alguna variable influyente en él, con el fin de saber que cambios se deben realizar y que aspectos deben perfeccionarse.
UNIDAD TEMATICA 3: TECNICAS AVANZADAS DE CALIDAD 3.1 LAS SIETE NUEVAS HERRAMIENTAS
Ingenieros (JUSE) analizó un gran conjunto de técnicas y herramientas de gestión existentes selecciono de entre ellas las denominadas “siete nuevas herramientas de gestión y planificación” Objetivos. Ayudar en el programa de calidad total. Identificar oportunidades de mejora Implantar programas de de mejora.
Diagrama de Relaciones Esta herramienta es sumamente útil para el análisis de un problema en el cual sus causas se encuentran relacionadas entre sí de manera compleja. Su implementación se realiza generalmente de manera grupal mediante el uso de tarjetas. Diagrama de Afinidad Este diagrama es conocido también como Diagrama KJ por las iniciales de su creador, Kawakita Jiro. Surgido en la década de 1980, constituye una herramienta esencial para ordenar grandes cantidades de datos. El criterio utilizado es el de agrupar los datos en función de la afinidad, de alguna relación que exista entre ellos. Esto permite clarificar mejor las ideas a la hora de determinar la causa de un problema. En mucho de los casos, su resultado puede no ser determinante pero sí orientativo. Es decir, puede no brindarnos la respuesta exacta sobre la causa del problema aunque sí guiarnos hacia la dirección correcta.
Diagrama de Árbol Esta es quizás una de las herramientas más sencillas, aunque no por eso menos útil. Permite obtener una visión sistemática del problema (razón por la que también se lo conoce como Diagrama Sistemático). Su estructura es similar a la del organigrama de una organización en el que se plantea una relación jerárquica. En el nivel superior se coloca el objetivo principal a alcanzar y luego se va desglosando en ramas. De cada objetivo se van desprendiendo los medios posibles para alcanzarlo y un nuevo objetivo del cual se desprenderán nuevos medios, y así sucesivamente. Una mejor comprensión puede obtenerse a través del siguiente esquema:
Diagrama de Matriz
Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos aspectos o variables a analizar. Se pueden vincular opciones con criterios, causas con efectos, etc. Uno de los aspectos se coloca en las filas de la matriz, y el otro en las columnas. En la celda que resulta de la intersección de ambas se coloca generalmente un símbolo que suele representar el grado de relación existente: fuerte, media o débil. Esto nos permite tener referencia del grado de vinculación o conexión que existe entre ambos aspectos.
Con estos símbolos suele representarse el grado de vinculación entre aspectos.
De izquierda a derecha: relación fuerte o alta, relación media y relación débil o baja Matriz de Priorización Esta herramienta se utiliza para escoger entre varias opciones, en función de criterios predefinidos y de manera ponderada. El grupo de trabajo es quien determina cuáles son las opciones disponibles y qué criterios se tendrán en cuenta. Estos criterios deben ser diferentes entre sí. Es importante escoger un número prudente de criterios, sólo los más importantes, para reducir la complejidad del análisis. Tres o cuatro criterios suelen ser aceptables. Para elaborar una Matriz de Priorización, en primer lugar, se debe definir claramente el objetivo. Luego se deben determinar las opciones disponibles. A continuación, se deberán especificar los criterios sobre los cuales se decidirá. Seguramente no todos los criterios tienen igual importancia (igual "peso"). Por lo tanto, se deben ponderar los criterios para que no todos impacten de igual manera a la hora de tomar la decisión final. Diagrama de Proceso de Decisiones
Es una herramienta, también conocida por las siglas PDPC (Process Decision Program Chart) muy útil para detectar posibles obstáculos o inconvenientes al implementar un plan de acción, permitiéndonos tomar decisiones a tiempo para solucionarlos. Se parte desde la actividad inicial y se va descendiendo. En primer lugar encontramos a las fases, que son las tareas fundamentales que deben realizarse para alcanzar el objetivo. De cada una de ellas se plantean problemas que puedan surgir (problemas potenciales) los cuales aparecen en el nivel inmediato inferior. Para cada problema se determinan medidas para contrarrestarlos. Las medidas aparecen en el nivel inferior. Si la medida es efectiva, se coloca un círculo (O) debajo. Si no lo es, una cruz (X). Se implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas
El Diagrama de Flechas se utiliza para representar de manera gráfica una red compuesta por la secuencia lógica de las actividades que se precisan realizar para resolver un problema o alcanzar una meta. Nos permite, por ejemplo, determinar posibles "cuellos de botella" o hallar los caminos más cortos. Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar claramente cuál es el objetivo del uso de la herramienta y definir los límites y el alcance. Los eventos o situaciones son representados por círculos y las actividades necesarias para pasar de un evento a otro, por flechas.
3.2 LAS 5’ S. Es una práctica de Calidad ideada en Japón referida al “Mantenimiento Integral” de la empresa, no sólo de maquinaria, equipo e infraestructura sino del mantenimiento del entorno de trabajo por parte de todos.
En Ingles se ha dado en llamar “housekeeping” que traducido es “ser amos de casa también en el trabajo”. Las Iniciales de las 5 S: JAPONES CASTELLANO Seiri Seiton Seiso Seiketsu Shitsuke
Clasificación y Descarte Organización Limpieza Higiene y Visualización Disciplina y Compromiso Es una técnica que se aplica en todo el mundo con excelentes resultados por su sencillez y efectividad. Su aplicación mejora los niveles de: Calidad. Eliminación de Tiempos Muertos. Reducción de Costos. La aplicación de esta Técnica requiere el compromiso personal y duradera para que nuestra empresa sea un auténtico modelo de organización, limpieza , seguridad e higiene. Los primeros en asumir este compromiso son los Gerentes y los Jefes y la aplicación de esta es el ejemplo más claro de resultados acorto plazo. Resultado de Aplicación de las 5 S Estudios estadísticos en empresas de todo el mundo que tienen implantado este sistema demuestran que: Aplicación de 3 primeras S : -Reducción del 40% de sus costos de Mantenimiento. -Reducción del 70% del número de accidentes. -Crecimiento del 10% de la fiabilidad del equipo. -Crecimiento del 15% del tiempo medio entre fallas. ¿QUÉ BENEFICIOS APORTAN LAS 5S? La implantación de las 5S se basa en el trabajo en equipo. Los trabajadores se comprometen. Se valoran sus aportaciones y conocimiento. LA MEJORA CONTINUA SE HACE UNA TAREA DE TODOS. Conseguimos una MAYOR PRODUCTIVIDAD que se traduce en: Menos productos defectuosos. Menos averías. Menor nivel de existencias o inventarios. Menos accidentes. Menos movimientos y traslados inútiles. Menor tiempo para el cambio de herramientas.
Lograr un MEJOR LUGAR DE TRABAJO para todos, puesto que conseguimos: Más espacio. Orgullo del lugar en el que se trabaja. Mejor imagen ante nuestros clientes. Mayor cooperación y trabajo en equipo. Mayor compromiso y responsabilidad en las tareas. Mayor conocimiento del puesto. Seiri (selección): Distinguir entre aquellas cosas que se necesitan y aquellas que pueden esperar. Seiton (organización): Organizar las cosas para que luego sea más fácil encontrarlas. Seiso (limpieza): Disponer de un sitio de trabajo limpio, cómodo y debidamente ordenado. Seiketsu (Estandarización): Mantener las 3 primeras s (selección, organización y limpieza). Shitsuke (hábitos): Disciplina, constancia; realizar las acciones correctas como parte de nuestra rutina.
3.3 MEJORA CONTINUA (KAIZEN) El término Kaizen es de origen japonés, y significa "cambio para mejorar", lo cual con el tiempo se ha aceptado como "Proceso de Mejora Continua". La traducción literal del término es:
KAI: Modificaciones ZEN: Para mejorar
El principio en el que se sustenta el método Kaizen, consiste en integrar de forma activa a todos los trabajadores de una organización en sus continuos procesos de mejora, a través de pequeños aportes.
La implementación de pequeñas mejoras, por más simples que estas parezcan, tienen el potencial de mejorar la eficiencia de las operaciones, y lo que es más importante, crean una cultura organizacional que garantiza la continuidad de los aportes, y la participación activa del personal en una búsqueda constante de soluciones adicionales. La experiencia de implementación de la filosofía Kaizen en occidente nos permite concluir que las principales restricciones para su introducción son de carácter cultural, tanto en el caso de las convicciones personales de los trabajadores, como en la estructura organizacional de las compañías de occidente. Una compañía que quiera desarrollar una metodología Kaizen deberá cumplir con las siguientes condiciones: Alto compromiso de la dirección de la empresa (Creación de escenarios de participación) Alta receptividad y perspectiva respecto a nuevos puntos de vista y aportes Alta disposición de implementar cambios Actitud receptiva hacia errores identificados durante el proceso Alta valoración del recurso humano Disposición de elaboración de estándares (garantía para no depreciar las mejoras) En la práctica la metodología Kaizen, y la aplicación de sus eventos de mejora se lleva a cabo cuando: Se pretende redistribuir las áreas de la empresa. Se requiere optimizar el tiempo de alistamiento de un equipo o un proceso. Se requiere mejorar un atributo de calidad. Se pretende optimizar el ciclo total de pedido. Se requieren disminuir los desperdicios. Se requieren disminuir los gastos operacionales. Se requiere mejorar el orden y la limpieza. Los anteriores son tan solo algunos ejemplos de los casos en los cuales aplica la ejecución de un evento Kaizen. Para la implementación de una filosofía kaizeno un Proceso de Mejora Continua, deben aplicarse como mínimo cuatro principios fundamentales, estos son:
Optimización de los recursos actuales: La tendencia de las organizaciones que pretenden alcanzar una mejora es a dotarse de nuevos recursos. Para implementar Kaizen el primer paso consiste en un análisis profundo del grado de utilización de los recursos actuales, del mismo modo que se buscan alternativas para mejorar el uso y el funcionamiento de estos. Rapidez para la implementación de soluciones: Sí las soluciones a los problemas que se han identificado se fijan a plazos largos de ejecución, no estamos practicando Kaizen. Un principio básico del Kaizen es la de minimizar los procesos burocráticos de análisis y autorización de soluciones; en caso de que los problemas sean de sustantiva complejidad, Kaizen propone desgranar el problema en pequeños hitos de sencilla solución. Criterio de bajo o nulo costo: El Kaizen es una filosofía de mínima inversión que complementa la innovación, de ninguna manera estimula que un parámetro de gestión se mejore mediante el uso intensivo de capital dejando de lado la mejora continua. Las alternativas de inversión que propone se centran en la creación de mecanismos de participación y estímulo del personal. Participación activa del operario en todas las etapas: Es fundamental que el operario se vincule de forma activa en todas las etapas de las mejoras, incluyendo la planificación, el análisis, la ejecución y el seguimiento. El primer mito que desestima el Kaizen es aquel de que "Al operario no se le paga para pensar". Esta filosofía que parece apenas solidaria e incluyente tiene aún más fundamentos, y se sustenta en que es el operario el mejor sabedor de los problemas atinentes a la operación con la que convive. METODOLOGÍA DEL KAIZEN
Antes de abordar la metodología Kaizen, la organización ya ha tenido que haber definido su firme intención, por parte de la dirección, para el desarrollo de actividades de mejora continua. Una vez se ha superado esta etapa, la siguiente consiste en un diseño instruccional para inculcar el espíritu Kaizen al personal desde la formación. Una vez esto se vaya desarrollando y ya teniendo un líder responsable de la filosofía dentro de la compañía, se procede con la herramienta de reconocimiento de problemas, que
siempre es un buen punto de origen para implementar un proceso de mejora continua.
Para tal fin existen herramientas como el ciclo de Deming o PDCA, o herramientas como MOVE WorkShop. Explicaremos en este caso el ciclo sistemático de Deming. 1. Planificar (Plan) Esta etapa es de selección del objeto de mejora, en ella se explican las razones de dicha elección y se definen unos objetivos claros que se deben alcanzar. Situación actual Análisis de información (Datos del objeto) Objetivo 2. Hacer (Do) Esta etapa corresponde al trabajo de campo de la mejora, consiste en propuestas de solución y rápida implementación de las mejoras de mayor prioridad. Los pasos que se incluyen en el hacer son: Propuestas de solución Just Do It Verificar (Check) En esta etapa se debe comprobar el objetivo planteado en el plan respecto a la situación inicial que se identificó. Por ende comprobamos que se estén alcanzando los resultados o en caso contrario volveremos al Hacer. Este paso incluye: Monitorización Verificación Actuar (Action) Esta es una etapa fundamental en la mejora continua, dado que asegurarnos de que las mejoras no se deprecien depende del estándar u oficialización de las medidas correctivas. Para proceder a la estandarización debemos haber comprobado que las medidas han alcanzado los resultados esperados, además, debemos plantearnos siempre la posibilidad de seguir mejorando el objeto de análisis.
Estandarización Búsqueda de la optimización
La metodología Kaizen nos enseña a no subestimar el impacto de lo simple. La suma de pequeños aportes constituye una gran mejora.
3.4 SIX SIGMA. Six sigma o seis sigma, como es conocida en español, es una filosofía de trabajo que nació como una metodología de mejora y solución de problemas complejos. Su creador fue el doctor Mikel Harry, el cual la desarrolló como una herramienta de control y disminución de la variación en los procesos. A partir de ese entonces su concepto ha evolucionado a través de múltiples aportes hasta convertirse en una filosofía puesta en práctica en los procesos de más alto desempeño. En el ámbito organizacional fueron Motorola, General Electric y Honeywell quienes popularizaron la metodología, con participación activa de su creador. Conceptualmente, six sigma puede tener diversos significados; para efectos prácticos nos centraremos en dos:
Desde un punto de vista estadístico: Six sigma es una métrica que permite medir y describir un proceso, producto o servicio con una capacidad de proceso extremadamente alta (precisión del 99,9997%). Six sigma significa "seis desviaciones estándar de la media", lo cual se traduce matemáticamente a menos de 3,4 defectos por millón.
Lo anterior significa que un proceso que implemente six sigma dejará de utilizar el promedio como métrica para evaluar los resultados globales; en cambio utilizará la desviación estándar, la cual representa la variación de un conjunto respecto a su media, de manera que el proceso deberá cumplir de forma "consistente" con las especificaciones de calidad, cambiando el paradigma de promediar buenos y malos resultados.
Desde un punto de vista estratégico: Six sigma es una filosofía (estrategia y disciplina) que ajusta los procesos con la mínima tolerancia posible como una forma de reducir los desperdicios, los defectos y las irregularidades tanto en los productos como en los servicios. Estrategia: se enfoca en la satisfacción del cliente. Disciplina: Sigue un modelo formal y sistemático de mejora continua, DMAIC. El principal propósito del Six sigma es lograr la satisfacción de los clientes, en ese orden se enfoca en comprender sus necesidades, recolectar información, y por medio de un análisis estadístico encontrar oportunidades de mejora, una mejora consistente.
Una vez implementado y logrado Six sigma el control de calidad se hace innecesario, dado que estamos hablando de procesos con los más altos niveles de desempeño, dado que Six sigma permite: Asegurar la calidad en cada puesto de trabajo (control innecesario). Formar personas capaces de mejorar la calidad. Asegura la sostenibilidad y rentabilidad de los negocios. Diseñar y desarrollar procesos, productos y servicios capaces. Principios de Six Sigma Debe capacitarse a todo el personal en Six sigma. La aplicación de Six sigma tiene un enfoque proactivo. Six sigma es una metodología sistemática y de herramientas estructuradas. Debe trabajarse desde las características críticas hasta asegurar todas las variables de lo procesos. (AMEF) En primer lugar se debe considerar que Lean Manufacturing y Six sigma son estrategias diferentes; mientras Lean Manufacturing tiene un enfoque orientado en la productividad, Six sigma tiene un enfoque orientado en la reducción de la variación. Lean Six Sigma es entonces un nuevo concepto, que algunos especialistas definen como: "Lean Seis Sigma trata sobre un mejoramiento continuo, incesante; análisis tras análisis, medida tras medida y proyecto tras proyecto. Lean causa que los
productos se muevan más rápido a través del proceso y Seis Sigma mejora la calidad". Tal como se ha precitado, Six sigma utiliza la metodología DMAIC (Define, Measure, Analyze, Improve, Control), que consiste en: DEFINIR Se define el proyecto a realizar, generalmente en función a propósito, alcance y resultados; o en función a problema, procesos y objetivos. Así entonces, el propósito y los objetivos del Six sigma serán reducir la tasa de defectos a menos de 3,4 por millón, en función del tiempo estimado para cada organización. Herramientas de apoyo: Diagramas matriciales, Diagramas Pareto, Mapas de procesos. MEDIR Se obtienen datos y mediciones del proceso. Es usual que esta fase se soporte en mapas de valor y observación. Deben medirse y documentarse aspectos claves, datos relevantes, contemplar todas las variables y los parámetros que afectan los procesos. Herramientas de apoyo: Diagramas de flujo, Mapas de proceso, Técnicas de muestreo, AMEF, QFD, Modelo de Kano, OEE, Nivel Sigma.
ANALIZAR Tal como afirma el especialista Oskar Olofsson: "Si las estadísticas no apoyan una relación causa y efecto, DMAIC de Six sigma no ofrece una solución."
En este paso los datos recabados en la medición se convierten en información; en esta fase deben identificarse a partir de las variables y los parámetros, las causas claves de los problemas.
Herramientas de apoyo: Mapas de valor, Diagramas de flujo, Diagramas de recorrido, Análisis de mudas, Ishikawa, Gráficas de control, Cpk, AMEF.
MEJORAR Según las causas principales de los problemas, deben modificarse o rediseñarse los procesos. Es clave involucrar al personal que se relaciona directamente con los procesos, esto constituye un paso fundamental en la continuidad de las mejoras.
Herramientas de apoyo: 5's, Ingeniería líneas, SMED, TPM, Kanban, Andon.
de
métodos, Balance
de
CONTROLAR Debe verificarse que se sostengan los resultados, esta fase es el principio de la mejora continua. Las mejoras en el proceso deben asegurarse de manera que se sostengan los niveles de desempeño, del mismo modo en que se adaptan mejoras incrementales a lo largo del tiempo.
Es vital implementar en esta fase sistemas de recolección de información de manera que permita contrastar constantemente los indicadores del proceso mejorado con los parámetros identificados en la fase "DEFINIR".
Herramientas de apoyo: Andon, POE's, LUP's, Capacitación.
3.5 OTRAS TECNICAS IMPORTANTES 3.5.1 REINGENERIA. La reingeniería es un enfoque administrativo de gran aceptación entre las empresas en la actualidad, el cual consiste en admistrar los procesos en vez de las funciones, rediseñando los procesos de la organización en vez de introducir pequeños cambios para llevar a cabo una mejora continua. “La reingeniería de procesos es, por definición, el método mediante el cual una organización puede lograr un cambio radical de rendimiento medido por el costo, tiempo de ciclo, servicio y calidad, por medio de la aplicación de varias herramientas y técnicas enfocadas en el negocio, orientadas hacia el cliente, en lugar de una serie de funciones organizacionales, Todas las personas deben
entender las metas finales, la manera de alcanzarlas y los indicadores que medirán el éxito”. De acuerdo a este enfoque, la empresa debe orientar sus esfuerzos hacia el logro de metas que consideren al cliente y sus criterios de valor. Para esto los indicadores de actuación que se establecen son:
Calidad. Tiempo de fabricación Costo. Servicio.
Algunos puntos básicos que se pueden resaltar de la reingeniería son los siguientes: La mejora continua es substituida por una mejora radical Se tiene una marcada orientación hacia el mercado, buscando que el producto o servicio ofrecido sea considerado como el mejor por los consumidores Los resultados son medidos a través factores externos como la participación de mercado Está orientada hacia los procesos básicos de la organización Cuestiona los principios, propósitos y supuestos de los negocios Permite que los esfuerzos del Just in Time (JIT) y el Total Quality Management (TQM) se vean incrementados. De acuerdo a Johansson, un aspecto muy importante del proceso de la desfuncionalización de proyectos es, el tener un panorama completamente nuevo acerca de los principales componentes de una organización, los cuales de acuerdo a Johansson, McHug, Pendlebury y Wheeler (los cuatro expertos de la reingeniería actual), pueden ser identificados como:
Tipos de Reingeniería de Procesos Son tres los tipos de reingeniería de procesos que pueden ser implementados por una empresa: Mejorar costos
Lograr “ser el mejor de su clase” Realizar un punto de innovación radical
Fuente: Johanson, et. al., Reingeniería de procesos de negocios , Ed. Limusa, México, 1994. El enfoque básico de la reingeniería de procesos se compone de tres fases: Fase 1. Descubrimiento:La empresa define una visión estratégica en busca del domino y de la competitividad renovada en el mercado, determinando la manera en que sus procesos pueden ser modificados con el fin de alcanzar la visión estratégica establecida. Fase 2. Rediseño: Se detalla, planifica y organiza el proceso de rediseño. Fase 3. Ejecución: Se lleva a cabo el rediseño para alcanzar la visión estratégica establecida. Algunas de las características principales de los procesos rediseñados a través de la reingeniería son los siguientes. Varios oficios o tareas son combinados en uno Los trabajadores toman decisiones como parte de su trabajo Los procesos se ejecutan en orden natural Los trabajos tienen múltiples versiones, las cuales son aplicadas de acuerdo a las circunstancias
El trabajo se lleva a cabo en el sitio razonable Los controles y verificaciones son reducidos La coalición se minimiza Un gerente de caso ofrece un solo punto de contacto Prevalecen las operaciones híbridas centralizadas – descentralizadas Como consecuencia de la implementación del rediseño de los procesos de una empresa, se pueden presentar los siguientes cambios: Las unidades de trabajo pasan de ser departamentos funcionales a equipos de proceso. Los oficios dejan multidimensional
de
ser
tareas
simples
para
convertirse
en
trabajo
Al trabajador se le otorgan las facultades necesarias para llevar a cabo su trabajo sin necesidad de ser supervisado. La preparación para el oficio cambia de entrenamiento a educación Las medidas de desempeño y compensación son los resultados sustituyendo a las actividades Los ascensos son otorgados en base a las habilidades, en vez de rendimiento Se dejan a un lado los valores proteccionistas, implantando valores productivos Los gerentes toman el rol de entrenadores en vez de supervisores Las estructuras organizacionales se aplanan, formando organizaciones menos complejas y con flexibilidad para adaptarse a los requerimientos cambiantes del ambiente Los ejecutivos dejan a un lado su búsqueda por el reconocimiento individual par asumir un papel de líder y motivador de los trabajadores del equipo
3.5.2 KANBAN. La metodología Kanban está ganando gran popularidad en corporaciones y empresas de todo el mundo como una manera de gestionar el trabajo de forma fluida…. Proveniente de Japón, Kanban es un símbolo visual que se utiliza para desencadenar una acción. A menudo se representa en un tablero Kanban para reflejar los procesos de su flujo de trabajo.
Kanban, representada por una tarjeta Kanban, se moverá a través de las diversas etapas de su trabajo hasta su finalización. A menudo se habla de él como un método de extracción, de forma que usted tira de sus tareas a través de su flujo de trabajo, ya que permite a los usuarios mover de sitio libremente las tareas en un entorno de trabajo basado en el equipo. Cuáles son los beneficios clave 1. Estímulo del rendimiento. Análisis profundo y estimaciones que permiten medir su rendimiento. Detección de cualquier problema existente y ajuste del flujo de trabajo para ganar en eficiencia. El método Kanban es muy flexible y le permite perfeccionar sus procesos para obtener los mejores resultados. 2. Organización y colaboración. La metodologia Kanban le permite beneficiarse del poder del enfoque visual, mediante el uso de columnas, carriles y tarjetas de colores. Usted será capaz de trabajar en el mismo tablero que su equipo y colaborar en tiempo real. Los tableros digitales Kanban le permitirán acceder a su flujo de trabajo desde cualquier sitio, compartir tareas con facilidad y comunicarse en su trabajo con sus colegas. 3. Distribución del trabajo. Una cómoda visión general de los trabajos en curso y menos tiempo dedicado a la distribución y presentación de los trabajos. Las estimaciones son imperfectas, por consiguiente, un flujo constante de tareas reducirá su tiempo de espera y el tiempo dedicado a la asignación de tareas. Usted selecciona sus tareas, por tanto no tendrá que esperar a que la tarea vaya hacia usted. 3.5.3 POKA YOKE. Poka-Yoke es una herramienta procedente de Japón que significa “a prueba de errores”. Lo que se busca con esta forma de diseñar los procesos es eliminar o evitar equivocaciones, ya sean de origen humano o automatizado. Este sistema se puede implantar también para facilitar la detección de errores. Si nos centramos en las operaciones que se realizan durante la fabricación de un producto, estas pueden tener muchas actividades intermedias y el producto final puede estar formado por un gran número de piezas. Durante estas actividades, puede haber ensamblajes y otras operaciones que suelen ser simples pero muy repetitivas. En estos casos, el riesgo de cometer algún error es muy alto, independientemente de la complejidad de las operaciones. Los “Poka-Yokes” ayudan a minimizar este riesgo con medidas sencillas y baratas.
Funciones de los sistemas Poka-Yoke El sistema Poka-Yoke puede diseñarse para prevenir los errores o para advertir sobre ellos: 1- Función de control: En este caso se diseña un sistema para impedir que el error ocurra. Se busca la utilización de formas o colores que diferencien cómo deben realizarse los procesos o como deben encajar la piezas. 2- Función de advertencia: En este caso asumimos que el error puede llegar a producirse, pero diseñamos un dispositivo que reaccione cuando tenga lugar el fallo para advertir al operario de que debe corregirlo. Por ejemplo, esto se puede realizar instalando barreras fotoeléctricas, sensores de presión, alarmas, etc.
¿Cómo implementar un sistema Poka Yoke a prueba de errores? Los tipos más comunes de Poka-Yoke son: – Un diseño que sólo permita conectar las piezas de la forma correcta. Si lo intentas encajar al revés o en un sitio equivocado las piezas no encajarán. – Códigos de colores. Por ejemplo en los conectores de los ordenadores, cada tipo de conexión tiene un color diferente para facilitar su montaje. – Flechas e indicaciones del tipo “a-> <-a“, “b-> <-b“… para indicar dónde va encajada cada pieza y cuál es su orientación.
Las ventajas usar un sistema Poka-Yoke son: Se elimina el riesgo de cometer errores en las actividades repetitivas (producción en cadena…) o en las actividades donde los operarios puedan equivocarse por desconocimiento o despiste (montaje de ordenadores…). El operario puede centrarse en las operaciones que añadan más valor, en lugar de dedicar su esfuerzo a comprobaciones para la prevención de errores o a la subsanación de los mismos. Implantar un Poka-Yoke supone mejorar la calidad en su origen, actuando sobre la fuente del defecto, en lugar de tener que realizar correcciones, reparaciones y controles de calidad posteriores. Se caracterizan por ser soluciones simples de implantar y muy baratas.
El concepto de Poka-Yoke tiene como misión apoyar al trabajador en sus actividades rutinarias. En el caso en que el dispositivo forme parte del funcionamiento de una máquina, es decir, que sea la máquina la que realiza las tareas, estaremos hablando de otro concepto similar: “jidoka” (automatización “con un toque humano”).
3.5.4 JUST TIME. Pues se entiende como just in time a la filosofía que busca la eliminación de todo lo que implique desperdició en el proceso de producción, desde las compras hasta la distribución. Se basa en que tanto el material intermedio como los productos acabados deben estar en su sitio justo cuando sea necesario y no antes. Además, la cantidad de material intermedio, como de producto terminado, debe ser la justa para satisfacer las necesidades del cliente. roducir bajo stock se considera un aumento en los costes de producción. Por tanto, es un modelo productivo que se basa principalmente en la gestión o aprovisionamiento de los materiales del sistema productivo a través de un sistema Pull, es decir, el material debe aportarse en el momento y la cantidad que son requeridos para su consumo. En la década de los 80, en occidente se empezaba a escuchar sobre las buenas prácticas que se implementan en las empresas japonesas. Se hablaba de su excelente calidad, su alta productividad y sus métodos de fabricación. Las empresas occidentales empezaron a analizar el éxito que estaban teniendo las principales empresas japonesas, encontrando puntos clave relacionados con el respeto por las personas y aspectos técnicos orientados a la eliminación del desperdicio. Hasta esa época, este método se conocía como el método japonés, pero que al ser estudiado para una propia implementación en los países de occidente, principalmente de Estados Unidos, pasó a recibir el nombre de just in time o justo a tiempo. Antes de encontrarse con el just in time, las empresas norteamericanas se habían dedicado a planificar la fabricación, a incrementar la automatización y producir en masa, restándole importancia a la calidad de sus productos. Lo único que buscaban era reducir el precio/hora de los productos en cada máquina, pero produciendo de esta forma, acumulaban mucho stock y
aumentaban los plazos de entrega, por lo que cada vez eran menos competitivas en un mercado cada vez más exigente y frente a la fuerte competencia japonesa. La filosofía justo a tiempo propone un punto de vista diferente:
Identificar y evidenciar el problema Eliminar desperdicios Simplificar la producción Centrarse en la demanda
Los objetivos de la implementación del just in time son: Reducir los niveles de stock produciendo justo la cantidad que nos indica la operación inmediatamente posterior Disminución de inventarios de productos intermedios al mínimo; así se detectarán cuellos de botella y permitirán su mejora. Simplificación de toda la tarea administrativa del aprovisionamiento. Conseguir un flujo de producción nivelado y equilibrado.
3.5.5 BENCHMARKING. El benchmarking es un proceso continuo por el cual se toma como referencia los productos, servicios o procesos de trabajo de las empresas líderes, para compararlos con los de tu propia empresa y posteriormente realizar mejoras e implementarlas. No se trata de copiar lo que está haciendo tu competencia, si no de aprender que están haciendo los líderes para implementarlo en tu empresa añadiéndole mejoras. Si tomamos como referencia a aquellos que destacan en el área que queremos mejorar y estudiamos sus estrategias, métodos y técnicas para posteriormente mejorarlas y adaptarlas a nuestra empresa, conseguiremos alcanzar un nivel alto de competitividad. TIPOS DE BENCHMARKING Existen diferentes tipos de benchmarking: competitivo, interno y funcional. El objetivo común de los tres tipos es ayudar a los managers a que miren hacia fuera de sus departamentos, de sus organizaciones, hacia su competencia o hacia otros sectores en las que hay compañías que son las mejores en su clase.
-Competitivo El benchmarking competitivo busca medir los productos, servicios, procesos y funciones de los principales competidores para realizar una comparación con nuestra empresa y poder detectar y llevar a cabo mejoras que superen a las de nuestros competidores. Quizás sea el más complicado de llevar a cabo de los tres tipos, puesto que el análisis y el estudio como ya he mencionado se realizan sobre los principales competidores. Al considerarse tu competencia directa, en la gran mayoría de los casos no están interesados en colaborar. ¿Esto quiere decir que si no colaboran no lo podamos llevar a cabo? Por supuesto que no, pero obviamente en la recopilación de los datos necesarios se deberán emplear más recursos, y por tanto será mucho más costosa.
-Interno El benchmarking interno se lleva a cabo dentro de la misma empresa. Se suele llevar a cabo en empresas grandes que cuentan con diferentes departamentos o también con grupos empresariales que están formados por varias empresas. En el proceso se identifica un departamento o área que sea un ejemplo a seguir por sus buenos resultados para poder llevar a cabo un benchmark con los demás departamentos internos de la compañía. Es el más fácil de realizar dentro de compañías con estructuras con un cierto tamaño, además normalmente es el que menos recursos necesita para llevarlo a cabo, ya que la información se obtiene de la propia empresa.
-Funcional El benchmarking funcional identifica las mejores prácticas de una empresa que sea excelente en el área que se quiere mejorar. No es necesario que esta empresa sea competidora o incluso que pertenezca al mismo sector. Normalmente es muy productivo, dado que al no tratarse de organizaciones que no son competidoras directas no existe un problema de confidencialidad y se suele ofrecer la información necesaria para el estudio.
ETAPAS DEL BENCHMARKING Para diseñar y hacer correctamente un proceso de benchmarking en tu empresa, recomiendo seguir los siguientes pasos: planificación, recopilación de datos, análisis, acción y seguimiento.
1.Planificación El objetivo principal de esta primera etapa es planificar la investigación que se va realizar. En esta etapa hemos de responder a tres preguntas: -¿Qué quiero medir? Toda investigación tiene que tener un porqué, y éste debe estar relacionado con un área de nuestra empresa que queremos mejorar.
-¿A quién voy a medir? Para responder a esta segunda pregunta hemos de plantearnos qué tipo de benchmarking vamos a seguir: competitivo, interno o funcional. Una vez hayamos tomado la decisión sabremos si nos compararemos con un departamento propio o con una empresa de dentro o fuera del sector. -¿Cómo vamos hacerlo? Para llevar a cabo el proyecto hemos de crear un equipo de trabajo para que sea responsable de la organización y de la dirección del mismo.
2. Datos La recopilación de datos es fundamental para el benchmarking, de ello dependerá en gran medida el éxito o el fracaso de todo el proceso. Podemos obtener datos de diferentes fuentes: interna, asociaciones profesionales o investigaciones propias entre otras.
3. Análisis
Una vez hemos recopilado la información necesaria, hemos de analizar los elementos que causan las diferencias entre nuestra compañía y las empresas estudiadas, para poder identificar las oportunidades de mejora. Una vez hemos identificado la magnitud de las diferencias, es el momento de proponer las mejoras que vamos a llevar a cabo. Hay que tener en cuenta que únicamente seleccionaremos aquellas mejoras que por tamaño, recursos e infraestructura sea viable llevar a cabo por nuestra empresa.
4.Acción El siguiente paso después de analizar la información y de haber seleccionado los aspectos de referencia en las empresas seleccionadas, es el momento de adaptarlos a nuestra empresa pero siempre implementando mejoras. Dicho de otro modo, después de analizar la información y de lograr identificar los mejores aspectos de las empresas que hemos seleccionado, los tomamos como puntos de referencia para adaptarlos a nuestra empresa pero siempre añadiéndole alguna mejora o alguna ventaja que le aporte valor a nuestros clientes.
5.Seguimiento y mejora En esta última etapa se debe hacer un informe con toda la información destacada del proceso. Esto ayudará a retomar el trabajo en proyectos posteriores. La idea es que se convierta en un ejercicio de la empresa sostenido en el tiempo para adoptar una mejora continua.
EJEMPLOS DE BENCHMARKING Uno de los mejores ejemplos que se ha llevado a cabo en los últimos años, es el protagonizado por Starbucks. La inestabilidad económica y la apuesta por potenciar las ventas de café por parte de empresas de fast food como McDonalds, han hecho que Starbucks haya iniciado un proceso de benchmarking.
¿Qué decidieron mejorar para paliar esta situación? Uno de los aspectos vitales para su modelo de negocio es el tiempo de la preparación de sus cafés. Como hemos visto anteriormente, se necesita una empresa líder en quien fijarse para implementar posteriormente las mejoras. La empresa elegida: el fabricante automovilístico japonés Toyota. Sin duda un gran ejemplo a seguir en la optimización del tiempo de fabricación de sus productos. Al parecer el 30% del tiempo empleado en la preparación de los famosos cafés de Starbucks se pierde en el tiempo utilizado por los empleados en agacharse, andar o escoger los ingredientes. Después de realizar un análisis de los benchmarks, implementaron un plan de acción basado en la optimización de los procesos para preparar sus cafés, un rediseño del espacio de trabajo, junto con una nueva disposición de los utensilios y las maquinas necesarias para la preparación de sus productos. Aspectos aparentemente tan simples como acercar y mejorar la disposición de los ingredientes más utilizados en sus cafés, hicieron que se mejorara casi en un 20% el tiempo de elaboración de sus productos.
La compañía Xerox Corporation fue la primera empresa en utilizar el benchmarking. A principio de los años 80 empresas como Minolta, Ricoh o Canon entre otras irrumpieron en el mercado norteamericano de las fotocopias y de la gestión de la impresión con precios de venta al público que eran mucho más económicos que los propios costes de producción de Xerox. El problema era evidente. Para resolver esta situación Xerox decidió analizar métodos, procesos, materiales y productos de su afiliada japonesa Fuji – Xerox. El resultado indico que existía un gran retraso en todas las áreas estudiadas. Xerox pudo reaccionar rápido,
marcando nuevos objetivos y Kpis para realizar el seguimiento adecuado. En los siguientes años Xerox adoptó el benchmarking como estrategia de mejora continua. CONCLUSIONES ESPECÍFICAS 3ER PARCIAL. TÉCNICAS AVANZADAS DE CALIDAD Con el desarrollo de esta unidad aprendimos sobre las diversas técnicas que se pueden emplear para aumentar la calidad de los procesos, todas ellas muy diferentes pero cada una aporta un enfoque diferente que sin duda son de mucha ayuda y creemos que brindarán excelentes resultados siempre y cuando se adaptan a la situación correcta. Se analizó la técnica de las 5´s, que es una técnica japonesa inspirada en la mejora continua por medio de diversas aplicaciones y mejoras en 5 variables, al desarrollar y aplicar esta técnica se podrán obtener resultados en el aumento de la calidad basados en el método japonés. Otra técnica importante es la de la Mejora continua o Kaizen, en la cual tiene como propósito principal estar buscando constantemente fallas u oportunidades para mejorar los procesos y es por esto que en la búsqueda constante se pueden obtener grandes beneficios en cuanto a la mejora de los procesos y por ende mejores resultados en la calidad. A estas técnicas se suman muchas otras en las que destacan el Just Time, que significa, justo a tiempo en el cual se destacan el propósito y filosofía de terminar y realizar los procesos en su tiempo sin retrasos y esto con el fin de cumplir con los estándares previamente establecidos. Esta técnica se adapta en todo tipo de proceso, desde la recepción de la materia prima en almacén hasta el proceso de entrega al consumidor final. Concluimos que todas estas técnicas son de bastante utilidad para poder obtener una mejora en los resultados de los procesos y por consecuente tener una mejor calidad en los mismos.
CONCLUSIÓN GENERAL Consideramos que al desarrollar todos los tópicos incluidos en estas unidades temáticas, nos brindan los conocimientos necesarios y esperados para lo cual se elaboró dicho programa. Todos los temas se adaptan al propósito y obtenemos conocimientos bastos en cuanto a los procesos se refiere. Se abarcaron temas como la identificación y la importancia del papel que juega la calidad en los procesos, y como esta representa todo el trabajo y la planeación que se la da a la elaboración de dichos procesos y su ejecución.
Siempre buscando una mejora continua para poder elevar la calidad en cada proceso y obtener así mayor efectividad. También se pretende mitigar los errores y las causas de las cuales se deriva en pérdidas y a la falla en procesos, ya sea por variables internas a dicho proceso o a factores externos. Que de igual forma se le debe dar la misma prioridad para detectar los puntos flacos y trabajar en ellos para su correcta ejecución. Concluimos que son temas bastante interesantes y de los cuales se les puede sacar mucho provecho y sobre todo porque cuentan con un amplio campo de ejecución, lo cual nos da mayor versatilidad a la hora de salir al campo laborar y poseer conocimiento sobre todas estas técnicas y que sin duda podremos aplicarlas para dar mayores beneficios a la industria o a cualquier ámbito que la apliquemos. EJEMPLOS RESUELTOS. Ejercicio diagrama de Pareto.
SOLUCIÓN Y DIAGRAMA.
Ejercicio diagrama de Pareto.
Ejercicio diagrama de Pareto.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio grafica u
Ejercicio grafica u
Un operario inspecciona la calidad de unos circuitos impresos (arañazos, bandas incorrectas, grosor no uniforme, etc.). Los circuitos que inspecciona son muy diversos. Según el tipo de circuito se apunta su superficie y el número de defectos. Tras inspeccionar 12 placas obtiene los datos de la tabla. Superficie cm2
50 50 34 38 54 22 22 25 50 34 34 38
Nº de defectos
4
3
4
4
4
3
5
3
4
2
2
4
El número total de defectos es 42 y la superficie total 451cm2. Por tanto
Ejercicio grafica u
Grafica p
Grafica p Una empresa inspecciona un artículo eléctrico tomando muestras de 100 unidades cada vez. Si bien se verifican 5 características relevantes de la calidad, finalmente cada artículo se clasifica como aceptable o defectuoso. Las últimas 25 muestras aplicadas muestran los siguientes resultados:
Primero se calcula el promedio de unidades defectuosas, lo cual determina la línea central de la gráfica de control y se obtiene como el promedio de los porcentajes de defectuosos de cada muestra. En nuestro ejemplo el promedio de defectuosos o no conformantes se obtiene de la siguiente forma: p = (4% + 3% + 5% + .......... + 2% + 2%)/25 = 3,6%
Grafica p Todos los días se tomaban muestras de las formas llenas, de un departamento en particular, en una compañía de seguros para revisar la calidad del desempeño de ese departamento. Con el fin de establecer una norma tentativa para el departamento, se tomó una muestra de 300 unidades al día (n=300) durante 10 días, obteniendo los siguientes resultados: Desarrolle una gráfica de proporciones o gráfica p utilizando un intervalo de confianza de un 90% para las 10 muestras recolectadas.
EJEMPLOS SIN RESOLVER FIAGRAMA DE PARETO.
Para el siguiente análisis de caso, se considera un proceso de producción que se encuentra afectado por la siguientes causas:
Fluctuaciones de energía Inestabilidad de la máquina Rotación frecuente del operador Rotación frecuente de la máquina Cambios ambientales cíclicos Cansancio o fatiga del operador
Partida fría Error de medición Desviación del material Desgaste del equipo GRAFICAS DE CONTROL Todos los días se tomaban muestras de las formas llenas, de un departamento en particular, en una compañía de seguros para revisar la calidad del desempeño de ese departamento. Con el fin de establecer una norma tentativa para el departamento, se tomó una muestra de 300 unidades al día (n=300) durante 10 días, obteniendo los siguientes resultados: Desarrolle una gráfica de proporciones o gráfica p utilizando un intervalo de confianza de un 90% para las 10 muestras recolectadas. ¿Qué comentarios puede hacer sobre el proceso?. ¿Qué sucede ahora si los límites de control se definen a un σ del promedio de defectos?.
CASOS PRACTICOS. APLICACIÓN DEL MODELO DE EXPERIMENTACION TAGUCHI EN UN INGENIO AZUCARERO DEL VALLE DEL CAUCA RESUMEN El presente artículo muestra los resultados de la investigación en la cual se aplicó la metodología Taguchi del diseño experimental en la planta de producción de un ingenio azucarero del Valle del Cauca. Este trabajo destaca la importancia que tiene el Diseño Experimental como herramienta estadística para el mejoramiento de procesos productivos, que va más allá del simple monitoreo impuesto por las técnicas de control estadístico de procesos, sin desmeritarlas como herramientas útiles para controlar su rendimiento. PALABRAS CLAVES: Análisis de varianza, Análisis de Residuales, Diseño Experimental, Diseños Fraccionados, Efecto, Factores Controlables, Factores Incontrolables, Interacción y Ortogonal. 1. INTRODUCCIÓN
Una herramienta que permite el mejoramiento tanto de los productos como de procesos con el objetivo de que los bienes producidos se adecuen de la mejor manera posible a las exigencias del mercado es el Diseño de Experimentos, campo cuyo pionero fue Ronald A. Fisher, matemático y actuario, quien en 1919 realizó los primeros avances en este campo en la agricultura. Los métodos estadísticos y las técnicas de diseños experimentales con aplicaciones a problemas industriales fueron desarrollados principalmente en Estados Unidos y Gran Bretaña por científicos del área aplicada (según Lawson. Madrigal y Erjavec, 1992). Una de las ventajas de estos métodos es que permite el estudio de diferentes variables simultáneamente. Además, son empíricos y no requieren la definición de modelos matemáticos para describir situaciones físicas. En lugar de eso, involucran planes de experimentos con procedimientos definidos que agilizan la determinación de soluciones e interpretación de datos. Un experimento es una prueba o ensayo. El experimento diseñado es una prueba o serie de pruebas en las cuales se inducen cambios deliberados en la variable de entrada de un proceso o sistema, de manera que sea posible observar e identificar las causas de los cambios en la respuesta de salida (según Montgomery, 1996). Un proceso o sistema puede ser representado por medio de una caja negra .
En la figura 1, se observa la existencia de factores controlables X1, X2 ,..... , Xi; factores no controlables Z1, Z2 ,..... , Zi (aunque pueden ser controlables para los fines del experimento); entradas y una respuesta o salida del sistema. Entre los objetivos del experimento pueden incluirse: • Determinar cuáles variables (factores) tienen mayor influencia en la salida del proceso (Y). • Determinar el mejor valor de las X que influyen en la salida del proceso, de manera que Y tenga un valor cercano al valor deseado. • Determinar el mejor valor de las X que influyen en Y de modo que su variabilidad sea pequeña.
• Determinar el mejor valor de las X que influyen en Y, de modo que se minimicen los efectos de los factores no Controlables Z. A continuación se expone la aplicación de un modelo Taguchi con el objetivo de observar el comportamiento del proceso de extracción de jugo dulce en un ingenio azucarero. 2. METODOLOGIA TAGUCHI El Diseño de Experimentos es una herramienta que también puede llegar a ser usada en las etapas de diseño de productos y procesos con el objetivo de minimizar la variación del desempeño de éstos en manos de los consumidores finales con respecto a los factores ambientales como medio para mejorar la calidad. La idea de diseñar productos y procesos cuyo desempeño sea insensible a las condiciones ambientales (robustez del sistema) y realizar esto en las etapas de diseño a través del uso de Diseño de Experimentos ha sido la piedra angular de la metodología Taguchi. Las fortalezas de la metodología de Taguchi son las siguientes: • Enfatiza en la calidad durante la etapa del diseño del proceso. • Reconoce la importancia relativa de los factores que influyen en el desempeño de los productos o procesos. • Enfatiza en la reducción de la variabilidad, por medio del uso de la función de pérdida y de la razón señal-ruido (existiendo una para cada objetivo que se quiera lograr con el experimento). • Se concentra en el concepto de diseño de parámetros que sirvan para disminuir la variabilidad en el desempeño de los productos. • También puede ser utilizada para el mejoramiento de procesos y productos ya existentes. El modelo de Taguchi enfatiza la importancia de evaluar el desempeño bajo condiciones de campo como parte del proceso de diseño y el hecho que la variación funcional en el desempeño está influenciada por los factores de ruido los cuales varían en el ambiente en el que los procesos o productos están funcionando. La filosofía Taguchi está basada en un modelo aditivo de los efectos principales para la cual, la presencia de interacciones es algo indeseable y en caso que en el proceso se encuentre una relación de este tipo esta es tomada como parte del error experimental (Fowkles Y Creveling, 1995). Por consiguiente, la filosofía Taguchi está basada en un modelo como el expresado en los siguientes términos: Y= 0 + 1 x1 + 2 x2 + 3 x3 +.....+ k xk (1)
En la expresión anterior se puede observar la aditividad dejada de manifiesto en ésta metodología y la no presencia de interacciones bajo la cual se ampara el método de diseño experimental propuesto por Taguchi. Otra característica clave de esta metodología son los arreglos ortogonales, los cuales no son más que arreglos factoriales fraccionados en los que se basa como medio para la realización del experimento, así como la utilización de una medida de variabilidad denominada razón señal ruido (S/N) para la realización del análisis de resultados. 3. DESCRIPCION DEL PROCESO En esta sección se realiza una descripción general del proceso de producción de azúcar en un Ingenio, en el cual se aplicó la metodología antes descrita con el fin de lograr un aumento en el nivel de extracción de la fábrica.
Preparación de la Caña: El objetivo de esta etapa es convertir la caña entera en un material formado por pedazos cortos y pequeños, generando una masa compacta que cae fácilmente a la tolva de alimentación o Donelly y que el primer Molino tomará sin dificultad absorbiéndola de manera continua.
Molienda: En esta etapa del proceso, la caña sufre un trabajo de compresión por parte de seis molinos en línea produciéndose de esta manera la extracción del jugo de la caña de azúcar.
Clarificación: En esta etapa, el jugo que es extraído en el proceso de molienda es limpiado mediante la combinación de diferentes técnicas. Evaporación: En la etapa anterior del proceso se produjo jugo claro. Este jugo es una mezcla de azúcar disuelta en agua en presencia de algunas impurezas. Cuando se ha quitado ya la mayor cantidad de éstas, resta eliminar el agua. Clarificación y Centrifugación: El proceso de cristalización es llevado principalmente en los tachos1 , en los que a través de una adecuada combinación de vacío y temperatura, se promueve la concentración, formación y crecimiento del grano en el jarabe proveniente de la evaporación. En la centrifugación, se procede a la separación de la solución altamente viscosa formada por las mieles con alta concentración de azúcar, aprovechando la fuerza centrífuga generada en centrifugas de altas velocidades de giro. Refinación: En esta etapa del proceso se refina el tamaño y la pureza del grano presente en el licor proveniente de la etapa de cristalización y centrifugación. Secado y Empaque: El azúcar comercial que sale de las centrífugas de refina con una humedad aproximada del 1%, muy alta debido a que sí el azúcar se almacena en estas condiciones se ve perjudicada la calidad final del producto. Por lo tanto se hace necesario el secado del azúcar para disminuir su contenido de humedad hasta niveles manejables (< 0.03%), con el objetivo de garantizar su conservación. Esta investigación se concentró principalmente en el comportamiento de la eficiencia de extracción del primer molino, que mostraba un rendimiento del 57.5 %, debido a que mediante su incremento se lograría impulsar la extracción global del tándem2 de molienda, que alcanzaba un 95.1%, lo que se vería reflejado en un aumento en 27.000 quintales de azúcar de la producción del ingenio en el periodo enero-septiembre de 2005, generando ingresos adicionales de US$ 490.000 en ese periodo. 4. FACTORES EXPERIMENTALES Antes de entrar de lleno al análisis de los resultados experimentales es importante realizar una breve descripción de los factores estudiados. Se realizó una primera fase experimental, en la cual se analizaron tres variables ruido que se sospechaban tenían gran influencia en la extracción del molino 1, estas variables fueron: (a) Variedad de caña; (b) Tipo de corte; y (c) Materia extraña. De este primer análisis se concluyó que la variable ruido más significativa era el Tipo de corte de la caña al momento de ser alimentado el tándem de molienda.
(b) En la segunda fase experimental se involucraron el ajuste del molino 1; la presión hidráulica en los cabezotes del molino 1 y las velocidades de las picadoras I y II, junto con el Tipo de corte como variable ruido más importante, en un gran experimento que serviría como herramienta de mejoramiento del proceso de molienda. 5. EXPERIMENTACION CON EL METODO TAGUCHI A continuación se analizan los resultados obtenidos en la aplicación de la metodología Taguchi en el proceso de molienda del Ingenio azucarero en el Valle del Cauca, tomando como variable respuesta la extracción del molino 1 del tándem de molienda 2, involucrando en la experimentación el tipo de corte como variable ruido, según lo encontrado en la anterior fase de experimentación. Se seleccionó un arreglo ortogonal L9 para la matriz interna, permitiendo estudiar máximo cuatro factores a tres niveles cada uno, utilizando la técnica del falso nivel para permitir involucrar un factor a dos niveles en una columna desarrollada para estudiar factores a tres niveles (Fowkles y Creveling, 1995), y un arreglo compuesto de solo dos corridas para la matriz externa. En la Tabla 1 se observan los factores estudiados, sus respectivos niveles y el código con que se identificarán en esta sección.
6. CONCLUSIONES La técnica de experimentación aquí analizada, es una herramienta que muestra mucha más efectividad que el seleccionar al azar niveles de los factores, observando qué sucede y si se logra un mejoramiento al fijar los niveles de los factores analizados en estos puntos de operatividad Si por el contrario se observa una disminución en la eficiencia del proceso se retorna a los niveles de los factores a los rangos originales o se cambian a otros niveles de operatividad buscando un incremento del rendimiento del sistema, metodología de mejoramiento ampliamente usada en el Ingenio antes de la realización de este estudio debido a que brinda más altos niveles de entendimiento de los procesos productivos en los que son aplicados y por ende generan herramientas para alcanzar un más alto rendimiento de éstos. Es de suma relevancia en esta metodología el tratamiento que se hace por separado de los factores controlables e incontrolables con el objetivo de buscar los niveles de los primeros que vuelvan al sistema menos insensible a cambios en los segundos.
Casos Prácticos de Calidad en la Producción Cartográfica Bloque 1: Mejora de la Calidad Caso 2: Utilización del diagrama de Pareto
Total de casos de cada tipo de problema detectado en el lote Tipo de problema Casos 1 - No pasa el control de calidad posicional en Y. 81
2 - Problemas de cruces entre curvas de nivel. 3 - Errores en la rotulación de los cultivos. 4 - Errores en la ubicación de topónimos. 5 - Ausencia de topónimos. 6 - No pasa el control de calidad posicional en X. 7 - Errores en los rótulos de las vías de comunicación. 8 - Problemas en el título y el número de hoja. 9 - Problemas de rotulación de la cuadrícula de coordenadas. 10 - Errores en la rotulación de municipios. 11 - Desplazamiento en la ubicación de la leyenda.
51 31 24 19 13 8 7 5 4 2
Distribución de los problemas detectados en el lote Nº de mapas Tipo de problema encontrado 1 2 3 4 5 6 7 8 9 10 11 38 x 17 x 10 x 3 x 6 x 5 x 4 x 5 x 2 x 2 x 1 x 18 x x 7 x x 6 x x x 6 x x 5 x x x 3 x x x x 3 x x x x 2 x x 2 x x x x 2 x x x
1 1 1 Total casos
x x x
x x
81
51
x
x x
x x
x x x
x x
x x
x x
x x
de 31 24 19 13 8
7
5
4
2
Ejercicios 1.- Durante una semana se ha medido diariamente el contenido de humedad correspondiente a 24 paquetes de un determinado producto, tomados al azar a la salida de una línea de envasado. Los resultados obtenidos son :
Indicar que conclusiones se pueden obtener a partir de estos datos. 2.- Construir los diagramas causa-efecto para los siguientes efectos: a) llegar tarde al trabajo b) suspender un examen c) derrota en una competición deportiva 3.- En un diagrama causa-efecto aparece la temperatura de la matriz de una prensa como posible causa de la aparición de poros en el producto. Para confirmarlo, se recogen datos de 50 prensadas y se realiza un diagrama bi variante entre la temperatura (T) y el numero de poros obtenidos (P). Indique cuales serian las conclusiones obtenidas al realizar el test de correlación de ishikawa en cada uno de los siguientes casos.
4.- Hace unos años en una revista editada en la Escuela Técnica, aparecía una nota de la Dirección de la Escuela en la que se informaba que en el primer parcial de ese curso se había gastado el 75% de todo el papel de examen que se necesito en el curso anterior. Se incluía también la siguiente tabla:
Desde el punto de vista de la economía de la escuela y con el único objetivo de disminuir al máximo el consumo de papel, si solo se pudiera llamar la atención a un departamento. Cual habría escogido usted? Justifique su respuesta realizando el grafico que le parezca mas adecuado. 5.- El numero de piezas defectuosas detectadas en un mes debido a diversas causas es el que se muestra a continuación: Se realiza una modificación para intentar reducir el numero de piezas defectuosas y se obtienen los siguientes resultados..
Realice un grafico que ponga en manifiesto los efectos de la modificación introducida. 6.- (univ)Un equipo de proyecto estudia el costo que implican las descomposturas en una línea para embotellar bebidas refrescantes. El análisis de datos en miles de dólares correspondientes a un periodo de tres meses son: regulador de presión, 30; ajuste del gusano de alimentación, 15; atoramiento de la cabeza de cobre, 6; perdidas de enfriamiento, 52; reemplazo de válvula, 8; otras 5, Construya el diagrama de Pareto y analice la información. 7.- (univ) Una supervisora de mantenimiento de aeronaves realizo una inspección en una entrega reciente de pernos por parte de un nuevo proveedor. Para ello envió 25 de estos pernos a un laboratorio de pruebas para determinar la fuerza necesaria para romper cada uno de los pernos. A continuación se presentan los resultados en miles de libras-fuerza. 147.8 137.4 125.2 141.1 145.7 119.9 133.3 142.3 138.7 125.7 142.0 130.8 129.8 141.2 134.9 125.0 128.9 142.0 118.6 133.0 151.1 125.7 126. 3 140.9 138.2 A)
Que fracción de los pernos soporto al menos 120.000 libras-fuerza? que fracción de los pernos soporto al menos 150.000 libras-fuerza? B) Si la supervisora sabe que estos pernos, cuando se utilicen es una aeronave, se verán sujetos a fuerzas de hasta 140.000 libras-fuerza, Que fracción de la muestra se romperá estando en uso? Que debería recomendar la supervisora a la compañía con respecto al nuevo proveedor de pernos?
JUST TIME Caso de aplicación en la industria alimenticia (Fast Food)
Vamos a referirnos a la muy popular marca de comida rápida McDonald’s, la cual aplica el concepto de JIT debido a que no empieza a cocinar sus órdenes hasta que un cliente ha realizado un pedido específico. Los principales beneficios de McDonald’s son mejores alimentos a un costo menor.
Por un lado, la mejora en la calidad viene dada por una hamburguesa fresca, la cual es mucho más sabrosa. Recordemos que en el viejo esquema de McDonald’s, las hamburguesas estaban pre-cocidas a la espera del pedido de un cliente. Con la aplicación del JIT, esto logra modificarse, permitiendo a la empresa contar con productos de mayor calidad. Además, dado que ahora esperan el pedido concreto del cliente antes de empezar a preparar la orden, los empleados no entran en pánico ante un requerimiento fuera de lo esperado (como una hamburguesa sin condimentos). Por último, el JIT permite a McDonald´s adaptarse a la demanda un poco mejor: dado que pueden producir hamburguesas en un tiempo récord, no deben preocuparse por tener gran stock de seguridad.
Por otro lado, la disminución de los costos viene de reducir la cantidad de productos deteriorados. Antiguamente y, debido a la gran cantidad de hamburguesas prefabricadas que tenían para satisfacer el requerimiento propio de “comida rápida”, se tiraba gran parte de los productos por superar la vida útil (una hamburguesa debe venderse en 15 minutos o menos). Esas hamburguesas desperdiciadas elevaban el precio de las vendidas para compensar los costos. Al aplicar el JIT, los costos se reducen notablemente.
El otro aspecto de JIT es la drástica reducción de existencias de seguridad. Este stock de seguridad viene dado por dos factores: la variabilidad de la demanda y la variabilidad de plazos de proveedores (en el caso de McDonald’s, el proveedor es el proceso de producción interna). McDonald’s logra esta reducción mediante la creación de un sistema que permite una producción más rápida de hamburguesas. A su vez, se reduce el tiempo necesario para satisfacer la demanda al estandarizar la producción.
POKA YOKE EJEMPLOS EN LAS EMPRESAS
Alarmas. Por cuestiones de seguridad, es muy frecuente encontrarse con alarmas visuales o sonoras que evitan poner en peligro a los trabajadores. El detector de humo es un claro ejemplo.
Listas de chequeo. Son ideales para seguir los procesos de la manera adecuada, las listas de chequeo es un Poka Yoke de clasificación de secuencia.
Topes. Aquí entra el ejemplo que mencioné anteriormente, regularmente son elementos físicos que ayudan de recordatorio del uso de cierta herramienta. Previniendo los errores por olvido o falta de conocimiento. PASOS PARA IMPLEMENTAR UN POKA YOKE
Detección del problema. Si notas que en cierto procedimiento se cometen errores muy seguido, o estos errores salen caros para la empresa, es posible que se pueda implementar un Poka Yoke
Llegar a la raíz del problema. Se realiza una investigación para saber la causa original del problema y saber a dónde atacar.
Diseñar un Poka Yoke. Se presenta la propuesta, la herramienta que corregirá el problema de forma definitiva.
Probar y verificar el correcto funcionamiento. Es momento de hacer varias pruebas para checa que si se haya solucionado el defecto.
Capacitación. Es necesario una capacitación a todos los involucrados con el Poka Yoke implementado para enseñar el nuevo procedimiento.
Revisión constante. Por último, se recomienda hacer inspecciones periódicamente para checar que no se volvieron a presentar fallas y que también las personas le estén dando buen uso.
CONCLUSIONES GENERALES Consideramos que al desarrollar todos los tópicos incluidos en estas unidades temáticas, nos brindan los conocimientos necesarios y esperados para lo cual se elaboró dicho programa. Todos los temas se adaptan al propósito y obtenemos conocimientos bastos en cuanto a los procesos se refiere. Se abarcaron temas como la identificación y la importancia del papel que juega la calidad en los procesos, y como esta representa todo el trabajo y la planeación que se la da a la elaboración de dichos procesos y su ejecución. Siempre buscando una mejora continua para poder elevar la calidad en cada proceso y obtener así mayor efectividad. También se pretende mitigar los errores y las causas de las cuales se deriva en pérdidas y a la falla en procesos, ya sea por variables internas a dicho proceso o a factores externos. Que de igual forma se le debe dar la misma prioridad para detectar los puntos flacos y trabajar en ellos para su correcta ejecución. Concluimos que son temas bastante interesantes y de los cuales se les puede sacar mucho provecho y sobre todo porque cuentan con un amplio campo de ejecución, lo cual nos da mayor versatilidad a la hora de salir al campo laborar y poseer conocimiento sobre todas estas técnicas y que sin duda podremos aplicarlas para dar mayores beneficios a la industria o a cualquier ámbito que la apliquemos.