UNIVERSIDAD NACIONAL ABIERTA RECTORADO DIRECCION DE INVESTIGACION Y POSTGRADO Maestría en Administración de Negocios
Actividad 2 Modelos de programación lineal
Autor: Robinson Bustillos Cedula: 23577688 CENTRO LOCAL: Centro metropolitano Maestría en administración de negocios
MARZO 2019
Introducción
El hombre se ha preocupado por la búsqueda de la mejor solución a la gran variedad de problemas a los que se enfrenta, dada la limitación de recursos humanos y materiales. Así vemos como, la construcción de las grandes ciudades y monumentos que se han realizado a lo largo de la historia en todas partes del mundo, han requerido de soluciones viables y factibles para poder construirlas.
Las soluciones a los problemas como los que se han mencionado anteriormente llegan a ser ineficientes conforme el hombre se enfrenta a nuevos y más complejos problemas por resolver, tal como el surgimiento de la industrialización, en donde por ejemplo apareció el problema de programar la producción de una fábrica que elabora varios productos que pueden fabricarse en distintos procesos.
La programación lineal se desarrollan modelos de los problemas que tratan de maximización o minimización de una función lineal sujeta a restricciones lineales que limitan el alcance del objetivo. Así la programación lineal es una metodología que se utiliza en la solución de problemas en los que se desea optimizar (maximizar o minimizar) una función lineal de una o más variables (variables de decisión) llamada función objetivo, sujeta ciertas limitaciones (restricciones) que se pueden representar como desigualdades o igualdades de funciones lineales de las variables.
Cuadro comparativo diferentes métodos de programación lineal El método gráfico es utilizado para la resolución del programa óptimo cuando el número de variables de decisión (incógnitas del problema) es igual a dos. Para su implementación se representa la región factible, es decir, el conjunto de puntos contenidos en el área delimitada por el eje de abscisas, el eje de ordenadas y las restricciones del programa. Para ello, se convierten dichas restricciones del problema (≤, ≥) en ecuaciones (=). Método grafico
En nuestro caso, como todas las restricciones son en sentido menor o igual, las rectas constituyen los límites superiores para el conjunto de soluciones factibles, cumpliéndose además que las variables de decisión deben tomar un valor mínimo nulo (condicionante de no negatividad). Una vez determinadas las posibles soluciones, deberemos elegir la situación óptima, siendo ésta la que optimice el valor de la función objetivo. Para alcanzar esta solución pueden utilizarse dos procedimientos: el método de solución a partir de las rectas isobeneficio o el método de solución a partir de los vértices. El algoritmo del simplex precisa para su utilización disponer de una solución inicial posible que permita iniciar los cálculos, por ello, según el caso que se presente será necesario introducir variables de holgura y variables artificiales.
Método simplex
Variable de holgura: Permite convertir una desigualdad en igualdad. Variable artificial: Permite iniciar el cómputo, en caso de no disponer de una solución inicial posible básica. Mediante las variables de holgura, el problema general de programación consiste en encontrar un vector (x1,x2,...,xn) que optimice una función objetivo: c1 . x1 c2 . x2 ... cn . xn Sujeta a las restricciones a11x1 a12x2 ... ainxn = b1 am1x1 am2x2 ... amnxn = bm xi >=0 para una i cualquiera Solución posible: Es un vector (x1, x2, ..., xn) que satisface las condiciones (a y b). Solución básica: Solución obtenida al hacer (n-m) variables iguales a cero, siempre que el determinante de los coeficientes de estas m variables no sea cero. Solución posible básica: Es una solución básica que satisface (c). Solución posible básica no degenerada: Es una solución posible básica con exactamente m xi positivas. Pasos del algoritmo del simplex Pj = Vector de coeficientes de la variable j. cj = Contribución de la variable j a la solución. (Rendimientos directos). ci = Coeficientes en la función objetivo de las variables en solución. zj = Coste de introducir la variable j en solución:
zj = sum (ici . aij) (Rendimientos indirectos) b = Exigencias o vectores solución. cj - zj = Rendimientos marginales. Øi = bi/aij Suponiendo que ya se ha encontrado una solución básica posible a un problema de máximo, en el momento que se inician las interacciones del algoritmo, los pasos son los siguientes: Calculamos cj - zj para cada variable que no está presente en la solución: Si para al menos un cj - zj es positivo y si al menos un para este es positivo, existe un mejor programa posible. Si para un cj - zj es positivo, pero los para este son no positivos, la función objetivo no está acotada. Si cj - zj es no positivo para toda j, el programa óptimo se ha encontrado. Dado un problema, al identificar la variable que da mayor cj - zj (supongamos que es xk) y el elemento que da menor Ø = br/ark, sea el ark, este elemento se denomina pivote. Se divide la r-esima fila por para obtener el correspondiente elemento en la tabla siguiente. Se efectuaran las operaciones fila que reducirán a cero todos los otros elementos. Se repiten los pasos 1,2 y 3 hasta que en alguna tabla se cumpla la condición 1.3 entonces se ha obtenido la solución óptima. Existen tres casos posibles, al realizar el algoritmo de un problema que contiene variables artificiales:
Método de la M
Caso1. Antes de obtener la tabla en la cual todos los cj - zj < 0, las variables artificiales han sido reemplazadas por otras variables. Tenemos entonces una solución básica posible y podemos continuar las interacciones hasta determinar el programa óptimo posible. Caso 2. En la tabla final en la cual todos los cj - zj < 0 alguna variable artificial permanece en la solución pero con valor 0. La solución del problema es óptima y posible. Caso 3. Se obtiene una tabla en la cual todos los cj - zj El método M inicia con la programación lineal en forma de ecuación. Una ecuación i que no tenga una holgura (o alguna variable que pueda hacer el papel de holgura) se aumenta con una variable artificial, Ri, para generar una solución de inicio parecida a la solución básica con todas las holguras. Se utiliza un mecanismo de retroalimentación en el que el proceso de optimización trata en forma automática de hacer que esas variables tengan nivel cero, esto es porque las variables artificiales son ajenas al modelo de programación lineal. En pocas palabras la solución final será como si las variables artificiales nunca hubieran existido en primer lugar. El resultado al que se desea llegar se obtiene penalizando las variables artificiales en la función objetivo.
Dado M, un valor positivo suficientemente grande (matemáticamente, M --> Inf), el coeficiente objetivo de una variable artificial representa una penalización adecuada si: La variable artificial es igual a -M, en problemas de maximización. La variable artificial es igual a M, en problemas de minimización. Al usarse esta penalización, el proceso de optimización forzara en forma automática a las variables artificiales para que sean cero (siempre que el problema tenga una solución factible). Debido al impacto potencial adverso del error de redondeo sobre la exactitud del método M, donde se manipulan en forma simultánea coeficientes grandes y pequeños, el método de dos fases reduce el problema eliminado por completo la constante M. Como su nombre indica, el método resuelve la programación lineal en dos fases: La fase uno trata de determinar una solución básica factible de inicio y, si se encuentra, se invoca la fase dos para resolver el problema original. Método de dos fases
Análisis de sensibilidad
Fase 1: El problema se pone en forma de ecuación y se agregan a las restricciones las variables artificiales necesarias (exactamente como en el método M) para asegurar una solución básica de inicio. A continuación se determina una solución básica de las ecuaciones resultantes, que minimice la suma de las variables artificiales. Si el valor mínimo de la suma es positivo, el problema de programación lineal no tiene solución factible, y termina el proceso (recuérdese que una variable que es artificial positiva significa que no se satisface una restricción original). En caso contrario, se prosigue a la fase dos. Fase 2: Se usa la solución factible de la fase uno como solución básica factible de inicio para el problema original. En forma general, el análisis de sensibilidad busca investigar los efectos producidos por los cambios del entorno sobre el sistema. Desde el punto de vista de la programación lineal, el análisis de sensibilidad, llamado también análisis paramétrico, es un método que permite investigar los efectos producidos por los cambios producidos en los valores de los diferentes parámetros sobre la solución óptima. Es necesario no perder de vista que los cambios en la solución del primal repercuten automáticamente en la solución de su modelo dual. Por lo tanto, puede elegirse qué modelo se va a utilizar para investigar los efectos. Dado que los parámetros que se muestran en el modelo utilizan valores estimados basados en una predicción de las condiciones futuras, los datos obtenidos para desarrollar estas estimaciones son bastante imperfectos; por esto pueden tomar otros valores posibles. Por esa razón es importante el siguiente análisis.
El análisis de sensibilidad es una herramienta efectiva, por dos razones fundamentales: Los modelos de programación lineal son con frecuencia grandes y costosos; por lo tanto no es recomendable utilizarlos para un solo caso. Los elementos que se dan como datos para un problema de programación lineal, la mayoría de las veces son estimaciones; por lo tanto es necesario investigar o tener en cuenta más de un conjunto de casos posibles. Cambios en los parámetros del modelo El análisis de sensibilidad se lleva a cabo en: Cambios en los niveles de recursos escasos. Cambios en los coeficientes de la función objetivo. Cambios en los coeficientes tecnológicos. Supresión y adición de restricciones. Adición de nuevas variables. El análisis que se realice se hará teniendo en cuenta el mayor impacto sobre la solución óptima debido a las variaciones de los valores en los parámetros por inexactitud en las estimaciones. Se empezara por investigar las consecuencias de las variaciones en los coeficientes de la función objetivo y recursos disponibles que se consideran los más importantes, y posteriormente se continuara analizando las variaciones de los aij, aparición de una nueva restricción y necesidad de adicionar una nueva variable.
Conclusión Programación lineal son métodos cuantitativos para los negocios. Es una herramienta que se ha aplicado en diferentes áreas empresariales como: la producción, la manufactura, el transporte, la construcción, las telecomunicaciones, la planeación financiera, el cuidado de la salud, la milicia y los servicios públicos
Conociendo este panorama y avanzado un largo camino en la construcción de modelos de optimización como trabajo de campo, los cuales serán publicados más adelante en el módulo que da como resultado al cierre de esta primera etapa de investigación, queda como conclusión que definitivamente la mayoría de las empresas colombianas clasificadas dentro del rubro de Pymes (Pequeñas y medianas empresas) pueden utilizar los modelos de optimización lineal como una herramienta de apoyo para la toma de decisiones y contribuiría positivamente al objetivo de lograr que el mayor porcentaje de las empresas colombianas sean más competitivas en el ámbito nacional e internacional. Queda como objetivo final el desarrollo de un modelo de optimización financiera para las Pymes, que esté fundamentado en el flujo de caja como herramienta de primera mano, pero que de igual forma valide el comportamiento de los recursos mostrando los “cuellos de botella” para generar compromisos claros de cumplimiento con el mercado en general. El objetivo es lograr que las empresas la adopten dentro de su estructura y puedan mejorar sus procesos en busca de la eficiencia.
Referencias
Eppen, G., Gould & otros (2000). Investigación de Operaciones en la Ciencia Administrativa. 5ta. Edición. Naucalpan de Juárez, Estado de México. Editorial Prentice Hall Hispanoamericana, S. A.
Taha, H. A. (2004). Investigación de Operaciones. 7ma. Edición. Editorial Perentice Hall.