Investigacion De Op Trabajo 2

  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Investigacion De Op Trabajo 2 as PDF for free.

More details

  • Words: 884
  • Pages: 6
República Bolivariana de Venezuela Ministerio de Educación Superior Universidad Alejandro de Humboldt Cátedra: Investigación de Operaciones

Integrantes: Gabriela Guanipa C.I. Rafael Gamboa C.I. José Marcano C.I: 14.964.280

Caracas, 09 de Marzo de 2009

Introduccion El presente trabajo tratara de dar a conocer aspectos importantes utilizados en la Investigacion de Operaciones y sus diferentes metodos, en este caso se hace resaltar de manera importante el metoddo de programacion lineal mencionando puntos importantes como son los tipos de variables utilizadas y de manera practica su empleo y situacion dada. Adicionalmente los tipos de soluciones obtenidas en un problema de programacion lineal y el metodo utilizado

Variables de holgura

Variables Base: Son aquellas variables que se agregan al sistema de restricciones como de holgura y artificiales y pertenecen a la columna Vb. Variables de Holgura: La variable de holgura se denota por Hi y Hj, cuya ecuación es: 1)Al introducirla a la restricción, la convierte en ecuación. 2)Forma parte de la matriz identidad y su costo es cero. 3)En la tabla simplex, en renglón representa el sobrante del recurso y en la columna representa el sobrante de la contribución.

Es el caso más sencillo y se da siempre que tengamos como primera solución básica la proporcionada por las variables de holgura. La formulación del problema debe incluir solamente restricciones del tipo ≤ , siempre que los coeficientes de las disponibilidades sean no negativos: Z = c1 x1 + # + cn xn max a11 x1 + # + a1n xn ≤ b1 s.a.: am1 x1 + # + amn xn ≤ bm xi ≥ 0, i = 1, # , n Introduciendo las variables de holgura para expresar la forma estándar: Z = c1 x1 + # + cn xn max a11 x1 + # + a1n xn + xn +1 = b1 H s.a.: am1 x1 + # + amn xn + xn + m = bm H xi ≥ 0, i = 1, # , n , xn + i ≥ 0, i = 1, # , m

H

Variables Artificiales Esta variable se denota por Ai y Aj, cuya función es: 1)Sirve como variable basica inicial, carece de sentido en el problema, solo en un artificio. 2)Forma parte de la matriz identidad y su costo es M, tan grande cuando Z se minimiza y tan pequeña cuando Z se maximiza, para garantizar valore negativos y positivos, respectivamente 3)Tiene preferencias de entrar a la tabla simplex inicial. Existen problemas de programación lineal que no proporcionan una solución básica inicial. Esta situación se presenta cuando al menos una de las restricciones es del tipo (<=) o (=). Para este propósito se desarrollan 2 métodos basados en el uso de variables artificiales: El método M o de penalización y la técnica de 2 fases. METODO M O DE PENALIZACIÓN. Los pasos básicos del método M son los siguientes: 1. Exprese el problema en forma estándar transformando las inecuaciones en ecuaciones introduciendo variables de holgura. 2. Agregue variables no negativas al lado izquierdo de cada una de las ecuaciones correspondientes a las restricciones de tipo (>=) o (=). Estas variables se denominan variables artificiales y su adición hace que las restricciones correspondientes. Esta dificultad se elimina asegurando que las variables sean 0 en la solución final. Esto se logra asignando una penalización muy grande por unidad a estas variables en la función objetivo. Tal penalización se designará como –M para problemas de maximización y +M para problemas de minimización. 3. Utiliza las variables artificiales en la solución básica inicial; sin embargo la función objetivo de la tabla inicial se prepara adecuadamente para expresarse en términos de las variables no básicas únicamente. Esto significa que los coeficientes de las variables artificiales en la función objetivo deben ser 0 un resultado que puede lograrse sumando múltiplos adecuados de las ecuaciones de restricción al renglón objetivo. 4. Proceda con los pasos regulares del método simplex.

Problemas en Programacion lineal

En un problema de Programación Lineal, según sean las restricciones, se obtendrán poliedros diferentes, acotados o no, y según sea la posición de la función objetivo respecto de dicho poliedro se pueden originar diferentes situaciones. Según el tipo de soluciones que presenten un problema de Programación Lineal puede ser: Factible: si existe la región factible. En este caso nos podemos encontrar: Óptimo finito y único. La solución óptima está formada por un único punto con coordenadas reales. Múltiples óptimos. Un problema de Programación Lineal puede tener más de un óptimo. Además, o bien el problema tiene un único óptimo, o bien, tiene infinitos óptimos. Óptimo infinito. Un problema de Programación Lineal puede tener un óptimo no finito, es decir, la función objetivo puede tomar, un valor tan grande o tan pequeño como se quiera sin abandonar la región factible. Región factible no acotada, óptimo finito. La no acotación de la región factible no implica necesariamente óptimo infinito. Puede ocurrir que la función objetivo alcance el óptimo en la zona acotada de la región factible. Región factible no acotada, óptimo finito e infinito. Puede darse el caso que todos los puntos de una de las semirrectas que determinan la región factible no acotada sean solución del problema. No factible. Región factible vacía. El conjunto de restricciones de un problema de Programación Lineal puede ser incompatible, conduciendo a una región factible vacía.

Conclusión

Bibliografia

Related Documents