1
2
Econ. YbniosElí Grijalva Yauri
3
Tabla de convenciones Indicadores de logro
Actividad
Observación Observación
Resumen Resumen
Bibliografía recomendada
Nexo
Autoevaluación Autoevaluación formativa formativa
UNIVERSIDAD PERUANA LOS ANDES Educación Abierta y a Distancia. Huancayo. Impresión Digital SOLUCIONES GRAFICAS S.A.C. Jr. Puno 564 - Hyo. Telf. 214433
4
TABLA DE CONTENIDOS Tabla de contenido TABLA DE CONTENIDOS
5
PRESENTACIÓN
11
UNIDAD TEMÁTICA I
13
METODOS CUANTITATIVOS Y PROCESO DE TOMA DE DECISIONES.
13
Objetivos del Capítulo
13
1.0 Introducción
13
1.1 Conocimiento y Toma de Decisiones
13
1.1.1 La Información en las Organizaciones
13
1.1.2 Toma de Decisiones y Racionalidad
14
1.1.3 Organización: Gestión y Procesos de Decisión
15
1.1.4 Análisis de la Información
16
1.1.5 Consideraciones
16
1.2 Contribución del Enfoque de los Métodos Cuantitativos
17
1.3 Proceso de Modelado de los Métodos Cuantitativos
17
1.4 Métodos Cuantitativos, Enfoque Sistémico y Modelización.
18
1.5 Modelización: Concepto. Distintos tipos de modelos.
18
1.5.1 Tipos de modelos
18
1.5.2 Las ventajas de modelar
19
1.5.3 Los modelos matemáticos
19
1.5.4 Algunos Modelos Determinísticos y Probabilísticos.
21
1.6 Construcción de Modelos: Metodología y Etapas. Datos: Formas y Fuentes.
22
1.7 Desarrollo de Modelos: Preparación, Métodos de Cálculo y Resolución.
23
1.7.1 Proceso de formulación de un problema de optimización 1.8 Otras Aplicaciones de Modelos Matemáticos.
23 24
1.8.1 Modelos Determinísticos
24
1.8.2 Modelos Probabilísticos
24
1.8.3 Toma de Decisiones con Pura Incertidumbre
25
1.8.4 Toma de decisiones con riesgo
25
1.9 Actividades para Aprendizaje.
25
5
UNIDAD TEMÁTICA II
27
PRONÓSTICOS DE NEGOCIOS
27
Objetivos del Capítulo.
27
2.0 Introducción.
27
2.1 Teoría de Series Temporales
29
2.2 Análisis De Una Serie Temporal
31
2.2.1 Modelización por componentes
31
2.2.2 Enfoque Box - Jenkins
35
2.3 Descomposición de Una Serie Temporal
37
2.3.1 Medias móviles: tendencia
40
2.3.2 Estacionalidad
43
2.3.3 Descomposición Aditiva: Caso temperaturas
47
2.3.4 Descomposición Multiplicativa: Caso usuarios transporte público
51
2.4 Modelización con Variables Categóricas
55
2.5 Actividades para el Aprendizaje.
61
UNIDAD TEMÁTICA III FORMULACION Y OPTIMIZACION DE MODELOS
63
Objetivos del Capítulo
63
3.0 Introducción
63
3.1 Programación Lineal: Formulación de Problemas
63
3.1.2 Orígenes de la Programación Lineal
64
3.1.3 Formulación de Modelos
65
3.2 Programación Lineal: Métodos de Resolución
71
3.2.1 El método gráfico
71
3.2.2 El Método Simplex
74
3.2.3 Adaptación a otro tipo de modelos
85
3.2.4 Situaciones especiales en el método Simplex
87
3.2.5 Soluciones con Software
88
3.3 Programación Lineal Entera
91
3.3.1 El algoritmo de bifurcación y acotamiento
92
3.3.2 Programación Entera y Solver
94
3.3.3 Programación Entera Binaria: El Problema de la Mochila
95
3.3.4 El Problema de Asignación
96
6
3.3.5 Problemas de Localización de Servicios 3.3.6 Conclusiones 3.4 Actividades para el Aprendizaje.
98 107 107
UNIDAD TEMÁTICA IV MODELOS DE INVENTARIOS.
109
Objetivos del Capítulo.
109
4.0 Introducción
109
4.1 Definiciones y Funciones.
109
4.2 Clasificación de los sistemas PRODUCTIVOS según la demanda.
110
4.3 Estructura de Costos de Inventarios.
112
4.3.1 Nomenclatura Asociada a Inventarios.
112
4.4 Decisiones sobre inventarios
113
4.5 Análisis de la Tasa de Demanda y Tasa de Reposición.
113
4.6 Políticas de inventario.
114
4.6.1 Política de Revisión Periódica.
115
4.6.2 Política de Revisión Continua.
115
4.7 Dimensionamientos de las Cantidades a Ordenar.
116
4.7.1 Modelo de un Único Producto:
116
4.7.2 Modelos con Tiempo de Espera.
119
4.7.3 Análisis De Sensibilidad.
120
4.7.4 Cantidades Descontinuadas.
122
4.7.5 Situaciones Con Múltiples Inventarios.
124
4.7.6 Calculo del Periodo Optimo.
126
4.8 Modelos con Demanda Probabilística
128
4.8.1 Modelo Simple
129
4.8.2 Cálculo de Inventario de seguridad para la Política de Revisión Continua.
130
4.8.3 Calculo de Inventario de Seguridad en Política de Revisión Periódica.
131
4.9 Resumen Final de Inventarios.
134
4.9.1 Enfoque Japonés.
134
4.9.2 Sistema de Costeo ABC.
135
4.10 Sistemas de Control de Inventarios
136
4.10.1 Tipos de Sistemas de Control
136
4.11 Actividades para el Aprendizaje.
137 7
UNIDAD TEMÁTICA V MODELACION DE COLAS.
139
Objetivos del Capítulo.
139
5.0 Introducción.
139
5.1 Descripción de un sistema de colas
139
5.2 Objetivos de la gestión de colas
141
5.3 Medidas del sistema
141
5.4 Un sistema de colas elemental: tasa de llegada y de servicio constantes
142
5.4.1 No hay cola, tiempo ocioso del servidor
142
5.4.2 No hay cola ni tiempo ocioso del servidor.
142
5.4.3 Formación de cola y sin tiempo ocioso en el servidor
142
5.5 Las distribuciones de Poisson y Exponencial
142
5.5.1 La distribución de Poisson
142
5.5.2 La distribución Exponencial
143
5.6 Modelo de Colas Simple: Llegadas en Poisson y Tiempos de Servicio Exponencialmente Distribuidos.
144
5.7 Modelo múltiple de Colas: Llegadas en Poisson y Tiempos de Servicio Exponencialmente Distribuidos.
146
5.8 Limitaciones de los modelos de gestión de colas
147
5.9 Ejemplo de simulación de un sistema de colas.
147
5.9.1 Recogida de datos
147
5.9.2 Simulación de llegadas.
148
5.9.3 Simulación de los tiempos de servicio
149
5.9.4 Simulación conjunta del sistema
150
5.10 Actividades para el Aprendizaje.
152
UNIDAD TEMÁTICA VI
153
ANALISIS DE LA TEORÍA DE LA DECISIÓN
153
Objetivos del Capítulo.
153
6.0 Introducción
153
6.1 Las decisiones en la empresa
153
6.2 Problemas de decisión estáticos
154
6.3 Elección del criterio de decisión en condiciones de incertidumbre:
154
6.4 En situación Riesgo.
157
6.5 Problemas de decisiones estáticas
159
8
6.6 La Utilización de la Información Perfecta y el Concepto de Valor Esperado en Contexto de Riesgo. 161 6.7 La utilización de la información imperfecta y el concepto de valor esperado en contexto de riesgo. 162 6.8 Decisiones secuenciales y árboles de decisión:
165
6.9 Actividades para el Aprendizaje.
170
UNIDAD TEMÁTICA VII ADMINISTRACIÓN Y GESTIÓN DE PROYECTOS
171
CON PERT – CPM
171
Objetivos del Capítulo
171
7.0 Introducción
171
7.1 Definición de la Gestión y Administración de Proyectos
171
7.2 Representación gráfica de un Proyecto
173
7.3 Planificación Temporal del Proyectos – CPM
177
7.4 El Gráfico Gantt
181
7.5 El PERT
182
7.6 Planificación de Recursos: Tiempo-Costo
185
7.7 Conclusiones
186
7.8 Actividades para el Aprendizaje
187
UNIDAD TEMÁTICA VIII INTRODUCCION AL MÉTODO DE SIMULACIÓN
189
MONTE CARLO
189
Objetivos del Capítulo
189
8.0 Introducción
189
8.1 Inicios del Método de Monte Carlo
189
8.2 Simulación: Método Monte Carlo
190
8.2.1 Métodos de simulación
190
8.2.2 Etapas del proceso de simulación
191
8.2.3 Diagrama de flujo del modelo de simulación
191
8.3 Algoritmos
191
8.4 ¿Qué es la Simulación de Monte Carlo?
194
8.4.1 Simulación MC con Variables Discretas
196
8.4.2 Generación de Números Aleatorios Provenientes de Otras Distribuciones
199
8.4.3 Simulación MC con Variables Continuas
200
8.5 Actividades para el Aprendizaje.
202
9
10
PRESENTACIÓN En estos tiempos de economía global, las empresas necesitan ser cada vez más eficientes y eficaces, para mantenerse competitivas dentro de un mercado cada vez más complejo. Por lo que es necesario hacer el mejor uso de los recursos escasos, con ayuda de la tecnología, metodologías y nuevos instrumentos. Los métodos cuantitativos tienen un espectacular impacto sobre la rentabilidad de numerosas empresas. Los paquetes de hojas de cálculo ofrecen un entorno de trabajo cómodo y conocido para formular y analizar problemas; se ocupa, automáticamente, de aplicar las matemáticas necesarias con un mínimo de instrucciones por parte del usuario. Los métodos cuantitativos son una disciplina que ayuda en la toma de decisiones mediante la aplicación de un enfoque científico a problemas que involucran factores cuantitativos. Tienen una base sólida en campos científicos que incluyen matemáticas y ciencias de la computación. También se apoyan en ciencias sociales, en especial en los negocios y las finanzas. Un estudio de métodos cuantitativos solo brinda un análisis y recomendaciones, con base en los factores cuantitativos del problema. Los cuales ayudan a la toma de decisiones. Pero el tomador de decisiones también debe tener en cuenta los aspectos intangibles fuera del dominio de los métodos cuantitativos y luego usar su mejor criterio para tomar la decisión. Gran parte de los autores recomiendan una serie de pasos a seguir para la aplicación de un método cuantitativo para una investigación sistemática. Paso 1: Definir el problema y recolectar los datos. Paso 2: Formular un modelo para representar el problema. Paso 3: Desarrollar un procedimiento basado en computadora para derivar soluciones del problema a partir del modelo. Paso 4: Probar el modelo y refinarlo según se necesite. Paso 5: Aplicar el modelo para analizar el problema y desarrollar las recomendaciones. Paso 6: Ayudar a implantar las recomendaciones. El proceso de modelado es creativo: Cuando se trata con problemas reales, es común que no haya un modelo “correcto” sino varias formas alternativas para realizarlos. El proceso de modelado es un proceso evolutivo que comienza con un simple “modelo verbal” para definir la esencia del problema y gradualmente evoluciona hacia los modelos matemáticos cada vez más completos. La belleza de un modelo bien diseñado es que permite que los procedimientos matemáticos corran en una computadora para encontrar buenas soluciones al problema. Ya que los modelos matemáticos son representaciones ideales, están expresados en términos simbólicos y matemáticos. Casi siempre para poder analizar los problemas reales se tienen que hacer varios supuestos. Muchos problemas en los negocios y finanzas giran alrededor de factores cuantitativos como cantidades de producción, ingresos, costos, cantidades disponibles de recursos necesarios y otros. Al incorporar estos factores cuantitativos en un modelo matemático y aplicar procedimientos matemáticos para resolver el problema, los métodos cuantitativos brindan una forma singularmente poderosa para analizar problemas. Aunque los métodos cuantitativos se ocupan de la gestión practica de las organizaciones, incluido tomar en cuenta los factores de la relevancia cuantitativa, su contribución especial descansa en su habilidad singular para manejar los factores cuantitativos. Dentro de los modelos, las variables de la decisión pueden ser enteras o continuas, el objetivo y las funciones de restricción pueden ser lineales o no lineales o enteras. Los problemas de optimización planteados por estos modelos dan origen a una variedad de métodos de solución, cada uno diseñado para 11
tomar en cuenta las propiedades matemáticas especiales del modelo. Entre las técnicas más prominentes y exitosas se encuentran: series de tiempo, programación lineal, programación entera, programación de redes y árboles entre otras. La construcción de modelos en hojas de cálculo se presenta como un apoyo para las decisiones. El enfoque consiste en desarrollar un modelo con las herramientas de este programa y finalmente tomar una decisión basada en ese análisis. Los modelos son una representación limitada de la realidad y, por esa razón, los resultados de análisis de un modelo no son necesariamente la solución idónea para la situación original. En particular, se hace hincapié en la idea de “optimo” es una concepción matemática, no un concepto perteneciente al mundo real. Sin embargo, si un modelo ha sido bien formulado y su resultado se interpreta cuidadosamente, podrá proveer un valioso acervo a la toma de decisiones. Se presentan los conceptos de: variables de decisión, parámetros, restricciones, objetivos y medidas de desempeño, todos los cuales son componentes importantes de los modelos. Describimos distintos tipos de modelos y el papel decisivo que los datos desempeñan en su construcción. Hemos expuesto el proceso iterativo mediante el cual son construidos los modelos, la función que corresponde a distintos tipos de modelos en las organizaciones de negocios, y temas relacionados con la validación de modelos. Un aspecto importante de destacar es la forma en que los modelos refuerzan los conocimientos, favorecen la comunicación de ideas a otras personas y facilitan el trabajo en equipo. El Compilador.
12
.
METODOS CUANTITATIVOS Y PROCESO DE TOMA DE DECISIONES. Objetivos del Capítulo Desarrollar diversos modelos matemáticos, comprendiendo sus supuestos y limitaciones que podrían aplicarse dentro de lo operativo de la empresa Resaltar la necesidad de que la toma de decisiones dentro de las organizaciones se haga de una forma óptima, analizando los costos y beneficios involucrados. Comprender la forma en que los métodos cuantitativos se aplican al proceso de toma de decisiones en las empresas. 1.0 Introducción Los Métodos Cuantitativos construyen modelos de sistemas reales tratando de llegar a unos resultados cuantitativos que sirvan de base a decisiones económicas, técnicas, sociales y militares…etc. La premisa principal de los Métodos Cuantitativos es que la toma de decisiones, sin hacer caso de la situación en concreto, pueda considerarse como un proceso sistemático en general con los siguientes pasos principales: Definición del problema, Búsqueda de diferentes alternativas de acción, Evaluación de alternativas, Selección de una alternativa. Entonces, los Métodos Cuantitativos se aplican a problemas que se refieren a la conducción y coordinación de operaciones o actividades dentro de una organización “de tipo ejecutivo” . La naturaleza de la organización es esencialmente inmaterial y, de hecho, los métodos se han aplicado en los negocios, la industria, la milicia, el gobierno, los hospitales, etc. Así, la gama de aplicaciones es extraordinariamente amplia. 1.1 Conocimiento y Toma de Decisiones1 La situación económica y social que caracteriza a la sociedad moderna, genera profundos cambios en las organizaciones, las cuales se están preparando para ser más flexibles y establecer estrategias que les permitan adaptarse al entorno altamente turbulento en el que desarrollan sus acciones. Ante ambientes tan inestables como los que estamos viviendo y debido a la imposibilidad de actuar a ciegas, los miembros de la organización y, en particular, su alta gerencia, necesitan manipular grandes volúmenes de información para cumplir sus funciones esenciales. Esto conlleva a la necesidad de implementar nuevas prácticas administrativas dirigidas a garantizar el éxito organizacional, y entre ellas, la toma de decisiones soportada en el análisis de información, resulta vital para los intereses de cualquier organización. 1.1.1 La Información en las Organizaciones La segunda mitad del siglo XX fue testigo de algunos hechos concretos que propiciaron grandes cambios, entre ellos: la aparición de las computadoras, el crecimiento acelerado de su velocidad de procesamiento y la capacidad para el almacenamiento de datos, la facilidad de interconexión y la aparición de la gran red de redes: Internet. Sin duda, ello ha posibilitado disponer de servicios de acceso en línea a bases de datos y ha provocado una gran explosión de información que rebasa la capacidad de procesamiento de las organizaciones, obligando a la búsqueda de herramientas para el manejo de grandes volúmenes de información. Cada vez 1
(1) Leroux, Rosa Maria Garcia de. 13
es menor el tiempo necesario para transformar un conocimiento básico en ciencia aplicada, y luego en tecnología; asimismo, se dispone de más información como resultado del desarrollo de las nuevas tecnologías de la comunicación. Todo esto, unido al incremento de la competencia a nivel mundial, impulsado por el dominio de las trasnacionales, una creciente necesidad de dotación en técnicas de captación y análisis de información sobre el entorno competitivo y tecnológico y, en particular, de nuevas formas organizativas. Estos continuos cambios en el entorno y en el interior de las organizaciones, promueven, cada vez más, la necesidad de mejorar el proceso de toma de decisiones, y ello repercute en un mejoramiento de la información que llega a la más alta dirección. En este empeño, comprobada está la marcada importancia del aprovechamiento del imponente caudal de recursos de información existentes para toma de decisiones en las instituciones. 1.1.2 Toma de Decisiones y Racionalidad La toma de decisiones es el campo de mayor trascendencia para el ser humano. Es una ciencia aplicada que ha adquirido notable importancia y es fundamental en los negocios. La toma de decisiones puede conceptualizarse, entonces, como una actividad imprescindible en las organizaciones, con un significado especial para todos sus niveles, porque es parte fundamental e inherente a todas las demás actividades de la empresa. Sabido es que actualmente, en el marco de las organizaciones, muchas decisiones se toman sin considerar explícitamente las etapas de ese proceso o los métodos cuantitativos y cualitativos existentes en las distintas ramas, y que las tradiciones, los hábitos, la propia intuición y la experiencia de un directivo, desempeñan una función importante en la forma en que se pretende solucionar los problemas. En el proceso de toma de decisiones no siempre se dispone, en el momento preciso, de toda la información requerida, y mientras más compleja sea la decisión, más difícil resultará conocer todas las alternativas. Además, aunque quien tome la decisión trate de ser objetivo, no siempre será posible lograrlo. Debido a ello, no se puede esperar que las personas actúen en forma completa y estrictamente racional, cuando se enfrentan a la ineludible necesidad de decidir. La mayoría de los que tienen esta responsabilidad, intentan tomar sus decisiones dentro del marco de la racionalidad, aunque no siempre esto es posible debido a que se enfrentan a un mundo real, muy complejo, en el que las limitaciones de información, tiempo e incertidumbre, limitan considerablemente el uso de la capacidad de raciocinio. Un elemento importante que debe ser considerado en este proceso, es el hecho de que el decisor se comporta racionalmente, sólo en función de aquellos aspectos de la situación que logra percibir y conocer, por lo que aquellas variables no advertidas o de las que no se ha percatado, aunque influyan en el resultado, no son consideradas en el proceso decisional. Por otro lado, mientras mayor sea la calidad de la información que se disponga, mayor será también el aporte de elementos de juicio sobre el problema a resolver, lo que incrementa la probabilidad de que la decisión sea más racional y saludable para el logro del objetivo deseado. Adicionalmente, es necesario considerar que las personas que toman decisiones, poseen preferencias, prejuicios, predisposiciones, gustos y desagrados que, sin ánimo de disertar sobre la psicología del ser humano, deben reconocerse como características intrínsecas del individuo, por lo que la persona que realmente desee tomar una decisión acertada requiere: a) conocer todas las alternativas; b) ser objetivo; y c) estar informado. En consecuencia, los datos, la información y el conocimiento son elementos fundamentales para la toma de decisiones en las organizaciones. Estos tres elementos forman un sistema jerárquico, siendo importante establecer cómo se relacionan y los aspectos que los diferencian. Los datos como ingredientes en bruto, sin significado y desvinculados de la realidad, resultan incapaces de esclarecer cualquier estado de incertidumbre, constituyen la materia prima de la información. Los datos se vinculan con los registros estructurados de hechos significativos que, analizados y convertidos en información, representan actividades comerciales, oportunidades de compra/venta, información sobre el mercado, sobre los competidores, etcétera. Es decir, son la principal fuente para la obtención de información valiosa para el proceso de toma de decisiones. La información está representada por los datos que adquieren un mayor significado luego de que se codifican y se transmiten, en un lenguaje comprensible para el usuario.
14
La información se considera, entonces, como el conjunto de datos que se han procesado, automática o manualmente, y que están provistos de un significado (relevancia y propósito) que los convierte en útiles para quien debe decidir. La calidad de la información depende de la calidad de los datos y de la capacidad de quien la procese. Para la toma de decisiones, la información estima y reduce la incertidumbre, puede sugerir otras alternativas de decisión y eliminar otras; estimula.la acción y anticipa sus consecuencias. La información es un agente importante en la modificación de las conductas existentes en la organización y un recurso vital para el desarrollo de la organización. Su correcta gestión es una herramienta fundamental para la toma de decisiones, la información del personal, la evaluación de los productos, la determinación de los errores y el control de los procesos. La información es un recurso, un valor y un activo, igual que cualquier otro; y como recurso, tiene características que lo hacen similar a los demás, es decir, que se adquiere a un costo, posee un valor, requiere del control de sus costos y tiene un ciclo de vida. En el contexto gerencial, una adecuada gestión de la información posibilita la reducción de los riesgos, tales como los que se derivan de decisiones apresuradas, tardías o inconsistentes. Obtener la información necesaria, con la calidad requerida, es una premisa indispensable para la permanencia de las organizaciones en su ámbito de actuación. En lo que respecta al conocimiento, se puede conceptualizar como el conjunto de cogniciones y habilidades con las cuales los individuos suelen solucionar los problemas. Comprende, tanto la teoría como la práctica, las reglas cotidianas al igual que las instrucciones para la acción. El conocimiento se basa en datos e información, pero a diferencia de éstos, siempre se vincula a las personas. Forma parte integral de los individuos y representa las creencias de éstos sobre las relaciones causales. Lo que diferencia el conocimiento de la información es la complejidad de las experiencias que se necesitan para llegar a él". "... para que un alumno llegue al conocimiento de una cierta asignatura, se ha de exponer al mismo conjunto de datos de diferentes maneras, con diferentes perspectivas y ha de elaborar su propia experiencia del mismo". La visualización de la información interviene en la construcción del conocimiento, al revelar los patrones que subyacen en los datos. Estas consideraciones citadas tienen algo en común y es que casi todas mencionan la presencia de datos con significado (mensaje con significado). Así destacan la importancia de éstos en la información y su vinculación con el proceso de la comunicación. Sin datos es imposible la información. Resulta innegable la vinculación del conocimiento con el individuo, debido a todos los procesos cognitivos por los que éste debe trascender. Aunque este término tiene una relación significativa con la información, ésta no puede considerarse automáticamente como conocimiento. Es oportuno aclarar que el hecho de poder acceder a cantidades cada vez mayores de datos y aún de información, no asegura el crecimiento del conocimiento. Por un lado, gran parte de la inmensa cantidad de datos, está constituido por aquellos que no afectan el conocimiento y por otro, el tiempo que consume su filtraje por personas inexpertas, para desechar lo inservible y proporcionar un nuevo conocimiento, no permite de forma oportuna la agregación o el incremento del existente. 1.1.3 Organización: Gestión y Procesos de Decisión El trabajo profesional vinculado a la información en cualquier organización, exige el dominio de un conjunto de variables que están presentes en su tratamiento. Asimismo. el dominio de las funciones de gestión y de algunas de las principales herramientas que han sido desarrolladas en las últimas décadas, no deviene en mero elemento cultural del profesional que maneja información, sino en una imperiosa necesidad. El acceso rápido y eficiente a una información confiable y precisa, permite adoptar una posición adecuada a la hora de tomar una decisión para solucionar un problema con un menor costo. Las organizaciones precisan gerenciar inteligentemente todos sus procesos y recursos. Por esto, debe hacerse una eficaz y efectiva gestión de la información y del conocimiento, de modo que propicie una adecuada toma de decisiones. Al analizar las implicaciones intrínsecas de los procesos y los recursos, resulta indiscutible que para lograr el cumplimiento de estos dos factores esenciales para el logro del éxito organizacional, es necesario disponer de información previamente analizada, lo que sin lugar a dudas, evitará duplicidad de acciones, esfuerzos y un gasto innecesario de tiempo en la toma de una decisión. "...Así la eficiencia está dirigida hacia la mejor manera por la cual las cosas deben hacerse o ejecutarse (métodos), a fin de que los recursos (personas, máquinas, materias primas) se empleen de la forma más 15
racional posible La eficiencia se preocupa por los métodos y procedimientos más indicados que necesitan planearse y organizarse adecuadamente con el fin de asegurar el perfeccionamiento del uso de los recursos disponibles". En este mismo orden de ideas, cabe señalar que toda organización que se proponga alcanzar la eficacia y la eficiencia organizacionales necesarias, debe desarrollar un fuerte proceso decisorio. Las afirmaciones de los que ven este proceso con un enfoque económico, también coinciden en que "aunque no hay decisiones prefectas, el criterio que orienta toda decisión es la eficiencia; la obtención de resultados máximos con medios limitados. La toma de una decisión significa la adopción de una alternativa escogida, que jamás permite la realización completa o perfecta de los objetivos pretendidos; pero que representa la mejor solución encontrada en determinadas circunstancias". 1.1.4 Análisis de la Información El análisis de la información puede definirse como un proceso mediante el cual se define las necesidades del estudio, se busca información, se validan las fuentes, se procesa la información, se integra y se presenta resultado. El análisis de información es el método de investigación que registra lo que contienen y descubre su significado profundo tras la forma en que se presentan, para contribuir a la toma de decisiones. Estos planteamientos reafirman la necesidad de que las organizaciones se enfrenten a un mundo cada vez más competitivo y, por tanto, al que es necesario adaptarse. Todo esto supone un enorme reto para las empresas, en especial, para el manejo de grandes volúmenes de información que posibiliten conocer el entorno y predecir su evolución. En este sentido, el análisis de la información puede considerarse como el límite entre los sistemas de inteligencia y los sistemas de gestión de información, siendo el escalón en el que mayor valor adquiere. Es entonces indiscutible, la relación existente entre el análisis de la información y la toma de decisiones. La toma de decisiones es el propósito final de los análisis de información. Dichos análisis pueden darse en cualquier terreno de la vida, pero sin duda, presenta una importancia sobresaliente en el mundo de las organizaciones. De forma general, el análisis de la información es un proceso de carácter continuo y sistémico de transformación de la información en conocimiento y de este último, en decisiones estratégicas. En otras palabras, buscan extraer conocimiento por medio de métodos y técnicas, tanto cuantitativos como cualitativas, para proporcionar información útil y valiosa al primer nivel de dirección, para la oportuna toma de decisiones y, consecuentemente, para la obtención de ventajas competitivas. 1.1.5 Consideraciones La racionalidad de quienes toman decisiones debe seguirse de cerca. En este sentido. el análisis de información se convierte en el paso imprescindible de este proceso. Es donde se agrega mayor valor a la información, al ser el proceso básico en el que el analista invierte sus mayores esfuerzos, tanto físicos como mentales, para posibilitar el quehacer de la inteligencia empresarial y la adecuada toma de decisiones. La toma de decisiones está basada en el análisis de los datos y la información, por lo que deben asumirse ciertas consideraciones claves: Para tomar decisiones acertadas, es mejor basarse en la frialdad y objetividad de los datos más que en intuiciones, deseos y esperanzas. Los datos plantean varios problemas tales como el modo de obtenerlos, su fiabilidad y la necesidad de darles una interpretación adecuada. Un sistema de gestión de calidad mejora la calidad de la información obtenida y mejora los cauces para obtención. Con buena información, se pueden hacer estudios y análisis de futuro. Los datos son fríos y basados en hechos reales; por lo tanto son objetivos, aunque no sean aceptados por los miembros de la organización. La información es la herramienta fundamental en la toma de decisiones de la empresa. A mayor calidad de la información, mejor calidad en la toma de decisiones. Desde el punto de vista de la gestión empresarial, la información es un recurso que se encuentra al mismo nivel que los recursos financieros, materiales y humanos, que hasta el momento han constituido los ejes alrededor de los cuales han girado los esfuerzos de gestión. El conocimiento del entorno complejo y cambiante origina la necesidad, cada vez más acuciante, de información para la toma de decisiones. Por ello, el dominio de la información externa no debe hacer olvidar el control de los flujos internos de
16
información que la organización genera, así como tampoco se debe olvidar la información que la empresa lanza al exterior, en algunos casos regulada por factores legales. 1.2 Contribución del Enfoque de los Métodos Cuantitativos La contribución del enfoque de los métodos proviene principalmente de: 1.
La estructuración de una situación de la vida real como un modelo matemático, logrando una abstracción de los elementos esenciales para que pueda buscarse una solución que concuerde con los objetivos del tomador de decisiones. Esto implica tomar en cuenta el problema dentro del contexto del sistema completo.
2.
El análisis de la estructura de tales soluciones y el desarrollo de procedimientos sistemáticos para obtenerlas.
3.
El desarrollo de una solución, incluyendo la teoría matemática si es necesario, que lleva al valor óptimo de la medida de lo que se espera del sistema (o quizá que compare los cursos de acción opcionales evaluando esta medida para cada uno).
El objetivo es familiarizar al lector con la formulación, solución y puesta en práctica de los modelos para analizar problemas de sistemas complejos en la industria, comercio, o el sector público. Su principal ventaja es que se apoya sobre un gran número de hechos y sustituye el razonamiento intuitivo por el matemático. 1.3 Proceso de Modelado de los Métodos Cuantitativos a.
Definición del problema a estudiar. Como en cualquier otro método de investigación, se ha de comenzar aquí por reunir y analizar los datos que afectan al problema que tratamos de estudiar, eliminando aquellos que no son relevantes, y tratando de expresar cuantitativamente todos los que sea posible, de forma que quede el problema perfectamente definido.
b.
Confección del modelo científico, por lo general matemático que representa el problema. Puede adoptar formas muy variadas, pero generalmente consiste en un conjunto de funciones (curvas, ecuaciones, inecuaciones, etc.), que expresan cuantitativamente las diversas relaciones existentes entre el objetivo y las variables que afectan al problema. La dificultad del establecimiento de algunos modelos deriva precisamente de esta estimación cuantitativa.
c.
Cálculo de la solución del modelo Aplicando esencialmente el método matemático deductivo, se resuelve simbólicamente el problema, bastando después con sustituir los símbolos por números, para tener la solución concreta del caso estudiado.
d.
Verificación del modelo y de la solución. Primero se probaría el modelo y la solución.-El grado de bondad con que un modelo representa la realidad de un problema, puede ser comprobado contrastando los resultados de la experiencia pasada con las soluciones que en esas circunstancias aporta el modelo. Después se establecerían controles sobre la solución. Aun en el supuesto de que, hecha esta comprobación, el modelo se demuestre válido, la validez sólo se mantiene en la medida en que las variables no influenciables y las relaciones entre los factores permanecen constantes. Si se da un cambio significativo, ha de corregirse la solución o crear un modelo nuevo, recomenzando el proceso de análisis. 17
Tercero se lleva la solución a la práctica.- Además, los Métodos Cuantitativos no son un proceso automático de decisiones, sino una metodología que permite al responsable conocer y valorar claramente las consecuencias de su decisión. El campo de aplicación de los Métodos Cuantitativos es amplísimo. En realidad, se agrupan bajo ese nombre técnicas muy diversas que a veces sólo tienen en común el objetivo perseguido y el apoyo general sobre una instrumentación estadístico-matemática muy avanzada. 1.4 Métodos Cuantitativos, Enfoque Sistémico y Modelización. El análisis para toma de decisiones puede asumir dos formas básicas: cualitativa o cuantitativa. El análisis cualitativo se basa primordialmente en el razonamiento y la experiencia del administrador; incluye la “impresión” intuitiva que el administrador tiene del problema, y constituye una faceta que puede ser identificada con el arte de la toma de decisiones. Sin embargo, si el administrador ha tenido poca experiencia con problemas similares, o si el problema es lo suficientemente complejo, entonces puede ser muy importante en la decisión final del administrador considerar otros puntos de vista y analizar desde una perspectiva diferente. Es entonces cuando, al utilizar el enfoque cuantitativo, el analista se concentra en los hechos o los datos cuantitativos asociados al problema y desarrolla expresiones matemáticas que describen los objetivos, las restricciones y las relaciones existentes en el mismo. Después, utilizando uno o más métodos cuantitativos, el analista ofrece una recomendación con base en los aspectos cuantitativos planteados; para esto recurre a la aplicación del método científico como procedimiento de análisis y resolución del problema complejo. Si bien los administradores tienen más aptitudes para el método cualitativo -que se incrementan con la experiencia- éste sólo se aprende estudiando los supuestos y los métodos de la ciencia de la administración. Se potenciaría de sobremanera aquel administrador que tomara los conocimientos de los métodos cuantitativos para su toma de decisiones, colocándose en una mejor posición para comparar y evaluar sus recomendaciones. Al aplicar métodos enrolados en el enfoque cuantitativo se busca eliminar conjeturas improvisadas y los razonamientos intuitivos y escasamente justificados que son frecuentemente aplicados en la toma de decisiones frente a problemas complejos. Adicionalmente, la búsqueda de soluciones teniendo en cuenta las interrelaciones dentro de la organización, los distintos puntos de vista, intereses y poder de los actores involucrados, y las responsabilidades sociales que derivan de su interacción con el ambiente, proveen una perspectiva particularmente interesante para el planteo de modelos; ella deriva del hecho de aplicar el enfoque sistémico a la situación, especialmente cuando se lo hace desde la dinámica de sistemas. 1.5 Modelización: Concepto. Distintos tipos de modelos. Si se toma o define un problema erróneamente todos los esfuerzos posteriores se concentrarán en resolver “algo” que no “funciona” correctamente. Es por eso que, una vez que el problema ha quedado bien definido, el “científico de administración” comenzará a desarrollar el problema en términos matemáticos. Conviene entonces concretar en una definición qué es lo que se entiende por modelo. Los modelos son representaciones de objetos o situaciones reales; representaciones más o menos simplificadas que permiten aprehender una realidad aún cuando no se la esté observando directamente. 1.5.1 Tipos de modelos Es posible identificar una amplia gama de clasificaciones según las diversas dimensiones de análisis de modelos. La siguiente se considera suficiente para los fines que persigue este texto. 18
Modelos icónicos: son también conocidos como modelos físicos, y están constituidos por réplicas físicas de la realidad que representan. En esta clase se encuentran las maquetas de construcciones de ingeniería y los juguetes a escala. Otra clase de modelos son los analógicos, que son de forma física pero no tienen el mismo aspecto físico del objeto que representan. Las relaciones entre los objetos y variables están representadas en un medio diferente al real, comportándose en forma análoga a tal realidad. Es decir que su comprensión requiere de un nivel de abstracción mayor que en el primer caso, y un conocimiento previo de los conceptos y relaciones involucrados en la realidad modelada. Tal el caso del velocímetro de un automóvil, el marcador de una balanza, un gráfico de sectores circulares o de líneas de tendencia representando las ventas de una empresa, etc. Finalmente, los modelos matemáticos, representan una situación mediante símbolos y relaciones o expresiones matemáticas. Son parte crucial de cualquier enfoque cuantitativo, y algunos de ellos serán desarrollados en este texto. Para su comprensión es necesario un nivel de abstracción mayor aún que en los modelos analógicos. En contrapartida son más adaptables que los otros dos tipos a distintas situaciones en las que pueden aplicarse. Cuentan con variables cuantitativamente definidas y relaciones matemáticas, como, por ejemplo, los modelos del universo astronómico que construyen los físicos (órbitas de desplazamiento de cuerpos celestes y satélites artificiales, etc.), y los modelos con que los economistas representan las relaciones entre los diversos mercados y factores que intervienen en una Economía. 1.5.2 Las ventajas de modelar La importancia del desarrollo de un modelo radica en que permite, a quien lo observa, figurarse cómo es una realidad, a partir de: 1.
Representar un problema que puede presentarse complejo para su comprensión;
2.
Analizar distintas soluciones alternativas antes de enfrentar la realidad para cambiarla;
3.
Extraer conclusiones anticipadamente, sin llegar a alterar la realidad para ver qué ocurre.
4.
Experimentar en menos tiempo y sin necesidad de involucrarse en cambios que, efectuados directamente sobre la situación real, pueden derivar en situaciones irreversibles y de complejas e inesperadas consecuencias.
5.
Experimentar sin incurrir en los costos que supondría hacerlo con objetos y situaciones reales.
De manera tal que, considerando lo citado precedentemente, sin llevar adelante (por ejemplo) un proceso de producción se puede determinar si es rentable o no. Para que los aspectos mencionados se conviertan en realidades palpables y sean efectivamente ventajas importantes, se debe tener muy en cuenta que el éxito del modelo matemático y el enfoque cuantitativo dependen en gran medida de la precisión con la que puedan expresarse, en términos de ecuaciones o relaciones matemáticas, las distintas relaciones observadas que se quiere representar. 1.5.3 Los modelos matemáticos Al momento de desarrollar un modelo se deberá tener en cuenta que existen factores del entorno que no están bajo el control del administrador o del decisor, a los que se denomina insumos incontrolables del modelo. A aquellos que son determinados o controlados por quien toma las decisiones en la realidad representada por el modelo se los denomina insumos controlables del mismo. Entre estos insumos están las alternativas de decisión que el administrador especifica y, por ello, se las vincula a las variables de decisión del modelo.
19
No debe olvidarse acá que tanto la situación problemática que llevó a plantear el modelo como las decisiones que se adopten y apliquen para solucionarla se desarrollan en un plano de realidad tangible, mientras que tanto el modelo armado como los resultados obtenidos de él provendrán de un mundo simbólico con un grado importante de abstracción. De manera que el resultado del modelo es simplemente la proyección de lo que sucedería si ocurren los factores ambientales mencionados y tales decisiones en una situación real. En tal sentido, la Figura, es claramente representativa de la situación descripta en el párrafo anterior, y que no debe ser soslayada por quien tiene a cargo el asesoramiento para la toma de una decisión como tampoco por quien debe aplicarla.
Figura 1.1. El proceso de construcción de un modelo. Para definir de qué forma se puede administrar un modelo que se aplica para la resolución de una situación problemática, es conveniente recurrir al auxilio de dos teorías. La TEORIA NORMATIVA indica el “como debería ser”, recomendando qué decisión tomar para llegar al óptimo si en la realidad se repite la situación modelada. La Teoría Normativa es prescriptiva: partiendo del ofrecimiento de todos los elementos al alcance, el que toma la decisión debe actuar. Los modelos normativos (también llamados de decisión, o de optimización) se apoyan en esta teoría aportando recomendaciones sobre la forma de comportarse para conseguir lo máximo (o lo mínimo) establecido como objetivo. Tal objetivo es representado por una expresión matemática que lo describe y se la denomina función objetivo, la cual, siendo medida de desempeño del modelo, depende en su valor de aquellos que adopten las variables de decisión. A esta función objetivo le acompañan funciones de restricción, las que indican condiciones o limitantes en los modelos que se evalúan. Finalmente, se puede identificar un conjunto de datos incontrolables, pero que deben tenerse en cuenta por ser importantes para el modelo y su solución, y se consignan como parámetros; o sea, variables que, para determinadas circunstancias y situaciones de la realidad, adoptan valores que se mantendrán fijos durante el análisis. Por otra parte, la llamada TEORIA DESCRIPTIVA (o Teoría Positiva) se basa en estudios que tratan de decir cómo se actúa y, además, de "predecir" ese comportamiento. Un modelo descriptivo explica la realidad en base a los datos. En este caso no existen una función objetivo ni restricciones, pero sí se da una medición del desempeño por medio de variables a definir, así como existen datos incontrolables (observados o supuestos) del modelo que se expresan mediante los parámetros. Existe una tipología adicional que es conveniente tener presente al momento de distinguir la clase de modelo con la que se debe tratar, basada en la certeza que se tiene sobre los datos y relaciones aplicados, ya que pueden conocerse con exactitud o ser inciertos y estar sujetos a variaciones. Si en un modelo los datos son conocidos y no puedan variar en relación con el momento de aplicación real del modelo -o sea, al analizar el problema se cuenta en forma cierta con toda la información necesaria para la toma de decisiones-, se lo denomina modelo determinístico.
20
Cuando algunos de los insumos incontrolables -parámetros o variables de estado- son inciertos o están sujetos a variaciones importantes, y su valor no podrá ser estimado con precisión con anterioridad a la toma de la decisión, se está en presencia de un modelo estocástico o probabilístico, ya que incorpora el desconocimiento mencionado mediante alguna medida de tal probabilidad. La optimización, también denominada Programación Matemática, sirve para encontrar la respuesta que proporciona el mejor resultado: la que logra mayores ganancias, mayor producción o felicidad o la que logra el menor costo, desperdicio o malestar. La Programación Matemática, en general, aborda el problema de determinar asignaciones óptimas de recursos limitados para cumplir un objetivo dado. El objetivo debe representar la meta del decisor. 1.5.4 Algunos Modelos Determinísticos y Probabilísticos. La mencionada separación entre modelos matemáticos descriptivos y normativos puede darse tanto entre los denominados probabilísticos como entre los determinísticos. A modo de síntesis, y sin agotar la lista que se podría elaborar, se pueden citar los siguientes: Modelos Normativos: a. Programación Lineal: es un procedimiento matemático para determinar la asignación óptima de recursos escasos. Encuentra su aplicación práctica en casi todas las facetas de los negocios, desde la publicidad hasta la planificación de la producción. Problemas de transporte, distribución, y planificación global de la producción son los objetos más comunes del análisis como programas lineales. Cualquier problema de PL consta de una función objetivo y un conjunto de restricciones todas expresadas mediante funciones de primer grado. En la mayoría de los casos, las restricciones provienen del entorno en el cual se trabaja. Cuando se quiere lograr el objetivo deseado, se puede observar que el entorno fija ciertas restricciones (es decir, dificultades, limitaciones) para cumplir con lo deseado (vale decir, el objetivo). Dentro de la Programación Lineal se distinguen, a su vez, el problema general y los casos especiales como son los problemas de Transporte y Asignación; a la vez que, como extensión debida al tipo de variables que se manejan, se tienen la Programación Lineal Entera y Programación Lineal Mixta, con la incorporación de variables que no admiten fraccionamiento en los valores que se les asignen. b. Programación Dinámica: en este caso, el tiempo es variable explícita (o la situación es asimilable a una donde transcurra el tiempo), existen decisiones secuenciales interrelacionadas, y el problema puede fraccionarse en etapas para su ejecución sobre la realidad. c. Otras situaciones se presentan en la realidad de las organizaciones y han motivado la creación de modelos específicos tales como: Teoría de los Juegos, la Teoría de Redes (de máxima capacidad, mínima distancia, árboles de extensión mínima, y administración de proyectos por camino crítico), Programación No Lineal, Teoría de Administración de Inventarios, Técnicas de Apoyo Multicriterio a la Decisión, Teoría de la Decisión. Modelos Descriptivos: En este caso son menores las oportunidades de encontrar modelos que adopten la característica de meramente describir la realidad. Sin embargo, una forma de ver la Teoría de las Colas de Espera está dada por la de mostrar únicamente medidas de comportamiento de un sistema; aunque, con el agregado de parámetros representativos de costos involucrados, se puede transformar en un modelo normativo tendiente a minimizar los costos totales del sistema.
21
1.6 Construcción de Modelos: Metodología y Etapas. Datos: Formas y Fuentes. Ya se mencionó que la toma de decisiones puede tener dos modalidades bien definidas: arte y/o ciencia. Concomitantemente, la construcción de un modelo requiere de una buena dosis de arte e imaginación, además de la pizca de conocimientos técnicos y científicos necesarios para mejorar las opiniones intuitivas. Como consecuencia de lo consignado anteriormente, no existe una sola manera de desarrollar un mismo modelo. En la medida que la construcción de modelos es un arte, sus fundamentos pueden enseñarse igual que los del arte. Por otro lado, en un ambiente de negocios, el desarrollo de modelos cuantitativos requiere que se especifiquen las interacciones de muchas variables. Para que sea cuantificado, el problema debe expresarse en términos matemáticos provenientes de un adecuado análisis y rigurosa metodología que será provista por un profundo conocimiento de las teorías científicas que sea necesario aplicar. En general se puede dividir el proceso de construcción de modelos en tres pasos: 1. Estudiar el ambiente de la situación administrativa: una vez más la Teoría General de Sistemas y la Dinámica de Sistemas hacen su aporte en apoyo a la toma de decisiones gerenciales, mediante su aplicación en los hechos y relaciones que se pretende modelar. Dentro de la administración se le suele restar importancia a estudiar el ambiente existente dentro de la organización. Por ejemplo, en muchos casos el problema se deriva de malas relaciones entre integrantes de la organización, lo cual deja un ambiente no propicio para el desarrollo de los negocios. Ignorar tales circunstancias al modelar, contribuye a favorecer la no comprensión de la situación en forma clara y, por consiguiente, a adoptar decisiones incorrectas. En función de lo citado, debe tenerse en cuenta que corresponderá interiorizarse profundamente de la situación real, para su correcta representación en el modelo. 2. Formular una representación selectiva de la situación: si bien conviene tener una visión holística de la situación, es necesario limitar el alcance de la representación. También existirán aspectos no relevados pero que pueden tener incidencia en los análisis y conclusiones a que se arribe, los cuales se registrarán mediante suposiciones y simplificaciones (que deben explicitarse debidamente). Aquí se deberá focalizar en los aspectos centrales excluyendo del ambiente los periféricos. Los objetivos y decisiones deben ser identificados y definidos explícitamente. Otra cuestión es que los objetivos se deben consignar de la forma más clara posible, pudiendo ser más de uno. 3. Construir y analizar un modelo simbólico (cuantitativo): en esta instancia se recurrirá a las clasificaciones detalladas en títulos anteriores, para definir si se trata de modelo determinista o probabilístico. También se debe acudir a la obtención de datos y fuentes que posibiliten las tareas de esta etapa. En gran parte la decisiones administrativas se basan en la evaluación e interpretación de datos, siendo, por lo tanto, muy necesarios para construir modelos eficaces. Los modelos simbólicos brindan una forma de evaluar e interpretar datos de manera sistémica y con más atención a los detalles de lo que es posible con modelos mentales. Lo más común, al presentarse datos al analista, es que éstos no estén procesados o que se encuentren en distintas fuentes y lugares, y que se tenga que realizar un esfuerzo adicional para su recolección. Normalmente suelen estar en algún tipo de unidad de medida. La decisión de cómo recopilar, almacenar e interpretar datos está gobernada principalmente por el uso que se les vaya a dar.
22
Los datos pueden provenir de registros del pasado. También pueden ser generados a través de observaciones directas o estimaciones realizadas en el presente. Los datos pueden ser también generados como pronósticos del futuro. 1.7 Desarrollo de Modelos: Preparación, Métodos de Cálculo y Resolución. Para llevar adelante la preparación de un modelo y su cálculo de resolución corresponde partir de un punto que es básico, y es el referido a qué tipo de modelo es el que se está trabajando. Entre todas las clasificaciones mencionadas se trata aquí de definir si es determinista o probabilístico. Un modelo puede considerarse como una entidad que captura la esencia de la realidad sin la presencia de la misma. Una fotografía es un modelo de la realidad ilustrada en la imagen. Ya que un modelo sólo captura determinados aspectos de la realidad, tal como se consignó anteriormente su éxito dependerá de la precisión con que adhiere a la situación y objetos modelados. Adicionalmente, su uso puede no ser apropiado en una aplicación en particular si no captura los elementos correctos que le corresponde representar. Un modelo matemático es una ecuación, desigualdad o sistema de ecuaciones o desigualdades, que incluye algunos determinados aspectos de la realidad que está representando, sus interacciones y relaciones. Los modelos de este tipo se utilizan en gran medida en las ciencias físicas, en el campo de la ingeniería, los negocios y la economía. A fin de definir las condiciones que procurarán aportar una solución al problema, el analista primero debe identificar un criterio según el cual se podrá medir el sistema. Este criterio a menudo se denomina medida del rendimiento del sistema o medida de efectividad. En modelos matemáticos normativos la medida de efectividad se representa mediante una expresión denomina función objetivo. Conseguir lo deseado de manera "determinística" (es decir, libre de riesgo) o “probabilística” depende de la influencia que puedan tener los factores no controlables en la determinación de los resultados de una decisión, y también en la cantidad de información que el tomador de decisión tiene para estimar el comportamiento de dichos factores. Generalmente, los gerentes buscan simplemente que la resolución del modelo aporte alguna mejora en el nivel de rendimiento; es decir, un problema de "búsqueda de objetivo" en el marco de la contribución que el modelo puede hacer al buen juicio e intuición del decisor. 1.7.1 Proceso de formulación de un problema de optimización Para formular un modelo normativo las propuestas varían según los autores que se refieran a dicho procedimiento. En primer lugar se recomienda leer con atención varias veces el enunciado del problema, derivado de la observación de la realidad (es decir, formular un Modelo Mental). A continuación, y a modo de lineamientos generales, se sugieren las siguientes etapas, adecuadas fundamentalmente para aquellos que al tomar decisiones están acostumbrados a pensar en términos de objetivos y medidas de desempeño. Por ser modelo normativo es factible identificar cuatro partes: un conjunto de variables de decisión, los parámetros, la función objetivo y un conjunto de restricciones. Definir objetivos y medidas de desempeño. Identificar entradas del modelo, que afectan a lo definido en 1. Esto lleva a definir variables de decisión y parámetros. Consignar las restricciones que ponen límite a las variables de decisión y a las medidas de desempeño.
23
1.8 Otras Aplicaciones de Modelos Matemáticos. 1.8.1 Modelos Determinísticos La programación lineal es una herramienta poderosa para seleccionar alternativas en un problema de decisión y por consiguiente se aplica a problemas en una gran variedad de entornos. La cantidad de aplicaciones es tan alta que sería imposible enumerarlas todas. A continuación se indican algunas de las principales aplicaciones que cubren las áreas funcionales más importantes de una organización empresarial. Finanzas: el problema del inversor podría ser un problema de selección del mix de su cartera de inversiones. En general, la variedad de carteras puede ser importante y requerir el agregado de muchas restricciones. Otro problema de decisión implica determinar la combinación de métodos de financiación para una cantidad de productos cuando existe más de un método de financiación disponible. El objetivo puede ser maximizar las ganancias totales cuando las ganancias de un producto determinado dependen del método de financiación. Por ejemplo, se puede financiar con fondos internos, con deuda a corto plazo o con financiación intermedia (créditos amortizados). Puede haber limitaciones con respecto a la disponibilidad de cada una de las opciones de financiación, así como también restricciones financieras que exijan determinadas relaciones entre las opciones de financiación a los efectos de satisfacer los términos y condiciones de los préstamos bancarios o financiación intermedia, o bien exigencias sobre ratios extraídos de los estados contables de la organización. También puede haber límites con respecto a la capacidad de producción de los productos. Las variables de decisión serían la cantidad de unidades que deben ser financiadas por cada opción de financiación. Administración de Producción y Operaciones: muchas veces en las industrias de proceso una materia prima en particular puede transformarse en una gran variedad de productos. Por ejemplo, en la industria petrolera, el crudo puede refinarse para producir nafta, kerosén, aceite para calefaccionar y distintas clases de aceite para motor. Según el precio de cada producto, el problema es determinar la cantidad que se debería fabricar de cada producto. Esta decisión está sujeta a numerosas restricciones tales como límites de las capacidades de diversas operaciones de refinado, rendimiento de subproductos según el tipo de crudo refinado, disponibilidad y costos de materia prima, demandas de cada producto y políticas gubernamentales con respecto a la fabricación de determinados productos. En la industria de productos químicos y de procesamiento de alimentos existen problemas similares. Recursos Humanos: los problemas de planificación de personal también se pueden analizar con programación lineal. Por ejemplo, en la industria telefónica, la demanda de servicios de personal de instalación/reparación es estacional. Otro caso típico lo constituye la organización de guardias en turnos rotativos que deben cubrir necesidades mínimas con fluctuaciones horarias (durante el día) o diarias (durante una semana). 1.8.2 Modelos Probabilísticos En los problemas de toma de decisiones arriesgadas son fuentes importantes de errores: las presunciones falsas, no tener una estimación exacta de las probabilidades, depender de las expectativas, la existencia de dificultades para medir la función de utilidad, y los errores de pronóstico. El dominio de los modelos de análisis de decisiones está entre dos casos extremos, dependiendo del grado de conocimiento que se tenga sobre el resultado de las acciones. La probabilidad es un instrumento para medir las chances de que un evento ocurra, y expresa el grado de incertidumbre. El lado determinista tiene una probabilidad de 1 (o cero), mientras que el otro extremo tiene una probabilidad plana (todas igualmente probables). Por ejemplo, si se tiene certidumbre de la ocurrencia (o no ocurrencia) de un evento, se usa una probabilidad de uno (o cero). Si se tiene incertidumbre, entonces se aplica la expresión "En realidad no sé; por lo tanto, puede o no ocurrir con probabilidad 0,50”, evaluando así en forma subjetiva la probabilidad (noción de Bayes). De lo expuesto se infiere que la probabilidad siempre depende de cuánto conoce el decisor. Si sabe todo lo que puede saber, consignará probabilidades 1 o 0. 24
1.8.3 Toma de Decisiones con Pura Incertidumbre Cuando las decisiones se toman con pura incertidumbre, el decisor no tiene conocimiento de los resultados de ninguno de los estados de la naturaleza y/o es costoso obtener la información necesaria. En tal caso, la decisión depende meramente del tipo de personalidad que tenga el decisor y, consecuentemente, de la postura que adopte ante la incertidumbre. Así, se tendrán los siguientes comportamientos (criterios para decidir) según los tipos de personalidad en relación con la toma de decisiones con pura incertidumbre: Pesimismo: o Criterio Conservador (o Maximin). Hipótesis de mínima. La postura lleva a interpretar que “las cosas malas siempre me suceden a mí”. Optimismo: o Criterio Agresivo (o Maximax). En oposición al anterior, “las cosas buenas siempre me suceden a mí”. Con coeficiente de Optimismo (Criterio o Índice de Hurwicz): Sin caer en los extremos de los criterios anteriores, se basa en la asignación o estimación de un coeficiente de optimismo que caracterizo a esa actitud “ni demasiado optimista ni demasiado pesimista” Mínimo arrepentimiento: (o Criterio de Pérdida de Oportunidad de Savage). Quien debe decidir odia las lamentaciones y se preocupa por minimizar las situaciones deplorables. La decisión a tomar debe ser tal que valga la pena repetirla. Como resultado, el individuo interpreta que “Sólo debería hacer las cosas que siento que podría repetir con placer”. Yo no sé nada: (o Criterio Laplace). Consiste en considerar que todos los estados de la Naturaleza tienen igual probabilidad. Ante el desconocimiento sobre el comportamiento de la Naturaleza, todo es igualmente probable. 1.8.4 Toma de decisiones con riesgo Cuando el decisor posee algún conocimiento sobre la ocurrencia de los posibles estados de la Naturaleza puede asignarle a la ocurrencia de cada estado alguna estimación subjetiva de probabilidad. En estos casos, el problema se clasifica como de toma de decisiones con riesgo. Entre estos modelos se cuentan aplicaciones de la Teoría de la Decisión, la administración de proyectos con tiempos estimados de duración de las tareas (PERT), y la teoría de las colas (o líneas) de espera con comportamientos aleatorios de incorporación a la cola y/o de los tiempos de prestación del servicio a quienes proceden de las colas. 1.9 Actividades para Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: http://www.cema.edu.ar/~afd/Modelos/Modelos.pdf http://www.monografias.com/trabajos13/ltomadec/ltomadec.shtml http://sisbib.unmsm.edu.pe/bibvirtual/publicaciones/indata/v02_n2/modelo.htm
25
26
.
PRONÓSTICOS DE NEGOCIOS Objetivos del Capítulo. Conocer los conceptos básicos de series de tiempo, y aplicarlos en la modelación. Al observar la gráfica de una serie de tiempo, saber detectar los componentes esenciales de una serie de tiempo. Aprender a construir modelos de serie de tiempo, mediante las componentes: tendencia, estacional, ciclo, y un término de error aleatorio. Identificar el modelo adecuado para la serie que se está analizando. Pronosticar los datos de una serie de tiempo, utilizando más adecuado el modelo. 2.0 Introducción. En el mundo globalizado y con mercados tan competidos como los que enfrentamos hoy, las empresas se ven obligadas a buscar mayor eficiencia en sus procesos de negocio. En este sentido, un tema que actualmente interesa es cómo pronosticar con más certeza la demanda de productos o servicios. Cada vez más empresas están redefiniendo y formalizando el proceso de elaboración de pronósticos para llevar a cabo una mejor planeación de ventas y operación y, por lo tanto, un mejor desempeño financiero. Cuando se elabora un mal pronóstico, la planeación se viene abajo y todas las áreas de la empresa se vuelven ineficientes. Esto se puede observar directamente en el bajo desempeño financiero de la empresa. Ventas negadas, excesos de inventarios de productos que no requieren los clientes, reducción de margen al vender con descuentos para lograr los objetivos, costos más altos en las compras, producción y/o distribución para reaccionar a emergencias, etc., estos son los síntomas. Pronosticar la demanda con buena exactitud normalmente no es fácil. No existen recetas de cómo hacerlo y cada empresa tiene que determinar la mejor forma de elaborar sus pronósticos. El tema de pronosticar es extenso y requiere de técnicas ad hoc para cada situación. Por ejemplo, pronosticar productos de alta rotación requiere diferentes técnicas que pronosticar productos de bajo movimiento o de demanda intermitente. Pronosticar la demanda de productos nuevos requiere consideraciones diferentes. Por otro lado, en ciertas ocasiones es conveniente pronosticar agrupando productos similares y en ciertas ocasiones por canal de venta o por marca. En ciertas ocasiones el uso de herramientas estadísticas es de muy buena ayuda y en otras ocasiones es mejor elaborar pronósticos en colaboración con los clientes. Si el éxito de la planeación depende de pronósticos certeros, entonces es conveniente revisar cómo se elaboran los pronósticos en su empresa y determinar si es posible mejorar la exactitud. Un buen comienzo para mejorar la exactitud de los pronósticos es entender los factores que influyen en el comportamiento de la demanda y tener mejor idea de qué ofrecen las diferentes técnicas de pronósticos. ¿Qué son los Pronósticos? El pronóstico no es una predicción de lo que irremediablemente pasará en el futuro. Un pronóstico es información con cierto grado de probabilidad de lo que pudiera pasar. La probabilidad de éxito, está en función directa de la elaboración de los pronósticos. Dicho de otra forma, el resultado de la planeación y operación de la empresa está directamente ligada a la certeza de los pronósticos. 27
Para pronósticos de negocios las mejores prácticas sugieren una combinación de técnicas cuantitativas y cualitativas, es decir, pronósticos estadísticos como base para iniciar el proceso de validación de los pronósticos definitivos. Se ha comprobado que las técnicas de pronósticos estadísticas son muy útiles, ya que cuantifican de manera muy exacta ciertos componentes de la demanda como tendencia, patrones de estacionalidad o de eventos. El ser humano tiene la capacidad de analizar muchas variables que sería muy difícil establecer en un modelo estadístico, sin embargo, está limitado en la cantidad de pronósticos que puede analizar, es inconsistente y adicionalmente en muchas ocasiones las estimaciones presentan sesgos motivados por influencias de estado de ánimo, optimismo o incluso influencias derivadas por la presión. Pronósticos y Planeación: Procesos críticos del negocio El papel de los directivos y gerentes es administrar los elementos del negocio que conducen al logro de los objetivos. De una u otra manera los directivos “presienten” lo que pasará. Sin embargo, en la mayoría de las ocasiones, sus decisiones son mucho mejores si se apoyan en cifras cuantificadas por una herramienta estadística ya que de esta manera se parte de una cifra base más conservadora. Por otro lado, cada vez es más necesario diferenciar las demandas de los clientes de un mismo producto, lo que requiere más tiempo y argumentos. ¿Cual es el costo de malos Pronósticos? Tenemos garantía que los pronósticos no van a ser 100% exactos y que además la desviación de los pronósticos tiene un costo implícito, ya sea que los pronósticos fueron altos o fueron bajos respecto a la realidad. El punto fundamental en los pronósticos es ser consistente y lograr la menor desviación respecto a los objetivos: Pronosticar por arriba de la demanda tiene entre sus consecuencias exceso de inventario, obsolescencia, reducción de margen para promover su venta. Pronosticar por debajo de la demanda tiene entre sus consecuencias comprar y producir más caro algo que no estaba planeado, incluso pérdida de venta y margen si no reaccionamos a tiempo. La elaboración de los pronósticos requiere información de la planeación. Quien elabora los pronósticos debe considerar las actividades planeadas como promociones, cambios de precios o, incluso, si hubo algún evento extraordinario en la historia reciente que pueda desviar fuertemente las estimaciones. Dejar esto a la memoria seguramente causará que nuestros pronósticos sean menos exactos. Actualmente las empresas están implantando alguna forma de documentar la historia para medir los impactos de los eventos y considerarlos o no como parte del pronóstico si se realizaran nuevamente. ¿Cómo Pronosticar? Muchas empresas actualmente están recurriendo al uso de paquetes de pronósticos estadísticos y establecer un proceso más formal en la planeación de ventas y operación. Antes de pensar en una herramienta o software de pronósticos estadísticos es conveniente entender aspectos relativos al proceso de los pronósticos: a. b. c. d. e.
28
Cómo funcionan las técnicas estadísticas. Cuántos datos se requieren. Cómo se puede medir el impacto de la desviación de los pronósticos. Cómo pronosticar cientos de productos de manera rápida y más exacta. Cuál es el perfil sugerido de quien elabora los pronósticos, etc.
Esto le permitirá evaluar si tiene oportunidad de mejorar su proceso mediante el uso de alguna herramienta o capacitación. Hoy en día las compañías tienen la posibilidad de romper paradigmas culturales acera de la realización de los pronósticos. Hacer buenos pronósticos es un proceso que agrega valor ya que está íntimamente relacionado con la toma de decisiones que impactan en el rendimiento de la empresa. Exactitud del pronóstico como indicador de desempeño clave Se requiere madurez para establecer la exactitud de los pronósticos como un indicador clave ya que siempre habrá desviaciones. Es necesario documentar y aprender de cuales fueron las razones que nos llevaron a tanta desviación en una estimación. Solo mediante la medición obtenemos una referencia que nos pueda indicar nuestro desempeño y/o tomar acciones inmediatas para corregir el rumbo. Mejores prácticas en la elaboración de Pronósticos Las mejores prácticas sugieren una combinación de pronósticos estadísticos con pronósticos por experiencia. Esta práctica ayuda a reducir los efectos de influencia del plan, influencias emocionales y además a – cuando son muchos productos los algoritmos estadísticos automáticos – determinar una mejor estimación y no solo un simple promedio. Una mejora en la exactitud de los pronósticos la podrá confirmar cuando cada mes se estén logrando los resultados de los objetivos. Esto también se confirma cuando las diferentes áreas están alineadas a partir de un pronóstico consensuado. Acerca de herramientas estadísticas existe una muy buena variedad de software para hacer pronósticos estadísticos. Los paquetes estadísticos trabajan de manera muy automática y son económicos. 2.1 Teoría de Series Temporales Una serie temporal es un conjunto de observaciones ordenadas en el tiempo o, también, la evolución de un fenómeno o variable a lo largo de él. Esta variable puede ser económica (ventas de una empresa, consumo de cierto producto, evolución de los tipos de interés,...), física (evolución del caudal de un río, de la temperatura de una región, etc.) o social (número de habitantes de un país, número de alumnos matriculados en ciertos estudios, votos a un partido,...). El objetivo del análisis de una serie temporal, de la que se dispone de datos en períodos regulares de tiempo, es el conocimiento de su patrón de comportamiento para prever la evolución futura, siempre bajo el supuesto de que las condiciones no cambiarán respecto a las actuales y pasadas. Si al conocer la evolución de la serie en el pasado se pudiese predecir su comportamiento futuro sin ningún tipo de error, estaríamos frente a un fenómeno determinista cuyo estudio no tendría ningún interés especial. Esto correspondería a una situación como la de la figura 2.1, que muestra la intensidad de corriente, I, que circula a través de una resistencia, R, sometida a un voltaje sinusoidal, V(t) = a cos (vt + ); por tanto I(t) = a cos (vt + )/R.
Figura 2.1.- Observaciones de la serie I(t) = cos (0,5t + /2) 29
En general, las series de interés llevan asociados fenómenos aleatorios, de forma que el estudio de su comportamiento pasado sólo permite acercarse a la estructura o modelo probabilístico para la predicción del futuro. Estos modelos se denominan también procesos estocásticos. Así, un proceso estocástico es una sucesión de variables aleatorias {Yt}, con t = 1, 2, ..., n, que evolucionan con el tiempo ( representado éste por el subíndice t). Cuando se dispone de n datos de un proceso estocástico, se está frente a n muestras, de tamaño unidad, extraídas de la población (variable aleatoria), correspondientes al tiempo en que se realizó la medición, y esto es lo que constituye la serie temporal o cronológica. Como ejemplo puede servir la evolución a lo largo del año 2008 del índice IGBVL, que recoge los 38 valores de mayor cotización de la bolsa de valores peruana, representada en la figura 2.2. Lógicamente, el valor del IGBVL dependerá del valor alcanzado en los días previos, además de recoger la influencia de un conjunto de factores sociales, políticos, económicos, etc., que son continuamente cambiantes en el tiempo y cuya conjunción, en un determinado instante, configuraría una hipotética distribución de probabilidad del citado índice económico. En casos como éste, es evidente que puede obtenerse un modelo que explique el comportamiento de la serie en el período estudiado, pero puede ser muy arriesgada la utilización de este modelo para hacer previsiones a medio o largo plazo. Así, en todas las series cronológicas, es necesaria una gran cautela en la previsión a causa de la muy probable inestabilidad del modelo en un futuro más o menos alejado del último instante del que se conocen datos.
Figura 2.2.- Evolución del índice IGBVL 2008 Otro ejemplo puede ser el constituido por la sucesión de variables aleatorias {Y 1, ...,Yt,...}, tales que Yt = 0,80Yt−1 + t, con Y0 = 0 y los t distribuidos N(0;1), independientes para todo t = 1, 2,... Esta serie puede expresarse también como
y la distribución de probabilidad de
cualquier Yt corresponde a una ley Normal, con esperanza matemática varianza
y
.
La figura 2.3 muestra la ley de probabilidad de la variable Y en los instantes t = 1, t = 4 y t = 20, junto con la serie cronológica compuesta por las 25 primeras observaciones de la misma. La particular forma de la información disponible de una serie cronológica, n muestras de tamaño unidad procedente de otras tantas poblaciones de distribución y características desconocidas, hacen que las técnicas de inferencia estadística, usualmente aplicadas en muestras de tamaño superior a la unidad, no sean válidas para estos casos.
30
En los capítulos siguientes se pretende presentar, de forma simple, distintos criterios metodológicos que permitan el estudio de estos fenómenos, y en particular la previsión de su evolución futura, para aplicarlos a campos técnicos y económicos, como por ejemplo previsión de las ventas de una empresa, de los usuarios de un medio de transporte, de la característica de interés de un proceso continuo, etc.
Figura 2.3.- Distribución de Yt y 25 observaciones de la serie Todas las formas de estudio de una serie cronológica, tal como se irá viendo, no conllevan cálculos complicados, pero sí reiterativos, con gran volumen de datos manipulados y con abundancia de gráficos; es por ello que para su estudio se hace muy necesario el disponer de un programa informático que permita su correcta aplicación y la obtención de cuantos gráficos sean necesarios. 2.2 Análisis De Una Serie Temporal Antes de abordar cualquier estudio analítico de una serie temporal, se impone una representación gráfica de la misma y la observación detenida de su aspecto evolutivo. Para estudiar el comportamiento de cualquier serie temporal, y predecir los valores que puede tomar en un futuro, puede hablarse de distintas metodologías, que denominaremos modelización por componentes y enfoque Box-Jenkins. 2.2.1 Modelización por componentes Este método consiste en identificar, en la serie Yt, cuatro componentes teóricas, que no tienen por qué existir todas, y que son: Tendencia: Tt. Estacionalidad: Et. Ciclos: Ct. Residuos: Rt. Cada una de estas componentes es una función del tiempo y el análisis consistirá en la separación y obtención de cada una de ellas, así como en determinar de qué forma se conjugan para dar lugar a la serie original. Estas componentes se pueden observar en la figura 2.4, en donde se ha considerado que actúan de forma aditiva para dar lugar a la serie cronológica. La tendencia es la componente general a largo plazo y se suele expresar como una función del tiempo de tipo polinómico o logarítmico, por ejemplo Tt = α0 + α1t + α2t2 + … Las variaciones estacionales son oscilaciones que se producen, y repiten, en períodos de tiempo cortos. Pueden estar asociadas a factores dinámicos, por ejemplo la ocupación hotelera, la venta de prendas de vestir, de juguetes, etc., cuya evolución está claramente ligada a la estacionalidad climática, vacacional, publicitaria, etc. Las variaciones cíclicas se producen a largo plazo y suelen ir ligadas a etapas de prosperidad o recesión económica. Suelen ser tanto más difíciles de identificar cuanto más largo sea su período, debido, 31
fundamentalmente, a que el tiempo de recogida de información no aporta suficientes datos, por lo que a veces quedarán confundidas con las otras componentes.
TENDENCIA
ESTACIONALIDAD
CICLOS
RESIDUOS
SERIE CRONOLOGICA
Figura 2.4. Componentes de una serie cronológica La componente residual es la que recoge la aportación aleatoria de cualquier fenómeno sujeto al azar.
32
Para evaluar las distintas componentes se utilizan técnicas estadísticas tales como modelo lineal, medias móviles, diferencias finitas, etc. Admitiendo que el componente aleatorio (residuo) es aditivo, una vez identificadas las otras componentes surge un nuevo problema que es el cómo conjuntar tendencia, estacionalidad y ciclos para dar lugar a la serie definitiva. Así se proponen, entre otros, modelos genéricamente denominados aditivos y multiplicativos. Modelo aditivo: Y = T + E + C + R Modelo multiplicativo: Y = T x E x C + R Para una primera identificación visual del caso, se puede considerar que si el patrón estacional se mantiene con amplitud constante se tratará de modelo aditivo (figuras 2.4 y 2.5). Cuando dicho patrón se vaya amplificando con el tiempo, será multiplicativo (figura 2.6).
Figura 2.5. Serie aditiva
Figura 2.6 Serie multiplicativa Un modelo aditivo se puede interpretar como aquel en que la estacionalidad actúa modificando la ordenada en el origen de la tendencia. Supongamos que no hay ciclos, que la tendencia es de tipo lineal, Tt = α0 + α1t, y que la estacionalidad es de período p = 4, es decir, cada 4 unidades de tiempo se repite el patrón (tal como ocurre en la figura 2.2). Representando sus valores por E1, E2, E3 y E4, respectivamente, el modelo aditivo se puede escribir como Y1 = α0 + α1 × 1 + E1 + R1 = γ1 + α1 × 1 + R1 Y2 = α0 + α1 × 2 + E2 + R2 = γ2 + α1 × 2 + R2 Y3 = α0 + α1 × 3 + E3 + R3 = γ3 + α1 × 3 + R3 33
Y4 = α0 + α1 × 4 + E4 + R4 = γ4 + α1 × 4 + R4 Y5 = α0 + α1 × 5 + E1 + R5 = γ1 + α1 × 5 + R5 … …. …. Yt = α0 + α1 × t + Es + Rt = γs + α1 × t + Rt
con t = + s; s = 1, …, p
Así pues, cada estación (s) componente del período conforma una recta con ordenada en el origen distinta para cada caso y pendiente común a todos; es decir, según muestra la figura 2.7, el modelo es un conjunto de rectas paralelas, cada una de ellas asociada a una estación. En el modelo multiplicativo, el componente estacional actúa sobre la ordenada en el origen y sobre la pendiente.
Figura 2.7. Interpretación de una serie con modelo aditivo Prescindiendo de los ciclos, supuesta una tendencia lineal tipo T t = α0 + α1t y una estacionalidad de período p, para cualquier t = + s; con s = 1, …, p, resulta Yt = Tt × Es + Rt = (α0 + α1t) Es + Rt, es decir Yt = (α0 Es ) + (α1Es ) t + Rt o sea Yt = γ0s + γ1s t + Rt De esta forma, cada una de las p estaciones del período configura una recta distinta, tanto en lo que se refiere a la ordenada en el origen (γ0s) como a la pendiente (γ1s). El conjunto de las p rectas constituye el modelo de comportamiento de la serie (figura 2.8). Es evidente que esta división, en modelo estrictamente aditivo o estrictamente multiplicativo, es bastante restrictiva, ya que puede darse el caso de que en algunas estaciones cambie sólo la pendiente, o sólo la ordenada en el origen. Esto constituiría un modelo mixto mucho más general que los propuestos hasta ahora, los cuales pasarían a ser meros casos particulares de éste. En la figura 2.9 se presenta una situación de este tipo.
34
Figura 2.8.- Interpretación de una serie con modelo multiplicativo
Figura 2.9. Modelo general 2.2.2 Enfoque Box - Jenkins La forma de encarar el análisis de las series temporales a través de la metodología de Box – Jenkins es dirigir el esfuerzo a determinar cuál es el modelo probabilístico que rige el comportamiento del fenómeno a lo largo del tiempo. Es decir, partiendo de la premisa de que no siempre va a ser posible identificar los componentes de la serie, se trata de estudiar el componente aleatorio puro, reflejado en los residuos. La metodología estadística utilizada en el estudio de una serie temporal por este sistema, se basa en los siguientes pasos: Identificación del modelo. Estimación de los parámetros. Validación de los supuestos admitidos en el análisis, también llamado diagnosis del modelo. Para poder abordar esta metodología es imprescindible, en primer lugar, estudiar un conjunto de modelos de comportamiento que cubran el mayor espectro posible de los procesos estocásticos objeto de nuestro interés. Entre ellos se pueden destacar los procesos de ruido blanco, medias móviles (MA), autorregresivos (AR), integrados (I) y sus conjunciones (ARMA y ARIMA). A partir de aquí se podrá identificar la serie de datos con alguno de los modelos estudiados, estimar sus parámetros y validar la admisibilidad del modelo adoptado. En general, se suele asumir que el componente aleatorio, el cual se representa por Z, sigue una distribución Normal de media cero y variancia σ2. Un proceso estocástico en que todos sus componentes son independientes y están constituidos sólo por componente aleatorio se denomina proceso de ruido blanco, es decir, Yt = Zt con Zt NINDEP(0; σ2) para todo t. Un proceso se denomina de media móvil de orden q, y se representa por MA(q), si su estructura es del tipo Yt = Zt + αt-1 Zt-1 + … + αt-q Zt-q. En la figura 2.10 se muestra un MA(4).
35
Figura 2.10.- Proceso de media móvil MA(4) Un proceso es autorregresivo de orden p, y se representa por AR(p), cuando cada componente es función de los anteriores más el término aleatorio; su estructura corresponde a: Yt = Zt + βt-1 Yt-1 + … + βt-p Yt-p En la figura 2.11 se muestra un AR(2). Cuando a las estructuras de autorregresión y media móvil se une una dependencia con el tiempo se llega a un ARIMA(p, r, q), donde p es el orden del AR, q el del MA y r el del proceso integrado, o, lo que es lo mismo, el grado del polinomio que representa la función del tiempo. En la figura 2.12 se presenta un proceso ARIMA(2,1,3).
Figura 2.11. Proceso autorregresivo AR(2)
Figura 2.12. Proceso ARIMA(2, 1, 3)
36
2.3 Descomposición de Una Serie Temporal Este método, también denominado sistema clásico, descompone la serie en tendencia, estacionalidad, ciclos y residuos Una vez decidida la conjunción entre ellos, aditiva o multiplicativa, se obtiene el modelo con el que hacer previsiones. La tendencia es la componente más importante de la serie, al definir lo que se podría interpretar como comportamiento a largo plazo. Cada observación va ligada a un valor del tiempo, lo que permite plantear un modelo del tipo Y= (t)+ e Donde la función (t) puede ser: Lineal
: (t) = α0 + α1t
Polinómica
: (t) = α0 + α1t + α2 t2 + ...
Exponencial
: (t) = α0 tα1
Si la serie no presenta estacionalidad, el método de estimación mínimo-cuadrática y todas las pruebas de hipótesis relativas a la explicación del modelo y a la significación de los coeficientes estimados, propios del modelo lineal ordinario, permiten estimar los coeficientes del modelo de tendencia sobre los datos directos. Caso de existir componente estacional, para que ésta no enmascare la tendencia, es necesario estabilizar previamente la serie. Para desarrollar la metodología de la descomposición clásica sobre un ejemplo, se dispone de los datos relativos a las ventas de material deportivo en una gran superficie comercial, recogidos en el cuadro 2.1 y representados en la figura 2.1. En este cuadro el tiempo (t) se ha medido tomando como referencia el inicio del período de recogida de datos, y, en este caso, su unidad es el trimestre. La observación de la figura 2.1, permite pensar en una tendencia lineal creciente y una estacionalidad clara, cuyo patrón se repite anualmente, es decir, cada 4 valores del tiempo (trimestres). Esto se puede interpretar como una tendencia sostenida de un aumento de las ventas en esta superficie comercial, unida a un comportamiento distinto para cada uno de los cuatro trimestres; debido, posiblemente, a que el precio del material deportivo es muy distinto según sea el adecuado para una estación concreta (material de esquí frente a entretenimiento de playa, por ejemplo). Por otra parte, el patrón estacional se mantiene con una amplitud aproximadamente constante, lo que conduce a la utilización de un modelo aditivo.
37
Año 2000
Trimestre
Ventas (Y)
1 40.22 2 54.89 3 63.51 4 111.35 2001 1 46.95 2 51.62 3 61.47 4 108.58 2002 1 41.38 2 65.30 3 64.25 4 113.82 2003 1 53.34 2 59.37 3 66.15 4 121.50 2004 1 67.38 2 56.09 3 75.11 4 124.39 2005 1 55.90 2 61.25 3 75.44 4 126.50 Cuadro 2.1. Ventas de material deportivo
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Figura 2.13 Evolución cronológica de las ventas de material deportivo En este ejemplo se ha identificado un patrón estacional compuesto por los cuatro trimestres y que se repite de año en año, además de una tendencia aparentemente lineal. Si se decidiese ajustar el modelo de tendencia directamente sobre los datos, se obtendrían los resultados del Cuadro 2.2.
38
Estadísticas de la regresión Coeficiente de correlación múltiple Coeficiente de determinación R^2 R2 ajustado Error típico
0.3293794 0.1084908 0.0679676 26.648969
Observaciones
24
ANÁLISIS DE VARIANZA
Regresión Residuos Total
Grados de libertad 1 22
Suma de cuadrados 1901.2996 15623.6857
23
17524.9853
Coeficientes Intercepción 57.500725 Variable X 1
Promedio de los cuadrados 1901.2996 710.16753
F 2.677255
Valor crítico de F 0.1160183
Error típico Estadístico t Probabilidad 11.2285559 5.1209368 3.933E-05
1.2858087 0.78583522 1.636232 0.1160183 Cuadro 2.2 Modelo de tendencia ajustado sobre todos los datos: Y = α0 + α1t + e
El modelo presenta un coeficiente de determinación (R 2) tan sólo del 10,8% y no resulta estadísticamente significativo, ya que el nivel de significación (p-val), tanto del ajuste como de la pendiente de la recta de tendencia, son claramente superiores a un riesgo de primera especie del 5%. Así, se demuestra que este procedimiento no es válido ya que incluye en el residuo todo el componente estacional, lo cual produce una inflación de la suma de cuadrados residual que desvirtúa el modelo y cualquier prueba de significación de la regresión y de sus coeficientes. Para evitar esto es necesario estabilizar la serie liberándola de la estacionalidad; esto se podría conseguir trabajando con los valores medios anuales, que son los del Cuadro 2.3. En el Cuadro 2.4 se detallan los resultados del cálculo del modelo de tendencia, considerado tipo rectilíneo. años
t (años)
Y promedio
2000 1 67.4925 2001 2 67.1550 2002 3 71.1875 2003 4 75.0900 2004 5 80.7425 2005 6 79.7725 Cuadro 2.3. Medias anuales de ventas de material deportivo Estadísticas de la regresión Coeficiente de correlación múltiple Coeficiente de determinación R2 R^2 ajustado Error típico
0.9556047 0.9131804 0.8914755 1.9544456 39
Observaciones
6
ANÁLISIS DE VARIANZA Grados de libertad
Suma de cuadrados
Regresión Residuos
1 4
160.7112 15.27943
Total
5
175.99063
Promedio de los cuadrados 160.7112 3.8198575
F 42.072565
Valor crítico de F 0.0029127
Coeficientes Error típico Estadístico t Probabilidad Intercepción 62.966833 1.8194898 34.606862 4.16E-06 Variable X 1
3.0304286
0.4672019 6.4863368 0.0029127 Cuadro 2.4. Modelo lineal para las medias anuales
Ahora ya se ha obtenido un modelo de tendencia altamente significativo y con un buen ajuste (R 2 = 91,3%). En la figura 2.14 se han representado las medias anuales junto a la estimación del modelo de tendencia; se observa la estabilización conseguida en los valores de las medias anuales, ya que mientras los datos directos oscilaban entre 40 y 130, las medias anuales van desde 67 hasta 81.
Figura 2.14 Evolución y tendencia de la media anual Hay que destacar que con esta estabilización se ha conseguido un modelo de tendencia significativo; sin embargo, ¿es aceptable este procedimiento? La respuesta sería no, ya que este sistema tiene el inconveniente de la gran pérdida de información, pues de los 24 datos iniciales, se ha acabado estimando el modelo con sólo 6 puntos. Este inconveniente queda paliado desestacionalizando la serie con las medias móviles. 2.3.1 Medias móviles: tendencia Con este método se consiguen suavizar tanto las oscilaciones periódicas de una serie como las aleatorias. Su aplicación requiere decidir, previamente, el período en que se repite cierto patrón de comportamiento, que pueda atribuirse a variaciones estacionales; la observación de la evolución gráfica de la serie puede ayudar a tomar la decisión. Una vez fijado el período p, se calculan las medias de los valores de la serie tomados de p en p, sucesivamente desde el inicio. Asociando cada una de estas medias al valor del tiempo del punto central del período estudiado, se obtiene una nueva serie de valores mucho más estables, debido, por una parte, a la reducción de la variabilidad ocasionada al promediar y, por otra, a que, si el período escogido es el correcto, al pasar de una media móvil a la siguiente, el nuevo dato incorporado es del mismo comportamiento que el dato saliente.
40
Si p es impar la asociación es directa:
Si p es par, el centro del grupo de cada p valores promediados corresponde a un valor no observado del tiempo; para subsanarlo, la nueva serie queda constituida por los promedios de las medias móviles tomadas dos a dos. Es decir:
… La representación gráfica de las medias móviles, o la regresión de dichos valores frente al tiempo, permiten evaluar la tendencia de la serie liberada de la componente estacional. Uno de los inconvenientes de este sistema es la pérdida de valores en los dos extremos de la serie, tanto mayor cuanto mayor es p. En ocasiones, se propone como alternativa a este problema la sustitución de los valores extremos de las medias móviles por los resultantes de una extrapolación lineal de los observados; sin embargo, si el número de datos disponibles es grande, la pérdida de información es insignificante. En el caso del ejemplo de las ventas de material deportivo, ya se ha comentado que la estacionalidad se manifiesta de forma anual, es decir, cada cuatro trimestres; ello conduce al cálculo de las medias móviles tomando p = 4. En el cuadro 2.5 se detalla el cálculo de los primeros valores de la nueva serie, y el cuadro 2.6 resume la totalidad de los mismos. t
Y
Yprom
t
1 40.22 2 54.89 3 63.51 67.49250 68.3338 3 4 111.35 69.17500 69.17500 68.7663 4 5 46.95 68.35750 68.35750 68.1025 5 Cuadro 2.5 Detalle del cálculo de las medias móviles con p = 4
41
t
Yprom
3 68.3338 4 68.7663 5 68.1025 6 67.5013 7 66.4588 8 67.4725 9 69.5300 10 70.5325 11 72.6825 12 73.4363 13 72.9325 14 74.1300 15 76.8450 16 78.1900 17 78.9000 18 80.3813 19 79.3075 20 78.5175 21 79.2038 22 79.5088 Cuadro 2.6 Medias móviles con p = 4 Los resultados del modelo lineal, 2.7. Estadísticas de la regresión Coeficiente de correlación múltiple Coeficiente de determinación R^2 R^2 ajustado Error típico Observaciones
para el cálculo de la tendencia constan en el cuadro
0.9515545 0.905456 0.8998946 1.5550251 19
ANÁLISIS DE VARIANZA Grados de libertad
Suma de cuadrados
Promedio de los cuadrados 393.69249 2.4181031
Regresión Residuos
1 17
393.692486 41.1077523
Total
18
434.800238
Coeficientes Intercepción 63.006463
42
F 162.81046
Error típico Estadístico t Probabilidad 0.9188117 68.573858 3.25E-22
Valor crítico de F 3.912E-10
Variable X 1
0.8310768 0.06513283 12.75972 3.912E-10 Cuadro 2.7 Modelo de tendencia sobre las medias móviles
Trabajando sobre 19 puntos, los 19 valores de las medias móviles, se ha obtenido un buen ajuste, con un coeficiente de determinación del 90,5 %. En consecuencia, el modelo de tendencia resultante es T = 63,0065 + 0,8311 t Evidentemente, la interpretación de la ecuación de la tendencia permite afirmar que las ventas se incrementan 0,8311 unidades cada trimestre (ya que el tiempo se ha medido en trimestres). En la figura 2.15 puede observarse el suavizado conseguido con las medias móviles junto con el modelo de tendencia estimado a partir de los citados valores.
Figura 2.15 Evolución ( • ), medias móviles ( ) y tendencia ( 2.3.2 Estacionalidad
), para p = 4
La componente estacional, que provoca una oscilación sistemática de período corto, generalmente no superior al año, puede enmascarar la evolución a largo plazo, tendencia, si no se aísla convenientemente. Se entiende como componente estacional, en modelos aditivos, la diferencia entre el valor de la estación y la media de todas las estaciones componentes del período. El análisis de la estacionalidad queda ligado al método que se decida emplear para modelizar la tendencia; así, en este punto estudiaremos la situación para el caso de trabajar con medias móviles. Para calcular los valores de los índices estacionales hay que seguir la siguiente sistemática: Calcular las medias móviles, , sobre los datos,Yt, de la serie original, tomando el período de agrupación, p, que se considere oportuno. Proponer un modelo de agrupación de las componentes, aditivo o multiplicativo. Separar la parte explicada por la tendencia. Supuesto el modelo aditivo, esto equivale a calcular Wt = Yt - . Si fuese multiplicativo, en lugar de diferencias serían cocientes, es decir, W t =Yt/ . Hay que destacar que en Wt están incluidas las componentes asociadas a la estacionalidad, los ciclos y los residuos. Asumiendo que los residuos son variables aleatorias de media nula y que la componente cíclica, caso de existir, es de período suficientemente largo como para no ser recogida por los datos, se procede a evaluar la estacionalidad asociada a cada componente del período, a cada trimestre en
43
el caso del ejemplo. Para ello se calculan los promedios de los W t de la misma estación , s = t, …, p. donde s representa el índice estacional y ns el número de valores asociados a este índice que se promedian. Ya que los índices estacionales miden discrepancias respecto a la media, ésta se necesita como valor de referencia; por tanto es necesario calcular la media general:
Calcular los índices estacionales en modelo aditivo Los índices estacionales son las diferencias entre los promedios de las Wt de cada estación y la media general que se acaba de definir, es decir
Es obvio destacar que la suma de estos índices es cero:
.
Calcular los índices estacionales en modelo multiplicativo. En este caso, los índices estacionales son el cociente entre los promedios de las Wt de cada estación y la media general, es decir
Ahora, la suma de estos índices es igual al período, extraño que los índices estacionales se representen en %.
. En modelo multiplicativo, no es
En el cuadro 2.8 se detallan los cálculos del caso de modelo aditivo de las ventas de material deportivo.
44
t
Yt
Yprom_movil
Wt
Estación: s
1
40.22
1
2
54.89
2
3
63.51
67.49250
68.3338
-4.8238
3
4
111.35
69.17500
68.7663
42.5838
4
5
46.95
68.35750
68.1025
-21.1525
1
6
51.62
67.84750
67.5013
-15.8813
2
7
61.47
67.15500
66.4588
-4.9888
3
8
108.58
65.76250
67.4725
41.1075
4
9
41.38
69.18250
69.5300
-28.1500
1
10
65.30
69.87750
70.5325
-5.2325
2
11
64.25
71.18750
72.6825
-8.4325
3
12
113.82
74.17750
73.4363
40.3838
4
13
53.34
72.69500
72.9325
-19.5925
1
14
59.37
73.17000
74.1300
-14.7600
2
15
66.15
75.09000
76.8450
-10.6950
3
16
121.50
78.60000
78.1900
43.3100
4
17
67.38
77.78000
78.9000
-11.5200
1
18
56.09
80.02000
80.3813
-24.2913
2
19
75.11
80.74250
79.3075
-4.1975
3
20
124.39
77.87250
78.5175
45.8725
4
21
55.90
79.16250
79.2038
-23.3038
1
22
61.25
79.24500
79.5088
-18.2588
2
23
75.44
79.77250
24
126.50 Cuadro 2.8 Evaluación de la estacionalidad por medias móviles.
3 4
Por ejemplo, para el tercer trimestre (s = 3), el promedio de las Wt, cuyos valores del tiempo correspondiesen al tercer trimestre, por ser múltiplos de 4 más 3 (t = 3, 7,11, 15, 19), sería:
Análogamente, para cada trimestre, se obtiene:
Y la media general es:
y los índices estacionales, resultan E1 = –20,6426 E2 = –15,5836 E3 = –6,5264 E4 = 42,7526 Los valores de los índices estacionales recién obtenidos se interpretan de la siguiente forma: respecto a la media, el primer trimestre tiene una venta inferior en 20,6426 unidades; el segundo está 15,5836 unidades por debajo de la media; el tercero 6,5264; mientras que el cuarto supera a la media en 42,7526 unidades de venta. Con el modelo de tendencia del cuadro 2.7 y la estacionalidad, se ha obtenido la descomposición de la serie original, mostrada en la figura 2.16. Evidentemente, los residuos se calculan como: R = Y - T - E. La buena modelización conseguida queda confirmada por los residuos, ya que en su mayoría están en el intervalo ±5 y sólo en 3 puntos se llega a valores de 10 u 11 unidades.
45
Tal como se ha ido repitiendo, el objetivo de la modelización de la serie es poder realizar previsiones para los próximos valores del tiempo. En el cuadro 2.9 se presentan las previsiones para los 2 años inmediatos siguientes. Atendiendo a que el período estacional es igual a 4, para realizar la previsión hay que identificar el tiempo como un múltiplo de 4 más s (s = 1, 2, 3, 4), para añadir a la tendencia el valor correcto de la estacionalidad. Así, la previsión se calcula como:
La figura 2.17 muestra la evolución de las previsiones y su buena concordancia con la evolución histórica de los datos recogidos en el estudio. T
E
T+E
R
SERIE CRONOLOGICA (Yt)
Figura 2.16 Descomposición de la serie de ventas de material deportivo por medias móviles 46
Estacionalidad: E
t
estación = s
2006
25
1
83.7834
-20.6426
63.1408
26
2
84.6145
-15.5836
69.0308
27
3
85.4455
-6.5264
78.9192
28
4
86.2766
42.7526
129.0292
29
1
87.1077
-20.6426
66.4651
30
2
87.9388
-15.5836
72.3551
31
3
88.7698
-6.5264
82.2435
2007
Tendencia
Previsión: Yestim
Año
32 4 89.6009 42.7526 132.3535 Cuadro 2.9 Previsiones para 2006 y 2007, según el modelo de descomposición clásica
Figura 2.17 Evolución histórica ( • ), modelo ( –– ) y previsiones ( p ) 2.3.3 Descomposición Aditiva: Caso temperaturas El cuadro 2.10 presenta las temperaturas medias mensuales registradas en una ciudad del hemisferio sur, en el período de tiempo que abarca desde enero de 1996 a diciembre del 2005. Interesa estudiar el modelo de comportamiento y realizar una previsión de las temperaturas de la década siguiente. Mes
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
I
26,8
27,1
26,9
26,8
26,3
27,1
26,8
27,1
26,3
27,0
II
27,2
27,5
26,3
26,9
27,1
27,1
27,1
27,5
26,7
27,4
III
27,1
27,4
25,7
26,7
26,2
27,4
27,4
26,2
26,6
27,0
IV
26,3
26,4
25,7
26,1
25,7
26,8
26,4
28,2
25,8
26,3
V
25,4
24,8
24,8
26,2
25,5
25,4
25,5
27,1
25,2
25,9
VI
23,9
24,3
24,0
24,7
24,9
24,8
24,7
25,4
25,1
24,6
VII
23,8
23,4
23,4
23,9
24,2
23,6
24,3
25,6
23,3
24,1
VIII
23,6
23,4
23,5
23,7
24,6
23,9
24,4
24,5
23,8
24,3
IX
25,3
24,6
24,8
24,7
25,5
25,0
24,8
24,7
25,2
25,2
X
25,8
25,4
25,6
25,8
25,9
25,9
26,2
26,0
25,5
26,3
XI
26,4
25,8
26,2
26,1
26,4
26,3
26,3
26,5
26,4
26,4
XII
26,9
26,7 26,5 26,5 26,9 26,6 27,0 26,8 Cuadro 2.10 Registro de las temperaturas mensuales
26,7
26,7
La evolución cronológica de los datos se muestra en la figura 2.18, en donde se pone de manifiesto que la tendencia es prácticamente inapreciable, por la aparente horizontalidad del eje virtual de la serie. Por 47
otra parte se observa la existencia de una componente estacional clara que se repite, lógicamente, cada año y mantiene la amplitud, dando idea de que es un modelo aditivo. Al ser los datos mensuales, la longitud del período es igual a 12. El cálculo de las medias móviles, con p = 12, y su representación gráfica (figura 2.19) confirman la estacionalidad, por la estabilización conseguida en la serie, pero ponen en entredicho la ausencia de tendencia. La observación del gráfico hace recomendable ajustar un modelo de tendencia, que se hará posteriormente y que ya se ha representado en esta figura.
Figura 2.18 Evolución cronológica de las temperaturas
Figura 2.19 Temperaturas mensuales ( • ), medias móviles ( _ ) y línea de tendencia ajustada ( - ) Para evaluar la estacionalidad es necesario calcular los índices estacionales, tal como se ha detallado. Los resultados obtenidos se encuentran en el cuadro 2.11, y se presentan gráficamente en la figura 2.20. Mes
(s)
Indices Es
Mes
(s)
Indices Es
I
1
1.08329475
VII
7
-1.88013117
II
2
1.32310957
VIII
8
-1.79309414
III
3
0.98699846
IX
9
-0.77133488
IV
4
0.62959105
X
10
0.06246142
V
5
-0.15050154
XI
11
0.53792438
VI
6
-1.0273534 XII 12 0.99903549 Cuadro 2.11 Índices estacionales
La interpretación de los índices es simple: desde octubre (X) a abril (IV), la temperatura está por encima de la media anual; mientras que de mayo (V) a septiembre (IX) está por debajo de la media. No olvidemos 48
que los datos corresponden a una ciudad del hemisferio sur; por tanto, de octubre a abril son los meses cálidos, y los demás son los fríos. Es de destacar que la oscilación térmica media, del mes más cálido al más frío, es relativamente pequeña (1,31 + 1,80 = 3,01°C). Esto, unido a los valores medios mensuales, que oscilan entre 23 y 29°C permite afirmar que el estudio se está haciendo sobre una ciudad de clima muy suave y casi permanentemente primaveral.
Figura 2.20 Componente estacional: índices La tendencia, aunque débil, existe y es de tipo lineal. Su evaluación se efectuará mediante el modelo lineal aplicado a las medias móviles (cuadro 2.12). Estadísticas de la regresión Coeficiente de correlación múltiple
0.54422581
Coeficiente de determinación R2
0.29618173
R2 ajustado
0.28954194
Error típico
0.22654012
Observaciones
108
ANÁLISIS DE VARIANZA Grados de libertad Regresión
Suma de cuadrados
Promedio de los cuadrados
1
2.28925319
2.28925319
Residuos
106
5.43996491
0.05132042
Total
107
7.72921811
Coeficientes
Error típico
44.6070595
Valor crítico de F 1.145E-09
Estadístico t Probabilidad
Intercepción 25.4342763 0.05009208 507.750413 Variable X 1
F
2.637E-181
0.00467004 0.00069923 6.67885166 1.145E-09 Cuadro 2.12 Modelo lineal para la tendencia: Yt = α0 + α1 t + e
A pesar del valor del coeficiente de determinación del ajuste, (29,62 %), la explicación del modelo es significativa. Así, se puede deducir que parece existir una tendencia muy ligera a un incremento de la temperatura, que se ha estimado en un aumento de 0,00467 grados mensuales en promedio. La evolución del modelo, junto con los datos reales, se presenta en la figura 2.21 Para su obtención, hay que tener en cuenta que, conocidos los índices estacionales y el modelo de tendencia, la suma mes a mes de los dichos valores dará lugar al modelo propuesto, es decir:
49
Figura 2.21 Datos (… ) y modelo ajustado ( - ) Solamente hay que destacar la buena concordancia entre ambos, a pesar de que hay algunos puntos que parecen presentar mayores discrepancias. Esto ocurre, principalmente, desde abril hasta julio de 2003 que como, puede observarse, ya en los datos iniciales presentaron unas temperaturas medias bastante superiores a las de los demás años (es decir hizo un otoño especialmente cálido). En la figura 2.22, se muestran los residuos resultantes de la descomposición de esta serie, obtenidos como . Hay que destacar la buena modelización conseguida, pues en la mayoría de las 120 observaciones, el error es inferior a un grado, excepto en los meses ya comentados.
Figura 2.22 Residuos del modelo A partir de la descomposición, y suponiendo que no cambiase el comportamiento meteorológico de la zona, la previsión de la temperatura para los 10 años siguientes sería la del cuadro 2.13, que se muestra en la figura 2.23 junto a los datos disponibles. Aquí se observa que, de mantenerse la tendencia, la temperatura media mensual, poco a poco, se va incrementando. Comparando los datos reales con las previsiones, se ve en estas últimas la ausencia del componente aleatorio. Se está haciendo una previsión de temperaturas medias, pero el azar meteorológico se unirá a la previsión alterándola en aquellos períodos de tiempo en los que las temperaturas sean distintas a las de la tónica general: inviernos muy fríos o muy suaves, veranos más extremos, etc.
50
Mes
Año 2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
I
27.1
27.1
27.2
27.3
27.3
27.4
27.4
27.5
27.5
27.6
II
27.3
27.4
27.4
27.5
27.6
27.6
27.7
27.7
27.8
27.8
III
27.0
27.1
27.1
27.2
27.2
27.3
27.3
27.4
27.4
27.5
IV
26.6
26.7
26.8
26.8
26.9
26.9
27.0
27.0
27.1
27.1
V
25.9
25.9
26.0
26.0
26.1
26.1
26.2
26.3
26.3
26.4
VI
25.0
25.1
25.1
25.2
25.2
25.3
25.3
25.4
25.4
25.5
VII
24.1
24.2
24.3
24.3
24.4
24.4
24.5
24.5
24.6
24.7
VIII
24.2
24.3
24.4
24.4
24.5
24.5
24.6
24.6
24.7
24.7
IX
25.3
25.3
25.4
25.4
25.5
25.5
25.6
25.7
25.7
25.8
X
26.1
26.2
26.2
26.3
26.3
26.4
26.4
26.5
26.6
26.6
XI
26.6
26.6
26.7
26.8
26.8
26.9
26.9
27.0
27.0
27.1
XII 27.0 27.1 27.2 27.2 27.3 27.3 27.4 27.4 27.5 27.6 Cuadro 2.13 Temperatura prevista para los 10 años siguientes a la recogida de datos
Figura 2.23 Datos desde 1986 a 1995 ( • ) y previsiones desde 1996 a 2005 ( - ) 2.3.4 Descomposición Multiplicativa: Caso usuarios transporte público En el cuadro 2.14 se recogen los datos relativos al número de usuarios de un determinado transporte público en el período que abarca desde 1994 hasta 2005, y la figura 2.24 muestra su evolución cronológica. Mes
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
I
90
111
127
142
146
164
175
176
208
199
207
219
II
88
115
107
139
155
151
161
194
189
190
198
206
III
109
129
141
145
182
180
179
197
232
228
251
229
IV
103
121
135
162
165
164
195
211
226
220
231
223
V
103
112
133
144
165
184
189
191
222
222
234
231
VI
122
125
154
176
191
206
208
235
245
233
251
266
VII
134
164
175
192
195
198
227
248
252
303
316
290
VIII
132
158
174
190
205
235
249
273
242
253
285
294
IX
115
133
158
160
182
197
224
202
229
253
250
258
X
101
127
139
151
165
163
193
189
202
223
232
214
XI
91
110
112
134
138
148
170
167
192
191
190
206
XII
112
120
140
140
155
163
166
168
198
185
201
199 51
Cuadro 2.14 Usuarios de un transporte público.
Figura 2.24 Evolución cronológica del número de usuarios. La observación de la figura 2.24 permite realizar las siguientes consideraciones: Se detecta una clara tendencia creciente en el tiempo. Hay una estacionalidad manifiesta que se repite anualmente. Ya que los datos son mensuales, su período será igual a 12. El patrón de estacionalidad tiene una forma constante pero presenta una amplificación continua en el tiempo. Esta situación es la que indica que el modelo subyacente es multiplicativo. Para obtener la descomposición de la serie cronológica, es necesario estabilizarla previamente, mediante medias móviles de p = 12; y después modelizar la tendencia y calcular los índices estacionales. La evolución de las medias móviles se muestra en la figura 2.25, y se aprecia un crecimiento que no es proporcional al tiempo, sino que parece sufrir un amortiguamiento al final de la serie; es decir, probablemente se tratará de un modelo parabólico.
Figura 2.25 Tendencia a través de las medias móviles (p =12) La estimación mínimo-cuadrática conduce al modelo de tendencia, sobre las medias móviles, cuya estimación se muestra en el cuadro 2.15. En ella se observa, además de un muy buen ajuste reflejado por una R2 del 99,74%, que el término cuadrático es altamente significativo. El signo negativo de este término da idea de una especie de freno en el crecimiento sostenido del número de usuarios, representado por el coeficiente positivo del tiempo.
52
Estadísticas de la regresión Coeficiente de correlación múltiple
0.99866456
Coeficiente de determinación R2
0.99733091
R2 ajustado
0.99728953
Error típico
2.0160183
Observaciones
132
ANÁLISIS DE VARIANZA Grados de libertad
Suma de cuadrados
Regresión
2
195909.374
97954.6869
Residuos
129
524.298543
4.06432979
Total
131
196433.672
Coeficientes
Promedio de los cuadrados
Error típico
Estadístico t
F
Valor crítico de F
24101.0675 1.001E-166
Probabilidad
Intercepción 99.7953224 0.63760786
156.515201
5.433E-149
Variable X 1
1.43266479 0.02012802
71.1776439
2.126E-105
Variable X 2
-0.0029421 0.00013513 -21.7720708 4.9966E-45 Cuadro 2.15 Estimación del modelo de tendencia: Y= a0 + a1 t + a2 t2 + e
Así pues, el modelo de tendencia puede escribirse como: T = 99.7953 + 1.4326 t – 0,00294 t2 En modelos multiplicativos, como el del actual ejemplo, la componente estacional representa la relación entre cada estación y la media general. Recordemos que, en estos casos, el cálculo de la estacionalidad se realiza de acuerdo con los siguientes pasos: a. Calcular las medias móviles
, a partir de los datos, Yt, de la serie.
b. Separar la tendencia, es decir, calcular c. Asumiendo que los ciclos, caso de existir, son de período suficientemente largo como para no ser recogidos por los datos, calcular los promedios de las Wt de cada estación y la media general, s es el indicador de la estación (mes, en el ejemplo), y ns el número de valores de W que se promedian en la citada estación s = 1, …, p
y
d. Finalmente, los valores de las componentes estacionales, generalmente expresados en % en modelos multiplicativos, se obtienen como:
En el cuadro 2.16 se muestran los valores de las componentes estacionales del presente ejemplo, y se representan gráficamente en la figura 2.26.
53
Mes
Mes
Es
I
92.40
V
97.07
IX
105.54
II
88.43
VI
109.25
X
94.13
III
101.75
VII
121.94
XI
81.56
IV
Es
Mes
Es
99.24 VIII 121.34 XII Cuadro 2.16 Componente estacional.
87.35
Figura 2.26 Índices estacionales La interpretación de los índices podría ser en el sentido de que, por ejemplo, los usuarios de los meses de julio y agosto son del orden de un 121% superior a la media, mientras que en noviembre se está en un 81% de la media. Ello podría aconsejar una promoción en los meses de noviembre, diciembre, enero y febrero, con el fin de conseguir una mayor ocupación de las plazas disponibles. La figura 2.26 muestra la concordancia entre los datos y su modelización, a partir de la tendencia y estacionalidad calculadas, de acuerdo con el modelo multiplicativo:
Figura 2.26 Serie cronológica experimental ( • ) y ajustada (-). Observando la figura 2.26 se puede destacar que hay unos desajustes más acusados en ciertos meses de julio o agosto, en concreto, los de los años 1999, 2000, 2001, 2003 y 2004, por lo que es posible afirmar que en los casos citados ha habido un comportamiento sustancialmente distinto del esperado en los mismos meses de otros años; en principio, sería discutible afirmar la presencia de un cambio en los hábitos de utilización de este transporte, ya que ni el año 2003 ni el 2005, pertenecientes al período en cuestión, presentan semejantes discrepancias. A pesar de todo, en este caso, sería prudente tomar con ciertas precauciones las previsiones para años venideros, mientras no se confirme la consolidación en el futuro de un cambio o de una permanencia de
54
comportamiento. También podría ser interesante intentar averiguar qué ocurrió en estos meses (quizás una campaña publicitaria, quizás una disminución de alternativas de la competencia,...). La figura 2.27 muestra la evolución de los residuos entre los datos experimentales y el modelo ajustado, como . Se observa que, en la mayoría de los casos, oscilan entre ±16, aunque en algún caso la discrepancia se aproxima a 30 unidades. Asumiendo que se mantiene el mismo modelo, la previsión de usuarios hasta el año 2010 se presenta en la figura 2.28. Hay que tener en cuenta, para realizar correctamente los cálculos, que el último valor de t para el que se dispone de datos, diciembre de 2005, es 144; por tanto, para las predicciones, que abarcan el período de los próximos 60 meses, los valores de t irán desde 145 hasta 204.
Figura 2.27 Residuos del modelo ajustado En el gráfico de la previsión se puede observar la reducción de la velocidad de crecimiento inicial de la serie que se ha comentado en la modelización de la tendencia.
Figura 2.28 Serie observada y previsiones hasta el año 2000 2.4 Modelización con Variables Categóricas Tal como se ha comentado en la sección anterior, si hubiera estacionalidad, estimar el modelo de tendencia sobre los datos directos, por procedimientos usuales de ajuste mínimo cuadrático, sería improcedente. Ello es debido a que se produciría una inflación de los residuos no atribuible a la aleatoriedad sino a la variabilidad ocasionada por el componente estacional. Para evitarlo, se pueden modelizar conjuntamente la tendencia y la estacionalidad con variables categóricas asociadas a cada estación, o bien desestacionalizar previamente la serie y entonces ajustar el modelo de tendencia, como ya se ha expuesto. La modelización conjunta, con variables categóricas, de la tendencia y la estacionalidad presenta como principal ventaja la generalidad del método. Por este procedimiento no es necesario, a priori, asumir un
55
modelo aditivo o multiplicativo, sino que se plantea un modelo general que incluye todas las posibilidades. Sea p el período estacional, es decir, el número de unidades de tiempo que conforman el patrón de comportamiento que se repite sistemáticamente. Cada uno de los valores del tiempo contenidos en p corresponde a una estación, la cual se designará por el subíndice s, de forma que s = 1, 2, ..., p. Cada estación debe estar ligada biunívocamente a una variable categórica. Dicha variable es un indicador que toma el valor 1 en la estación a la que está asociada y 0 en todas las demás, excepto para la primera estación, en que todas toman el valor 0. Ésta es la razón por la cual con p-1 variables categóricas es suficiente para estudiar una serie de período p. Las variables categóricas, Q, quedan, pues, definidas como
Con estas variables se plantea un modelo tipo
donde f(t) es una función polinómica del tiempo, o sea,
, que viene a recoger la
tendencia o evolución general, a largo plazo, de los datos con el tiempo. Los términos del grupo indican los cambios que las distintas estaciones, componentes del período estacional, introducen en la ordenada en el origen del modelo, parte aditiva según el sistema clásico. Mientras que los del grupo representa la influencia de la estacionalidad sobre la función del tiempo, lo que en el método clásico se interpreta como parte multiplicativa. El estudio de la significación de cada uno de los coeficientes α, β y γ, y la consiguiente eliminación de los no significativos conducirá el modelo que definitivamente explica el comportamiento de la serie. Para desarrollar la metodología de las variables categóricas sobre un ejemplo, se van a utilizarlos datos relativos a las ventas de material deportivo estudiados por el método clásico, con el fin de poder comparar posteriormente los resultados obtenidos. En el cuadro 2.17 se vuelven a reproducir los datos de la serie cronológica, junto a los valores de las variables categóricas. La representación gráfica de los mismos ya se presentó en la figura 2.13, cuya observación condujo a pensar en una tendencia lineal creciente y una estacionalidad de período p = 4. A fin de no confundir los dos efectos, procede la creación de variables categóricas que identifiquen cada una de las cuatro estaciones, que en este ejemplo constituyen el período de repetición del patrón estacional. Por otra parte, suponiendo que hubiese ciclos, el intervalo de tiempo de recogida de datos es totalmente insuficiente para tomarlos, por lo que su posible existencia quedará enmascarada en los residuos. En el cuadro 2.17 están las variables categóricas Q2, Q3 y Q4, cuya conjunción representa de forma unívoca cada trimestre. Se insiste en que no es necesaria una Q1, puesto que el primer trimestre es el que toma como referencia Q2 = Q3 = Q4 = 0, y son los demás que, a través del indicador, aportarán la parte del efecto estacional correspondiente.
56
Año
Trimestre (s)
2000
1
2001
2002
2003
2004
2005
Ventas (Y)
Q2
Q3
Q4
t
40.22
0
0
0
1
2
54.89
1
0
0
2
3
63.51
0
1
0
3
4
111.35
0
0
1
4
1
46.95
0
0
0
5
2
51.62
1
0
0
6
3
61.47
0
1
0
7
4
108.58
0
0
1
8
1
41.38
0
0
0
9
2
65.30
1
0
0
10
3
64.25
0
1
0
11
4
113.82
0
0
1
12
1
53.34
0
0
0
13
2
59.37
1
0
0
14
3
66.15
0
1
0
15
4
121.50
0
0
1
16
1
67.38
0
0
0
17
2
56.09
1
0
0
18
3
75.11
0
1
0
19
4
124.39
0
0
1
20
1
55.90
0
0
0
21
2
61.25
1
0
0
22
3
75.44
0
1
0
23
4 126.50 0 0 1 Cuadro 2.17 Ventas de material deportivo
24
En este caso, al ser la tendencia rectilínea, se plantea el modelo Y = α0 + α1t + β2Q2 + β3Q3 + β4Q4 + γ2Q2 t + γ3Q3 t + γ4Q4 t + La estimación de sus parámetros conduce a los resultados expuestos en el cuadro 2.18. Los resultados del modelo lineal general evidencian que todos los términos del tipo Q jt no son estadísticamente significativos, (p-val < 0,05), por tanto procede recalcular el modelo prescindiendo de ellos. Cabe destacar que este hecho manifiesta que la estacionalidad no modifica la pendiente de la recta del tiempo, es decir, el incremento de las ventas es el mismo para cada trimestre. Esto simplifica el caso al corresponder a un modelo aditivo puro, que puede ser, alternativamente, estudiado por la metodología de la descomposición clásica, tal como se ha hecho en la sección anterior. Si alguno de esos términos hubiese resultado significativo, el sistema clásico proporcionaría un modelo bastante precario.
57
Estadísticas de la regresión Coeficiente de correlación múltiple
0.98973365
Coeficiente de determinación R2
0.97957269
R2
ajustado
0.97063574
Error típico
4.73014481
Observaciones
24
ANÁLISIS DE VARIANZA Grados de libertad
Suma de cuadrados
Promedio de los cuadrados
Regresión
7
17166.997
2452.42815
Residuos
16
357.988318
22.3742699
Total
23
17524.9853
Coeficientes Intercepción
Error típico
38.9463095 3.66031773
Q2
15.7735
5.3510502
Estadístico t
F
Valor crítico de F
109.609304
2.5717E-12
Probabilidad
10.6401445
1.1507E-08
2.94773912
0.0094549
Q3
19.193619 5.53456782
3.46795264 0.00317106
Q4
65.6576905 5.72616449
11.4662599
t
1.08321429 0.28268022
3.83194228 0.00147026
3.966E-09
tQ2
-0.80264286
0.3997702
-2.0077606 0.06186319
tQ3
-0.35128571
0.3997702
-0.87871911 0.39255913
tQ4
-0.1485 0.3997702 -0.3714634 0.71516553 Cuadro 2.18 Resultados del modelo lineal general
El cuadro 2.19 contiene los resultados del ajuste del modelo definitivo, es decir, de Y = α0 + α1t + β2Q2 + β3Q3 + β4Q4 + Estadísticas de la regresión Coeficiente de correlación múltiple Coeficiente de determinación
R2
0.98677823 0.97373128
R2 ajustado
0.96820102
Error típico
4.92233873
Observaciones
24
ANÁLISIS DE VARIANZA Grados de libertad
Suma de cuadrados
Promedio de los cuadrados
Regresión
4
17064.6264
4266.15659
Residuos
19
460.358954
24.2294186
Total
23
17524.9853
58
F
Valor crítico de F
176.07342 9.8949E-15
Coeficientes Error típico Estadístico t Probabilidad Intercepción 42.5279881 2.57989903 16.4843615
1.0352E-12
Q2
2.2726759
0.03484621
15.278119 2.85709757 5.34742643
3.6808E-05
Q3
6.46739286 2.84571718
Q4
64.5555119
2.8759648 22.4465584
3.8699E-15
t
0.75760714
0.147083 5.1508817 5.682E-05 Cuadro 2.19 Resultados del modelo definitivo
Los gráficos de residuos y probabilístico Normal se presentan en la figura 2.29, y no presentan ninguna peculiaridad especial. En consecuencia queda validado el modelo obtenido.
Figura 2.29 Gráficos de los residuos del modelo Como resumen de todo lo anterior, el modelo que explica el comportamiento de la serie, y que va a ser utilizado para hacer previsiones de las ventas futuras, ha resultado ser 42,5280 + 0,7576 t + 6,4674 Q2 + 15,2781 Q3 + 64,5555 Q4 La interpretación de los coeficientes del modelo permite identificar tendencia y estacionalidad. En cuanto a la primera, se detecta un incremento de las ventas de 0,7576 unidades cada unidad de tiempo (trimestre); incremento que se mantiene constante sea cual sea la estación. En consecuencia, la estacionalidad sólo afecta a la ordenada en el origen de cada una de las cuatro estaciones (trimestres) que componen el período. 59
Tomando como referencia el primer trimestre, en el que Q 2 = Q3 = Q4 = 0, se observa que en él las ventas dependen del tiempo, según la ecuación 42,5280 + 0,7576 t
con t = 1 +
Para un tiempo correspondiente a un segundo trimestre, las variables categóricas toman los valores Q 2 = 1 y Q3 = Q4 = 0 y el modelo es 42,5280 + 0,7576 t + 6,4674 = 48,9954 + 0,7576 t
con t = 2 +
Para un tiempo de tercer trimestre, las variables categóricas toman los valores Q3 = 1 y Q2 = Q4 = 0 y el modelo es 42,5280 + 0,7576 t + 15,2781 = 57,8061 + 0,7576 t
con t = 3 +
Y, en el caso del cuarto trimestre, las variables categóricas toman los valores Q4 = 1 y Q2 = Q3 = 0; el modelo es 42,5280 + 0,7576 t + 64,5555 = 107,0835 + 0,7576 t con t = 4 + Así, para cada trimestre (estación del período), se obtiene un modelo del mismo tipo, rectilíneo con igual pendiente, en este caso, pero con distinta ordenada en el origen. Esto se puede interpretar como que, tomando siempre como referencia el primer trimestre, en el segundo el volumen de ventas añade a la función del tiempo 6,4674 unidades, en el tercero el incremento es de 15,2782 y en el cuarto de 64,5555 unidades. Estos valores son, evidentemente, los coeficientes de las variables categóricas. En consecuencia los coeficientes de las variables categóricas representan la cantidad en que una estación, sistemáticamente, supera (o no alcanza, según sea el signo) el valor de la primera estación del período. Es decir, estos coeficientes son una forma de medir el componente estacional. Para evaluar la bondad del modelo, en la figura 2.30 se muestra la comparación de los valores medidos con los estimados a partir del modelo ajustado; se observa la buena concordancia entre ambos. La modelización tiene como objetivo principal el poder hacer previsiones para un futuro próximo. En este caso se procede a calcular las previsiones para los próximos 2 años, a base de sustituir los valores del tiempo y de las variables categóricas en el modelo obtenido. Los resultados se muestran en el cuadro 2.20 y en la figura 2.31.
60
Figura 2.30 Datos reales ( • ) y modelo ajustado ( _ ) Aquí se detecta la coherencia de la previsión con los datos históricos, siempre que no cambie el modelo de comportamiento de la serie en el período previsto. Esto podría ocurrir, por ejemplo, si hubiese una recesión económica, la apertura de otro comercio de similares características en las inmediaciones, un cambio de hábitos en la población, una campaña propagandística con éxito de la competencia, etc. 42,5280 + 0,7576 t + 6,4674Q2 + 15,2781Q3 + 64,5555Q4 Año
t
Q2
Q3
Q4
2006
25
0
0
0
61.46817
26
1
0
0
68.69317
27
0
1
0
78.26150
28
0
0
1
128.29650
29
0
0
0
64.49860
30
1
0
0
71.72360
31
0
1
0
81.29193
2007
Yestim
32 0 0 1 131.32693 Cuadro 2.20 Previsiones para 2006 y 2007
Figura 2.31 Datos, modelo y previsiones para los dos años siguientes 2.5 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: http://ciberconta.unizar.es/LECCION/seriest/060.HTM http://www.mty.itesm.mx/egap/materias/re-4004/Cap7.ppt http://www.bccr.fi.cr/ndie/Documentos/DIE-02-2002-NTASPECTOS%20CONCEPTUALES%20SOBRE%20SEATS.pdf http://www.aaep.org.ar/espa/anales/resumen04/04/Trajtenberg.pdf Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm
61
Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
62
FORMULACION Y OPTIMIZACION DE MODELOS Objetivos del Capítulo Plantear y resolver problemas que impliquen toma de decisiones para obtener minimización de costos o maximización de utilidades. Resolver problemas de optimización lineal y/o entera por el método gráfico y por el método simplex Interpretar los resultados de un problema de programación lineal y/o entera mediante el análisis de sensibilidad, para tomar la mejor decisión que optimice la utilización de los recursos en una organización industrial o de servicios. 3.0 Introducción El desarrollo de los métodos de optimización, según muchos autores, ha representado uno de los avances científicos más importantes desde mediados del siglo XX. Actualmente son una herramienta utilizada en muchos campos de la administración, de la economía y de la ingeniería. Existen muchos libros de texto sobre el tema y miles de artículos científicos en revistas especializadas. Los métodos de optimización tienen como base el método científico para investigar y ayudar a tomar decisiones sobre los problemas complejos de las organizaciones de hoy en día. Básicamente siguen los pasos siguientes: (1) la observación de un problema, (2) la construcción de un modelo matemático que contenga los elementos esenciales del problema, (3) la obtención, en general con la utilización de un ordenador, de las mejores soluciones posibles con la ayuda de algoritmos exactos o heurísticos y finalmente (5), la calibración y la interpretación de la solución y su comparación con otros métodos de toma de decisiones. Un ejemplo simple, el problema de la asignación, nos puede servir para ilustrar la dificultad esencial de los métodos cuantitativos. Una Empresa tiene 70 empleados con calificaciones diferentes (Administradores, Ingenieros, personal Auxiliar, etc.) que hemos de asignar a 70 tareas también diferentes. Si pudiéramos determinar un valor que reflejase la asignación de un empleado a una tarea determinada, tendríamos que escoger una entre 70! formas posibles de permutación de las asignaciones que maximice el valor total. Cómo que 70! es aproximadamente igual a 10100, necesitaríamos un ordenador que ejecutase 1.000.000 de operaciones por segundo durante aproximadamente 1087 años, para examinar todas las permutaciones. Problemas de decisión como éste son muy comunes y se tienen que desarrollar modelos de programación matemática, métodos matemáticos para obtener soluciones a los modelos, y algoritmos de ordenador muy eficientes. Los métodos cuantitativos han tenido un impacto impresionante en la mejora de la eficiencia de numerosas organizaciones en todo el mundo. Existen inúmeras aplicaciones con éxito en todos los campos en donde la toma de decisiones es compleja y que pueden implicar para la organización grandes inversiones o cambios en la organización que determinen su futuro. 3.1 Programación Lineal: Formulación de Problemas La programación lineal es la herramienta básica más utilizada dentro de los métodos cuantitativos, debido tanto a su inmenso abanico de aplicaciones como a su simplicidad de implementación. Efectivamente, el desarrollo de la programación lineal, según muchos autores, ha representado uno de los avances científicos más importantes desde mediados del siglo XX. Actualmente es una herramienta utilizada en muchos campos de la administración, de la economía y de la ingeniería.
63
La programación lineal es un caso especial de la programación matemática, en donde todas las funciones que hay en el modelo son lineales: siempre tenemos una función objetivo lineal a optimizar (maximizar o minimizar), sujeta a restricciones lineales individuales. Las variables del modelo, que son continuas, únicamente pueden coger valores no negativos. Si bien puede parecer que estos supuestos quitan realismo al problema porque el modelador está limitado al uso de ecuaciones que quizás no son frecuentes en el mundo real, las técnicas de programación lineal se utilizan en un amplísimo espectro de problemas como, entre otros, de planificación y gestión de recursos humanos y materiales, de transporte, de planificación financiera y de organización de la producción. En definitiva, una extensa gama de problemas que aparecen en las áreas de tipo industrial, económico, administrativo, militar... El término programación tiene su origen en la planificación de las actividades que se realizan en una organización tal como una fábrica, un hospital, una compañía aérea o un organismo público, en dónde hay un objetivo a optimizar (maximización de beneficios, minimización de costos, maximización de la cobertura sanitaria, etc.). No tenemos que confundir este término con la “programación” en referencia a la preparación de una serie de órdenes e instrucciones de un lenguaje informático en un ordenador. 3.1.2 Orígenes de la Programación Lineal La programación lineal, si bien actualmente se utiliza frecuentemente para resolver problemas de decisión, era casi desconocida antes de 1947. Ninguna investigación significativa fue realizada antes de esta fecha, si bien hay que mencionar que, alrededor de 1823, el matemático francés Jean Baptiste Joseph Fourier parecía conocer el potencial del tema. Un matemático ruso, Leonid Vitalievitx Kantorovitx, que publicó una extensa monografía en 1939, Matematitxeskie Metodi Organisatsi i Planirovaniia Proisvodstva (Métodos matemáticos para la organización y planificación de la producción) fue el primer investigador en reconocer que una amplia gama de problemas de producción y distribución tenían una estructura matemática y, que por lo tanto, se puedan formular con un modelo matemático. Desgraciadamente sus propuestas fueron desconocidas tanto en Unión Soviética como en el occidente durante dos décadas. Durante este periodo, la programación lineal experimentó un gran desarrollo tanto en Estados Unidos como en Europa. Después de la segunda guerra mundial, funcionarios del gobierno americano consideraron que la coordinación de las energías de toda una nación debido al peligro de una guerra nuclear requeriría la utilización de técnicas científicas de planificación. Con la aparición del ordenador esto se hizo posible. Se crearon instituciones como la Corporación RAND en donde ingenieros y matemáticos se pusieron a trabajar intensamente en la formulación y resolución de problemas matemáticos aplicados a la toma de decisiones. Entre otros, se propuso un modelo de programación lineal por su simplicidad y aplicabilidad, sin dejar de dar un marco lo suficientemente amplio para representar actividades interdependientes que han de compartir recursos escasos. El sistema (como, por ejemplo, la producción industrial) se compone de diversas actividades relacionadas entre ellas (formación, fabricación, almacenaje, transporte, distribución y venta). Este fue el primer modelo de programación lineal conocido. ¿En qué consiste la Programación Lineal? La Programación lineal (PL de ahora en adelante) consiste en encontrar los valores de unas variables que maximizan o minimizan un único objetivo sujeto a una serie de restricciones. Las principales características de PL son: 1. 2. 3. 4.
Un único objetivo lineal a optimizar (maximizar o minimizar) Unas variables de decisión que siempre son continuas 2 y no negativas Una o más restricciones lineales Un conocimiento exacto de los parámetros y recursos utilizados en la construcción del modelo.
Si todas estas condiciones se cumplen, existen varios métodos de obtención de soluciones que nos dan la solución óptima con un costo computacional relativamente reducido. Como veremos más adelante,
2
Por continuas se entiende que pueden tomar valores fraccionados 64
incluso la más popular de las Hojas de Cálculo, Excel, incorpora una herramienta para resolver programas lineales. A continuación analizaremos con más detalles estas características y lo que ocurre si una o varias de ellas no se cumplen. En primer lugar, cabe destacar que en la PL todas las funciones utilizadas tanto en el objetivo como en las restricciones son lineales. Es decir, las restricciones consisten en la suma de variables multiplicadas por sus respectivos parámetros, siendo esta función menor, igual o mayor que un determinado recurso. El objetivo también es lineal, si bien desconocemos a priori su valor. En caso de que tanto el objetivo como una o más restricciones no fueran lineales, sería necesario el introducir métodos de programación nolineal, que son mucho más complejos de resolver y cuya optimalidad no siempre está garantizada. En segundo lugar, la PL considera que las variables de decisión son continuas. Desde el punto de vista matemático de obtención de soluciones, esta característica no ofrece problemas. Ahora bien, en muchas situaciones, la interpretación económica de la solución de un problema de PL no tiene sentido si obtenemos fracciones en las variables. Por ejemplo, si estamos asignando trabajadores a tareas, no tiene sentido un resultado que en un momento determinado asigne 3,4 trabajadores a una determinada tarea. Por otro lado, y como veremos más adelante, si uno opta por redondear al entero más próximo se puede cometer un grave error. Para poder obtener soluciones enteras en problemas que lo requieren, se utiliza la Programación lineal Entera, que será objeto de estudio en el capítulo cuarto de este libro. En tercer lugar, los modelos de PL consideran que hay un único objetivo a maximizar o minimizar. Muchas veces podemos tener que resolver problemas que tienen más de un objetivo. Por ejemplo, por un lado podemos querer maximizar la cobertura de un determinado servicio sanitario, mientras que por el otro queremos reducir los costos generales. Ambos objetivos son conflictivos, en el sentido de que aumentar la cobertura significaría un aumento en la necesidad de recursos con el consecuente incremento de costos en el sistema. Esta conflictividad se resuelve utilizando métodos de Programación Multicriterio o multiobjetiva, presentados en el capítulo quinto de este libro. Finalmente, en la PL se considera que los parámetros utilizados en la construcción del modelo se conocen con exactitud, o en términos más técnicos, son determinísticos. Sin embargo, existen situaciones en las que uno o más parámetros tienen un componente estocástico, o en palabras menos técnicas, tienen una variabilidad (que en algunos casos puede ser representada por una distribución estadística). Si esto acontece, la PL ya no es un buen instrumento para la obtención de soluciones. Es necesario utilizar técnicas de Programación Estocástica, que quedan fuera del alcance de este libro. 3.1.3 Formulación de Modelos En esta sección se presentan algunos ejemplos de los problemas con los cuales se puede encontrar una organización y como la programación lineal puede expresarlos matemáticamente. Un Problema de asignación de personal El hospital ESSalud ha decidido ampliar su servicio de urgencias (abierto las 24 horas) con la consiguiente necesidad de nuevo personal de enfermería. La gerencia del hospital ha estimado las necesidades mínimas de personal por tramos horarios para poder cubrir las urgencias que se presenten. Se definieron 6 tramos de 4 horas. La necesidad mínima de personal en cada tramo se indica en el Cuadro 3.1. Por otro lado, el departamento de recursos humanos ha informado a gerencia que los contratos laborales han de ser de ocho horas seguidas, según el Convenio firmado con los sindicatos, independientemente de los horarios de entrada y salida del personal. El problema es encontrar el número mínimo de personal necesario para cubrir la demanda.
65
Tramos Horarios 1
J
2
3
4
5
6
0:00-4:00 4:00-8:00 8:00-12:00 12:00-16:00 16:00-20:00 20:00-24:00
Personal Nj
9 5 3 7 5 Cuadro 3.1: Necesidades de personal por tramos horarios
6
Formulación del problema: En primer lugar, se tienen que definir las variables del modelo que queremos desarrollar. Como hemos de controlar en número de personal en cada turno, definimos Xj como la cantidad de personal que entra a trabajar en el turno j, en donde j=1,...,6. Es decir, hay una variable para cada turno. Las restricciones del modelo tienen que reflejar la necesidad de que la cantidad de personal que entren en el periodo j más el número de personas que entraron a trabajar en el turno j-1 sea suficiente para cubrir las necesidades del turno j (Nj). Esta situación queda reflejada en el Cuadro 3.2. En esta tabla, un trabajador que entra a trabajar, por ejemplo, a las 4:00, trabajará en los turnos 2 y 3, y por tanto, contribuirá a cubrir las necesidades de estos dos turnos. En otras palabras, el turno j estará siendo atendido por Xj-1 y Xj. En consecuencia, tendremos que Xj-1 + Xj (el personal que trabaja durante el turno j) tiene que ser, como mínimo, igual a Nj, que es el número mínimo de personal de enfermería necesario para este turno. En términos matemáticos la restricción es la siguiente: Xj-1 + Xj Nj Habrá una restricción para cada horario de entrada. El objetivo de la gerencia consiste en la minimización del número total de personal de enfermería necesario para cubrir las necesidades diarias. Este número será igual a X1 +X2 +X3 +X4 +X5 +X6 que representa la suma del número de personal que entra en cada periodo. Finalmente, el modelo matemático es el siguiente:
Tramos Horarios 1
2
3
4
5
6
0:00-4:00 4:00-8:00 8:00-12:00 12:00-16:00 16:00-20:00 20:00-24:00 00:00
X1
04:00
X1 X2
08:00
X2 X3
12:00
X3 X4
16:00
X5
20:00
X6
Personal Nj
9
66
X4 X5 X6
5
3
7
5
6
Cuadro 3.2: Necesidades de personal Un problema de asignación de recursos El gerente del hospital ESSalud ha observado que algunos de sus servicios tienen capacidad ociosa. Siguiendo una propuesta realizada por el equipo médico, esta capacidad ociosa podría aprovecharse para introducir dos tipos nuevos de cirugía, A y B. Tanto los pacientes de tipo A como los de tipo B tienen que pasar primero por una sala de pre-cirugía y, una vez pasado por el quirófano tienen que estar en observación en una sala postoperatoria, que no existe de momento. El equipo médico ha estimado el tiempo medio que necesita cada paciente de tipo A y de tipo B en cada uno de los servicios pre-quirúrgico (PQ), quirúrgico (QI) y postoperatorio (PO). La experiencia en un hospital similar muestra que por cada tres pacientes de tipo A que llegan al hospital como mínimo llega uno de tipo B. Por otra parte, se ha estimado el costo de cada paciente en los diferentes servicios. El Cuadro 3.3 muestra los datos del problema, teniendo en cuenta que la capacidad ociosa es en horas mensuales y el costo por paciente en nuevos soles. Horas Necesarias de Cirugía A
B
Capacidad Ociosa
Sala PQ
1
3
144
Sala QI
3
2
162
Sala PO
4
2
Costo 13 18 Cuadro 3.3: Estimaciones horarias de las cirugías A y B Como el servicio postoperatorio (PO) aún no existe, el gerente argumenta que para justificar su creación tiene que utilizarse durante un mínimo de 135 horas al mes. Por otra parte, el presupuesto mensual asignado a las nuevas cirugías es de S/.982. El gerente quiere saber cual será el número máximo de pacientes que podrán ser operados al mes. Formulación matemática del problema: Primero definimos las variables del modelo. Sean X1 y X2 el número total de pacientes por mes que pueden ser tratados con la cirugía A y B respectivamente. A continuación se presentan las restricciones. Se ha establecido que en la sala PQ se disponen de 144 horas. En otras palabras, la utilización de esta sala no puede sobrepasar las 144 horas. Como cada uno de los pacientes de tipo A y de tipo B consumen 1 hora y 3 horas en esta sala respectivamente, el número total de horas mensuales consumidas en PQ para los dos tipos será igual a X1 + 3X2. Este número tiene que ser inferior o igual a las 144 horas. La restricción será la siguiente: X1 + 3X2
144
El mismo razonamiento puede ser utilizado para determinar el número límite de horas en la sala QI. Como el total de horas consumidas será igual a 3X1 + 2X2, y hay un máximo de 162 horas disponibles, la restricción sobre QI será: 3X1 + 2X2
162
El gerente ha determinado que, para viabilizar los nuevos tratamientos, se tiene que ocupar la nueva sala PO durante un mínimo de 135 horas al mes. Como el número de horas mensuales que se utilizará en PO es igual a 4X1 + 2X2, tendremos que: 4X1 + 2X2
135
67
La experiencia en otros hospitales muestra que, por cada 3 pacientes de tipo A, viene como mínimo un paciente de tipo B. Matemáticamente, esto se expresa como:
que es equivalente a: X1 - 3X2
0
Finalmente, el gasto mensual realizado en las dos cirugías no puede exceder S/.982. Como cada paciente de tipo A y de tipo B cuesta 13 Nuevos soles y 18 Nuevos soles respectivamente, el gasto total mensual será de 13X1 + 18X2, cantidad que no puede exceder S/.982, tendremos que: 13X1 + 18X2
982
Ahora se necesita formular el objetivo. El gerente quiere saber el número máximo de enfermos de tipo A y de tipo B que se puede atender cada mes. Simplemente, tendremos que si Z es este número, el objetivo se expresará como: Max Z = X1 + X2 En resumen, la formulación del problema es la siguiente:
Un problema de transporte El hospital ESSalud tiene un Centro de Asistencia Primaria (CAP) en n pueblos y ciudades de una región (un CAP en cada centro urbano). Para obtener un buen funcionamiento global del servicio y poder planificar el número de visitas en función del personal previsto en cada CAP y de su dimensión, ESSalud ha decidido organizar el servicio de tal forma que todos sus asegurados tengan un CAP de referencia asignado, pero que sea éste el más cercano posible a su lugar de residencia. En la región hay m ciudades y pueblos (siendo m mucho mayor que n) y se sabe cuantos asegurados tiene en cada uno de ellos. Los CAP tienen una capacidad máxima de pacientes que pueden soportar. El objetivo es asignar a los asegurados a los CAPs minimizando el costo o la distancia total. Si no existiera el problema de capacidad, el modelo sería trivial, ya que bastaría asignar cada ciudad al CAP más cercano, obteniéndose el costo de transporte más barato. Al tener límites en la capacidad, puede ser que no todas las ciudades tengan asignado el centro más cercano, ya que esto implicaría una sobre utilización. Entonces, puede ser que alguna ciudad, o parte de ella tenga asignada CAP que no es el más cercano, en función de la disponibilidad o holgura del sistema. En caso de que queramos asignar un único CAP a cada ciudad, se tiene que formular un problema diferente, El Problema de Asignación. En primer lugar se definen los parámetros necesarios para formular el modelo. Sea ai el número de asegurados en el centro urbano i, i = 1,...,m. Sea bj el número total de asegurados que el CAP j puede tener asignados como máximo, j = 1,...,n. Se define cij como el costo de desplazamiento entre i y j.
68
Como se necesita conocer cuantas personas del centro urbano i serán asignadas al centro j, se define la variable Xij como el número de personas que provienen del centro urbano i que serán atendidas por el CAP j. Una vez definidos los parámetros y las variables, necesitamos definir las restricciones del modelo. En este problema hay dos tipos de restricciones. La primera viene definida por la capacidad de atención máxima de los CAPs. El número total de asegurados asignados al CAP j no puede exceder su capacidad bj. Para un CAP determinado j, no podemos asignar la población que la que determina su capacidad máxima X1j + X2j + ... + Xij + ... + Xmj < bj En términos matemáticos:
El segundo grupo de restricciones tiene que considerar que hemos de asignar la totalidad de los asegurados de ESSalud de cada centro urbano i a los CAPs existentes.
Finalmente, se tiene que formular el objetivo de minimización total de la distancia o costo total del sistema. Este viene definido por: c11X11 + c12X12 + ... + c1nX1n + ... + cijXij + ... + cm1Xm1 + ... + cmnXmn que podemos re-escribir en forma compacta como:
En resumen, la formulación completa del modelo es la siguiente:
Se tiene que observar que este problema presenta una peculiaridad que no está en la formulación. Para que el problema tenga una solución factible, el número total de asegurados no puede exceder la capacidad total de los CAPs. Es decir, existe la siguiente restricción implícita en el modelo:
69
Si esto no se verificara, el problema no tendría solución. Un problema de Programación Financiera La compañía de seguros Pacífico SA está preparando su plan de inversiones para los próximos dos años. Actualmente, la empresa tiene 1,5 millones de dólares para invertir y espera ingresar, gracias a inversiones pasadas, un flujo de dinero al final de los meses, 6 12 y 18 próximos. Por otra parte, la empresa quiere expandirse y tiene dos propuestas sobre la mesa. La primera es asociarse con la empresa Positiva SA y la segunda con la empresa Rimac SA. En el Cuadro 2.4 es muestra el flujo de caja de Pacífico SA si entrara con un 100% en cada uno de los proyectos. Inicial Inversiones Pasadas Sanimas SA
-1
6 meses
12 meses
18 meses
500
400
380
-700
1.8
400
Buenavida SA -800 500 -200 -700 Cuadro 3.4: Flujo de Caja de Pacífico SA (miles de dólares)
24 meses 600 2
Debido al actual nivel de endeudamiento, a Pacífico SA no se le permite pedir préstamos. Pero si que puede, a cada seis meses, invertir sus fondos excedentes (es decir, aquellos que no ha invertido en ningún proyecto) en un fondo que le daría un 7% cada seis meses. Por otro lado, Pacífico SA puede participar en cada uno de los proyectos con un nivel inferior al 100% y, consecuentemente, el flujo de caja se reducirá en la misma proporción. Es decir, que si decide entrar por ejemplo con el 50% en el proyecto de Rimac, el flujo correspondiente también se reducirá en la misma proporción. El problema que se plantea Pacífico SA es cuanto invertir en cada proyecto para maximizar el dinero en efectivo que tendrá la empresa en dos años. Formulación matemática del problema: Siguiendo nuestro esquema habitual, una vez el problema ha sido identificado y los parámetros del modelo han sido definidos, se tienen que definir las variables. Sea X1 el porcentaje de participación en el proyecto Positiva y X2 el porcentaje de participación en el proyecto Rimac SA (0 < X1 < 1; 0 < X2 < 1). Por otro lado, sean S0, S6, S12 y S18 el dinero que se depositará en el fondo en los periodos 0, 6 12 y 18 respectivamente. Para formular las restricciones del modelo se utilizará un razonamiento secuencial. La empresa dispone de 1,5 millones de dólares hoy (periodo 0) y las quiere gastar considerando las opciones siguientes: 1. participar en el proyecto Positiva, que implicaría desembolsar 1.000.000X1 dólares en el periodo 0; 2. participar en el proyecto Rimac, teniendo que gastar 800.000X2; 3. depositar el dinero al 7% Estas opciones no son excluyentes entre ellas. Por lo tanto, se tiene que cumplir la siguiente ecuación de equilibrio: 1.500 = 1.000X1 + 800X2 + S0 Al cabo de seis meses, la empresa ingresará 500.000 dólares, gracias a inversiones realizadas anteriormente. También el dinero depositado en el fondo en el periodo anterior estará a disposición junto con los intereses: S0 + 0.07S0. Por otra parte, el proyecto Rimac dará una entrada de dinero igual a 500.000X2. Con este dinero tendrá que hacer frente al compromiso adquirido con Positiva, 700.000X1, y depositar lo que quede al 7% una vez más. Matemáticamente: 500 + 500X2 + 1,07S0 = 700X1 + S6 70
En el periodo 12, la empresa recibirá 400.000 dólares. de inversiones anteriores, 1.800.000X1 del proyecto Positiva y el dinero del fondo junto con los intereses. Con estos ingresos tendrá que cubrir el compromiso del proyecto Rimac, 200.000X2 y depositar S12 dólares, en el fondo. En términos matemáticos: 400 + 1.800X1 + 1,07S6 = 200X2 + S12 En el periodo 18, los ingresos que tendrá la empresa vendrán de inversiones anteriores (380.000), del proyecto Positiva (400.000X1) y del depósito realizado en el periodo anterior incluyendo los intereses (1,07 S12). Con este dinero tendrá que realizar un gasto de 700.000 X2 en el proyecto Rimac y el resto puede volver a ponerlo en el fondo (S18). Es decir: 380 + 400X1 + 1,07S12 = 700X2 + S18 Finalmente, al cabo de dos años (periodo 24), la empresa tendrá únicamente ingresos y no tendrá ningún gasto. Los ingresos provienen de los dos proyectos (600.000 X1 + 2.000.000 X2) y del dinero depositado en el periodo anterior, 1,07 S18. Si se define Z como los ingresos realizados en el periodo 24 en miles de dólares, tendremos que: Z = 600X1 + 2.000X2 + 1,07S18 que no es más que el objetivo del problema: Maximizar los ingresos al cabo de dos años. Finalmente, como solo se puede invertir un máximo de 100% en cada proyecto, las variables X1 y X2 no pueden exceder la unidad. Por lo tanto, hay que añadir las restricciones siguientes: X1 < 1 X2 < 1 En resumen, reordenando los términos tendremos que el programa lineal se escribe de la forma siguiente:
3.2 Programación Lineal: Métodos de Resolución Hasta ahora hemos formulado matemáticamente algunos problemas de gestión y administración de recursos y de dinero. Pero un modelo matemático de decisión, por muy bien formulado que esté, no sirve de nada sino podemos encontrar una solución satisfactoria. Una de las características de la programación lineal es que, gracias a sus propiedades matemáticas, se consigue la solución óptima sin muchas dificultades. En esta sección examinaremos en primer lugar el método gráfico, un sistema limitado a problemas con dos variables, y a continuación el método Simplex, el algoritmo más común para solucionar problemas lineales con muchas variables y restricciones. 3.2.1 El método gráfico Este método es muy simple de utilizar, pero solo puede ser aplicado a problemas con dos variables. Por otro lado, es muy útil para entender las propiedades matemáticas de la programación lineal. Consideremos el problema lineal siguiente, correspondiente el problema de asignación de recursos la 71
sección anterior, sin la restricción del los recursos necesarios mínimos en la sala post-operatoria (PO) y sin la restricción de la demanda:
En primer lugar, se dibuja en un gráfico cartesiano las restricciones del modelo pero con signo de igualdad. Como se puede observar en la figura 3.1, la recta X1 + 3X2 = 144 separa el plano en dos semiplanos. Los puntos que corresponden al semiplano S1 cumplen la restricción 2X1 + 3X2 144. Es decir, este semiplano contiene todas las combinaciones de X1 y X2 que satisfacen la restricción. Si dibujamos todas las restricciones y sus semiplanos correspondientes encontraremos que la región que forma la intersección de todos los semiplanos incluye todas las combinaciones de X1 y X2 que satisfacen todas las restricciones del modelo. Esta región se presenta en la figura 3.2 (el área entre los puntos A, B, C, D y E) y se conoce como la región factible o espacio de soluciones y es un conjunto convexo3. Cualquier problema de optimización con restricciones lineales tiene una región factible convexa. Cualquier solución de la región factible es conocida como Solución factible. Si la región está vacía no existen soluciones factibles (ver el ejemplo de la figura 2.4).
Figura 3.1: Visualización de una restricción Ahora se tiene que escoger la solución factible que optimice nuestra función objetivo, que es Z = X1 + X2. Obsérvese que normalmente existen infinitas soluciones factibles y será la función objetivo quién escoja aquella que optimiza su valor. En la programación lineal la función objetivo también tiene forma lineal. Se trata de determinar el valor máximo de Z que cumpla todas las restricciones o, en otras palabras, encontrar los valores de X1 y X2, puntos dentro de la región factible, que maximicen Z. La mecánica para lograr encontrar el punto óptimo se basa en la linealidad del objetivo. En este ejemplo, el objetivo se puede re-escribir de la forma siguiente: X2 = -X1 + Z A medida que Z aumenta, la recta se desplaza paralelamente hacia fuera, ya que la pendiente es constante (en este caso igual a -1). Se trata de encontrar el valor de Z máximo, pero con la condición de que tiene que haber como mínimo un punto de la recta que atraviese la región factible. En el gráfico 2.2 esta recta se presenta para el valor de Z = 62, valor óptimo del problema, en donde X1 = 34 y X2 = 30. Para cualquier valor de Z superior a 62, no existirá ninguna solución factible ya que la recta correspondiente a la función 3
Para cualquier pareja de puntos dentro del espacio factible, el segmento de línea que los une también se encuentra dentro del conjunto. 72
objetivo se desplaza hacia el exterior, y consecuentemente no tocaría ninguna parte de la región factible. Para valores de Z inferiores a 62, existen muchas soluciones factibles, pero ninguna de ellas es óptima. Intuitivamente se puede ver que la solución óptima siempre se producirá en un punto extremo o vértice, que en el gráfico no es más que el punto de intersección de dos o más restricciones. Más formalmente, un punto de un conjunto convexo es un punto extremo si no hay ningún par de puntos del conjunto convexo en donde el segmento de línea que los une pase por el punto en cuestión. Otra forma de obtener el óptimo es calcular el valor del objetivo en cada uno de los puntos extremos y escoger aquel punto extremo que da el mejor valor. Este punto dará el valor óptimo.
Figura 3.2: Solución gráfica del ejemplo Existen situaciones en donde no hay una única solución, si no que pueden haber infinitas soluciones, o por el contrario, no existir solución alguna. Examinemos el primer caso con la ayuda de la figura 3.3. La recta correspondiente al objetivo tiene la misma pendiente que una de las restricciones. Es decir, que todas las combinaciones de las dos variables entre los puntos A y B cumplen las restricciones y maximizan el beneficio. Por otro lado, la figura 2.4 muestra una situación en donde no hay soluciones. La representación gráfica (figura 3.4) corresponde al programa lineal siguiente:
Figura 3.3: Infinitas Soluciones 73
Figura 3.4: Inexistencia de soluciones El método gráfico es sencillo de aplicar para encontrar la solución óptima de un programa lineal de optimización, pero únicamente cuando éste solo tiene dos variables de decisión. Desgraciadamente, la gran mayoría de problemas lineales aplicados tienen muchas más variables (algunos llegan a tener millones de ellas) y por lo tanto se hace inviable su utilización. En la sección siguiente se desarrolla un método bastante eficiente para encontrar soluciones óptimas de programas lineales con muchas variables y restricciones. 3.2.2 El Método Simplex El primer método formal para encontrar soluciones óptimas –el método Simplex- fue desarrollado por Dantzig en 1947 y mejorado por Charnes entre 1948 y 1952. Actualmente es el método más utilizado en la búsqueda de soluciones óptimas de programas lineales. En este apartado se examina su funcionamiento de forma simple e intuitiva. En primer lugar recordemos como encontrábamos soluciones con el método gráfico. Primero formábamos un conjunto convexo con las restricciones del modelo. Segundo, se dibujaba la función objetivo fuera del conjunto convexo dando un valor arbitrario al propio objetivo y se iba desplazando ésta paralelamente (ya que su pendiente es siempre constante) hasta encontrarse con un punto extremo. Intuitivamente, podemos ver que sea cual sea la función objetivo lineal, la solución óptima se encontrará en un punto extremo, como mínimo4. Esto reduce bastante el espectro de soluciones del problema, limitando la búsqueda del óptimo a los puntos extremos. Aún así, puede haber muchísimos puntos extremos en un problema. Por ejemplo, un problema grande con 2000 variables y 4000 restricciones tiene exactamente 22000 puntos extremos, es decir, aproximadamente 10600. Por lo tanto, tenemos que encontrar un método para reducir el número de soluciones factibles posibles de ser óptimas. Dantzig hizo estas mismas suposiciones (o eso creemos) y observó primero las características matemáticas siguientes: 1. El conjunto formado por las restricciones es convexo 2. La solución siempre ocurre en un punto extremo
4
Decimos como mínimo, porque como hemos visto pueden existir (raramente) situaciones en donde hay más de una solución óptima; aún así, siempre habrá un punto extremo que dé el valor óptimo. 74
3. Un punto extremo siempre tiene como mínimo dos puntos extremos adyacentes5 Y a partir de ellas desarrolló el método siguiente: Encontrar una solución inicial factible en uno de los puntos extremos del conjunto convexo y calcular el valor de la función objetivo. Examinar un punto extremo adyacente al encontrado en la etapa 1 y calcular el nuevo valor de la función objetivo. Si este nuevo valor mejora el objetivo, guardar la nueva solución y repetir la etapa 2. En caso contrario, ignorar la solución nueva y volver a examinar otro punto extremo. Regla de parada: cuando no existe ningún extremo adyacente que mejore la solución, nos hallamos en el óptimo Es decir, que vamos de punto extremo a punto extremo adyacente siempre que podamos mejorar la solución, hasta llegar a un punto en donde no existe ningún punto extremo adyacente al que nos encontramos. Esta solución es la óptima. Observemos de nuevo el problema lineal presentado y su correspondiente solución gráfica presentada en la Figura 3.2. Para encontrar una solución inicial en un punto extremo podemos fijar X1 = 0 y X2 = 0 y el valor del objetivo Z será igual a 0, solución que corresponde al punto extremo A en la Figura 3.2. Ahora examinamos el punto extremo adyacente B, que corresponde a los puntos X1 = 0 y X2 = 48 y Z = 48. Como el objetivo ha mejorado, mantenemos esta solución y volvemos a examinar los puntos extremos adyacentes a B. Como el punto A ya lo hemos visitado (y era claramente inferior), nos queda por ver el punto C. En este punto extremo X1 = 17, X2 = 42.3 y Z = 59.3. De nuevo la solución ha mejorado y la guardamos como la mejor hasta ahora encontrada. Finalmente, D es el único punto extremo que nos queda por examinar y como en este punto X1 = 34 y X2 = 30 y Z = 7.8 el algoritmo se para y estamos en el óptimo, ya que no existe ningún punto extremo adyacente que mejore el objetivo. Dantzig y más tarde Charnes desarrollaron un método matemático para poder efectuar estas operaciones, es decir, encontrar los valores de los puntos extremos adyacentes. Para poder ver como funciona, es necesario realizar las consideraciones siguientes: Como hemos visto, un programa lineal está compuesto por una función objetivo que queremos optimizar (maximizar o minimizar), unas variables que denominaremos estructurales y un conjunto de restricciones. En general, podemos encontrar tres tipos de restricciones en función de la dirección de la desigualdad: , ó =. Toda restricción con los sentidos ó pueden transformarse en una restricción con igualdad añadiendo una variable. Si la desigualdad tiene la dirección , podemos añadir una variable de holgura. Por ejemplo, la restricción X1 + 3X2 144 se puede transformar en X1 + 3X2 + X3 = 144. Si en la solución final del modelo la restricción se cumple con igualdad dados unos valores finales de X1 y X2 entonces la variable de holgura asociada a la restricción es igual a 0. En otras palabras, la variable de holgura mide la diferencia entre los recursos utilizados realmente y los discursos disponibles. Así mismo, si la restricción tiene la dirección _, podemos añadir una variable de exceso para obtener una ecuación lineal. Por ejemplo, una restricción de tipo X1 + X2 12 puede transformarse en X1 + X2 – X3 = 12. La interpretación es la misma que en el caso anterior: si en la solución final X3 = 0, la restricción se cumplirá con igualdad. En este caso, la variable de exceso mide el consumo adicional que realizamos de un recurso disponible. Con estas consideraciones, cualquier programa lineal con restricciones de desigualdad puede transformarse en un problema lineal con todas las restricciones con forma de igualdad sin alterar la naturaleza matemática del problema. Esta transformación se denomina la forma canónica o forma aumentada de un programa lineal. Si tenemos n variables y m restricciones con desigualdad, cuando 5
Un punto extremo A es adyacente a un punto extremo B si no existe ningún punto extremo entre ellos. Por ejemplo, en la figura 3.2. los puntos B y D son adyacentes al punto C. 75
escribimos la forma canónica del problema lineal tendremos m nuevas variables de holgura o exceso, es decir, un total de m + n variables y m restricciones. En resumen, tendremos que el conjunto de restricciones forma un conjunto de ecuaciones lineales con más variables que ecuaciones. En este caso, existen infinitas soluciones del sistema y nuestro objetivo es escoger entre ellas la que optimice el valor de la función objetivo. Por otro lado, si tenemos un programa lineal con n variables, m restricciones con desigualdad y r restricciones con igualdad, tendremos m+n variables y m+r restricciones con igualdad en la forma canónica. En este caso, para que el problema sea factible, se tiene que cumplir lo siguiente: m+n m+r, el número de restricciones no puede superar el número de variables. Si utilizamos el ejemplo de la asignación de recursos, la forma canónica del problema será la siguiente:
Los valores de las variables en los puntos extremos se presentan en el Cuadro 3.5.
X1
X2
X3
X4
Número de Variables Positivas
X5
Valor Del Objetivo
A
0
0
144
162
982
3
0
B
0
48
0
66
118
3
48
C
16,8
42,4
0
26,8
0
3
59,2
D
34
30
20
0
0
3
64
E
54
0
90
0
280
3
54
A
0
3
0
0 144 162 982 Cuadro 3.5: Puntos extremos del ejemplo
Diremos que una solución aumentada es una solución de la forma canónica del programa lineal. Una solución básica factible es una solución aumentada en un punto extremo. En nuestro ejemplo, los puntos A, B, C, D, y E son soluciones básicas factibles. A continuación examinaremos las propiedades algebraicas de las soluciones básicas. Obsérvese que en nuestro ejemplo tenemos dos variables estructurales X1 y X2 y tres variables de holgura X3, X4 y X5, que suman un total de cinco variables, y tres restricciones con igualdad o ecuaciones. Tenemos por lo tanto dos grados de libertad para encontrar soluciones. Para obtener una solución determinada tenemos que fijar a priori dos variables para determinar entonces un sistema con tres variables y tres ecuaciones, que tendrá una solución única. En el método Simplex, siempre se fija el valor de dos variables en 0. Estas variables se denominan variables no básicas y las restantes, variables básicas. La solución de este sistema de ecuaciones es una solución básica. Si todas las variables básicas son no-negativas, tenemos una solución básica factible. En el ejemplo tenemos que en cualquier punto extremo factible siempre tendremos dos variables iguales a 0 y 3 no-negativas. La explicación intuitiva de esta situación es la siguiente: si observamos un punto extremo en la Figura 3.2 veremos que en él pasan dos rectas correspondientes a dos restricciones con signo igual. Por lo tanto, dos variables de holgura asociadas a estas restricciones son iguales a 0. Estas son nuestras variables nobásicas. Si miramos el Cuadro 3.4, veremos que en cada punto extremo siempre hay tres variables positivas y dos con valor 0. El Cuadro 3.4 nos puede ayudar a entender como funciona el algoritmo Simplex y el vocabulario algebraico definido en este capítulo. Escojamos como punto de partida el punto extremo A. Como hemos mencionado anteriormente, el método Simplex se mueve de punto extremo a punto extremo adyacente 76
siempre que el objetivo mejore. El punto A tiene dos puntos extremos adyacentes. Ambos mejoran el objetivo. Escogemos arbitrariamente el punto B. En el punto A teníamos una solución básica factible (dos variables con valor 0, X1 y X2, y las otras con valores positivos). Cuando pasamos al punto extremo B, observamos que una variable estrictamente positiva en A pasa a tener el valor 0 (la variable X3) mientras que una de las variables con valor 0 pasa a tener un valor estrictamente positivo (la variable X2). Este proceso se repite cada vez que pasamos de punto extremo a punto extremo adyacente: una de las variables básicas (con valor positivo) pasa a ser no-básica (valor 0) y una variable no-básica pasa a ser positiva (variable básica). En el punto D, dos variables que tenían valor positivo en el punto extremo adyacente anterior pasan a tener un valor 0. En otras palabras, dos soluciones básicas son adyacentes si todas, menos una de sus variables no-básicas, son las mismas. Entonces, pasar de una solución básica factible a una adyacente implica el cambio del estado básico de una variable a uno no básico, y viceversa. En términos generales, el número de variables no básicas de una solución básica siempre es igual a los grados de libertad del sistema de ecuaciones de la forma canónica. El número de variables básicas siempre es igual al número de restricciones funcionales. Propiedades de las soluciones factibles en un punto extremo Si existe una única solución óptima, entonces ésta tiene que ser obligatoriamente una solución factible en un punto extremo (una solución básica factible). Si hay varias soluciones óptimas, entonces, como mínimo, tiene que haber dos que sean factibles en puntos extremos adyacentes. Existe un número finito de soluciones factibles en los puntos extremos Si una solución en un punto extremo es igual o mejor (según el valor del objetivo Z) que todas las soluciones de los puntos extremos adyacentes, entonces ésta es igual o mejor que todas las otras soluciones en todos los puntos extremos; es decir, es óptima. Ahora que ya conocemos los pasos que efectúa el método Simplex para buscar una solución óptima de un programa lineal, hace falta estudiar cómo se realizan éstos. Para entender la mecánica del método, tenemos que dar respuestas a las preguntas siguientes: Paso inicial: ¿Cómo seleccionamos la solución factible inicial en un punto extremo (la solución básica factible inicial)? Paso Iterativo: Cuando buscamos un traslado a una solución factible en un punto extremo adyacente (una solución básica factible adyacente): a. ¿Cómo se selecciona la dirección del traslado? (¿Qué variable no básica se escoge para transformarla en básica?) b. ¿Adónde se realiza el traslado? (¿Qué variable básica se transforma en no-básica?) c. ¿Cómo identificamos la nueva solución? Prueba de Optimalidad: ¿Cómo determinamos que la solución factible en un punto extremo (solución básica factible) no tiene soluciones factibles en un punto extremo adyacente (soluciones básicas adyacentes) que mejoren el objetivo? Para responder a estas preguntas, de momento consideraremos únicamente el caso de un programa lineal con restricciones de tipo “menor o igual” ( ). Más adelante ampliaremos el análisis cuando el problema también contiene los otros tipos de restricciones. En primer lugar re-escribimos nuestro ejemplo en la forma canónica equivalente:
77
Obsérvese que ahora la ecuación (0) del objetivo está incluida dentro del sistema de ecuaciones y que podemos considerar Z como una variable adicional. 1. Paso Inicial Este paso inicial consiste en encontrar cualquier solución básica factible. Una manera fácil de hacerlo es igualando las variables estructurales del modelo a 0. Si observamos la forma canónica equivalente tendremos que igualando X1 y X2 a 0 las variables de holgura automáticamente cogen valores nonegativos (X3 = 144, X4 = 162, X5 = 982) correspondiente al punto extremo A. Por lo tanto, la solución factible será (0, 0, 144, 162, 982). La razón por la cual la solución encontrada se deduce rápidamente es debido a que cada ecuación tiene una única variable básica con un coeficiente asociado a ella igual a +1, y que esta variable básica no aparece en ninguna otra ecuación del sistema. Pronto observaremos que, cuando el conjunto de variables básicas cambia, el algoritmo Simplex utiliza un método algebraico llamado eliminación de Gauss para poner las ecuaciones en esta forma tan conveniente para obtener las soluciones básicas factibles subsecuentes. Esta forma funcional (una variable básica por ecuación con coeficiente +1) se denomina forma apropiada de eliminación gausiana. 2. Paso iterativo: En cada iteración, el método Simplex se mueve desde una solución básica factible a una solución básica factible adyacente que mejora el objetivo. Este movimiento consiste en convertir una variable no-básica (llamada variable básica entrante) en una variable básica y, al mismo tiempo, convertir una variable básica (llamada variable básica saliente) en variable nobásica, y a identificar la nueva solución básica factible. Pregunta a: ¿Cuál es el criterio para seleccionar la variable básica entrante? Las candidatas para la variable básica entrante son las n variables no básicas actuales. Esta variable, que escogeremos para pasar de no-básica a básica, pasará de tener un valor 0 a tener un valor positivo, mientras que las restantes seguirán con valor 0. Como el método Simplex requiere que este cambio implique una mejora en el objetivo, es necesario que la tasa de cambio en Z al aumentar el valor de la variable básica entrante, sea positivo. Observemos la ecuación (0) del sistema. Esta expresión refleja el valor de Z en función de las variables no-básicas, y por lo tanto el coeficiente asociado a estas variables es la tasa de cambio del valor del objetivo. Si, por ejemplo, X2 pasa de ser 0 a ser 1, el objetivo aumentará en una unidad. Como criterio, escogeremos la variable cuyo coeficiente aumente más el objetivo al pasar a ser básica6. En nuestro ejemplo, las dos variables no-básicas son candidatas a entrar en la base ya que aumentarían el valor del objetivo. Escogemos arbitrariamente X2 ya que tiene el mismo coeficiente en la ecuación (0) que X1. Pregunta b: ¿Cómo identificamos la variable básica saliente?
6
Este criterio es subjetivo y no implica que la solución óptima sea alcanzada más rápidamente 78
Si ignoramos las variables de holgura, al aumentar el valor de X2 manteniendo X1 igual a 0 nos desplazamos por el eje de las ordenadas (que corresponden precisamente a los valores de X2). La solución adyacente se alcanza en el punto B, que viene determinada por la restricción X1 + 3X2 144, que se cumplirá con igualdad y por lo tanto acotará en 48 el valor de X2, ya que X1 sigue siendo igual a 0. Cuando escribimos el problema en forma canónica, las soluciones factibles tienen que cumplir tanto las restricciones funcionales como las de no-negatividad de todas las variables, incluidas las de holgura. Cuando vamos aumentando el valor de X2 manteniendo X1 = 0 (variable nobásica), algunas de las variables en la base actual (X3, X4, X5, X6) también van cambiando de valor para mantener válido el sistema de ecuaciones. Algunas de estas variables se reducirán al aumentar X2. La solución básica adyacente se alcanza cuando la primera variable básica que tenía valor positivo pasa a ser igual a cero (recordemos las restricciones de no-negatividad). Esta variable será la que sale de la base y por lo tanto se transformará en no-básica. Por lo tanto, una vez escogida la variable que entrará en la base, la variable que sale de la base será aquella que llegue primero a 0. La variable básica actual con la cota superior más pequeña junto con la restricción su no-negatividad será la escogida. Examinemos esta cuestión en nuestro ejemplo. Tenemos que las variables básicas candidatas a salir de la base (es decir, a ser iguales a 0) son X3, X4, y X5. En el Cuadro 3.5 Se presentan los cálculos para identificar cual es la variable básica saliente. Recordemos que X1 sigue siendo igual a 0. Variable Básica
Ecuación
Cota Superior Para X2
X3
X3 = 144 - X1 - 3X2
X2
144/3 = 48 mínimo
X4
X4 = 162 - 3X1 - 2X2
X2
162/2 = 81
X5
X5 = 982 - 13X1 - 18X4 X2 982/18 = 54,6 Cuadro 3.5: Cálculos para obtener la variable saliente
Como X1 es una variable no-básica, tendremos que X1 = 0 en la segunda columna del Cuadro 3.5. La tercera columna indica las cotas superiores para X2 antes de que la variable básica correspondiente a la primera columna sea negativa. Por ejemplo, X3 = 0 si X2 = 48 (mientras que X3 > 0 si X2 < 48, y X3 < 0 cuando X2 > 48). Como en este caso X3 (la variable de holgura correspondiente a la restricción X1 + 3X2 144) impone la cota negativa más pequeña sobre X2, la variable básica saliente será X3, de manera que en la nueva situación tendremos que X3 = 0 (no-básica) y X2 = 48 (básica), que corresponde al punto extremo B. Pregunta c: ¿Cómo podemos identificar de manera convincente la nueva solución básica factible? Después de haber identificado las variables entrantes y salientes de la base (incluyendo el valor de la variable básica entrante), necesitamos conocer cual es el valor nuevo del resto de variables básicas. Para poder calcular estos valores, el método Simplex utiliza la forma apropiada de eliminación de Gauss que teníamos en el paso inicial (aquella en la cual cada ecuación tiene únicamente una variable básica con coeficiente +1, y esta variable básica aparece en una única ecuación). Se trata de encontrar la nueva forma apropiada después del cambio de base. Se necesita realizar dos operaciones algebraicas normalmente utilizadas para resolver sistemas de ecuaciones lineales. Estas operaciones son: 1. Multiplicar (o dividir) una ecuación por una constante diferente de 0. 2. Sumar (o restar) un múltiple de una ecuación con otra ecuación Estas operaciones son legítimas porque implican únicamente: 1) multiplicar cosas iguales (los dos lados de la ecuación) por una constante y 2) sumar cosas iguales con cosas iguales. Por lo tanto, una solución que cumple un sistema de ecuaciones determinado también lo hará después de la transformación. Vamos a ver como funciona en nuestro ejemplo. Consideremos en sistema de ecuaciones originales, en el cual se muestran las variables básicas en negrita. El problema se puede escribir de la forma siguiente: 79
Ahora X2 ha substituido a X3 como variable básica en la ecuación (1). Entonces tenemos que resolver este sistema de ecuaciones para encontrar los valores de las variable básicas X2, X4, X5 (recordemos que ahora X1 y X3 = 0) y de Z. Como que X2 tiene un coeficiente igual a +3 en la ecuación (1), necesitamos realizar una transformación para que su coeficiente sea 1. Para ello basta multiplicar ambos lados de la ecuación por 1/3. Una vez realizada la operación, la nueva ecuación (1) es la siguiente:
El paso siguiente es eliminar X2 de las otras ecuaciones. Comencemos por la ecuación (0). Tenemos que realizar la operación siguiente: Ec. (0) nueva = ec. (0) antigua + ec.(2) nueva Es decir:
Tenemos que realizar el mismo procedimiento para las ecuaciones (2) y (3). Lo haremos a continuación para la ecuación (2). Para eliminar X2 de la ecuación (2), tenemos que realizar la operación siguiente: Ec. (2) nueva = ec. (2) antigua – 2 [ec.(1) nueva]
Para la ecuación (3), tenemos que realizar una operación similar: Ec. (3) nueva = ec. (3) antigua – 18 [ec.(1) nueva]
Por lo tanto, la nueva forma gausiana del sistema de ecuaciones es la siguiente:
80
En negrita figuran las variables básicas, que aparecen únicamente en una ecuación y con un coeficiente igual a 1. Por lo tanto, si comparamos este nuevo sistema de ecuaciones con el anterior, veremos que sigue teniendo la forma apropiada de eliminación de Gauss que permite obtener inmediatamente el valor de las variables en la solución (recordemos que X1 = 0 y X3 = 0 ya que son las variables no básicas). Hay que observar que en la ecuación (0) siempre están únicamente la variables no-básicas. Ahora tenemos una nueva solución básica factible igual a (0, 48, 0, 96, 114) que corresponde al punto extremo B. El valor del objetivo es igual a 48. El siguiente paso es ver si esta nueva solución es la óptima. Para ello examinamos en la siguiente ecuación (que corresponde a la ecuación (0)) los coeficientes de las variables no básicas:
Como la variable no-básica X1 tiene un coeficiente positivo (2/3), si la variable pasa a tener valores positivos, el objetivo aumentará. Por lo tanto no estamos en la solución óptima y hay que realizar de nuevo el proceso, en donde X1 entrará en la base y otra variable básica dejará de serlo. Segunda iteración Paso 1. Como que la ecuación (0) actual es
, la función solo aumentará si X1
aumenta. Ya tenemos la variable que entrará en la base. Paso 2. El límite superior sobre X1 antes de que las variables básicas sean negativas está indicado en el Cuadro 3.6: Variable Básica
Ecuación
Cota Superior Para X1
X2
X2 = 48 – 1/3X1 – 1/3X3 X1
48*3 = 144
X4
X4 = 66 – 7/3X1 + 2/3X3 X1
66*(3/7)= 198/7
X5
X5 = 114 – 7X1 + 6X3 X1 118/7 mínimo Cuadro 3.6: Cálculos para obtener la variable saliente
Escogeremos X5 como la variable básica saliente ya que es la cual que, a medida que aumenta el valor de X1, X5 alcanza primero el valor 0. Paso 3. Ahora hay que eliminar X1 de todas las ecuaciones para encontrar la nueva solución de todas las variables y del objetivo. Volvemos a realizar la transformación gausiana. Primero tenemos que transformar la ecuación correspondiente a la variable entrante, para que tenga un coeficiente 1. Para ello tenemos que dividir la ecuación (3) por 7. El resultado es el siguiente:
Con esta ecuación, volvemos a transformar las otras en la forma gausiana apropiada: 81
Ec. (0) nueva = ec. (0) antigua + 2/3 [ec.(3) nueva] Es decir:
Tenemos que realizar el mismo procedimiento para las ecuaciones (1) y (2). Lo haremos a continuación para la ecuación (1). Para eliminar X2 de la ecuación (1), tenemos que realizar la operación siguiente: Ec. (1) nueva = ec. (1) antigua – 1/3 [ec.(3) nueva]
Para la ecuación (2), tenemos que realizar una operación similar: Ec. (2) nueva = ec. (2) antigua – 7/3 [ec.(3) nueva]
Por lo tanto, la nueva forma gausiana del sistema de ecuaciones es la siguiente:
La solución básica factible siguiente es (118/7; 890/21; 0; 80/3; 0) y el valor del objetivo es Z =1244/21. Prueba de Optimalidad.
82
Tenemos que verificar si las variables no-básicas del objetivo tienen coeficientes que permitan aumentar el valor del objetivo si éstas cogen valores positivos. El nuevo objetivo es:
Como una de las variables no-básicas tiene un coeficiente positivo, el valor del objetivo puede aumentar si esta variable pasa a ser básica. Por lo tanto, aún no hemos alcanzado el óptimo, y es preciso realizar una nueva iteración del algoritmo Simplex. Ahora la variable X3 entrará en la base, y tenemos que escoger una variable básica para salir de la base. Tercera iteración Paso 1. Como que la ecuación (0) actual es
, la función solo aumentará si
X3 aumenta. Ya tenemos la variable que entrará en la base. Paso 2. El límite superior sobre X3 antes de que las variables básicas sean negativas está indicado en el Cuadro 3.7: Variable Básica
Ecuación
Cota Superior Para X3
X1
X1 = 118/7 + 6/7X3 - 1/7X5
infinita
X2
X2 = 890/21 – 13/21X3 + 1/21X5 X3
X4
X4 = 80/3 - 4/3X3 + 1/3X5 X3 (80/3)*(3/4) = 20 Cuadro 3.7: Cálculos para obtener la variable saliente
(890/21)*(21/13)= 890/13 mínimo
Escogeremos X4 como la variable básica saliente ya que es la cual que, a medida que aumenta el valor de X3, X4 alcanza primero el valor 0. Por otro lado, al aumentar el valor de X3 el valor de X1 también aumenta. De aquí que no exista una cota superior. Paso 3. Ahora hay que eliminar X3 de todas las ecuaciones para encontrar la nueva solución de todas las variables y del objetivo. Volvemos a realizar la transformación gausiana. Primero tenemos que transformar la ecuación correspondiente a la variable entrante, para que tenga un coeficiente 1. Para ello tenemos que multiplicar la ecuación (2) por 3/4. El resultado es el siguiente:
Con esta ecuación, volvemos a transformar las otras en la forma gausiana apropiada: Ec. (0) nueva = ec. (0) antigua + 5/21 [ec.(2) nueva] Es decir:
83
Tenemos que realizar el mismo procedimiento para las ecuaciones (1) y (3). Lo haremos a continuación para la ecuación (1). Para eliminar X3 de la ecuación (1), tenemos que realizar la operación siguiente: Ec. (1) nueva = ec. (1) antigua – 13/21 [ec.(2) nueva]
Para la ecuación (3), tenemos que realizar una operación similar: Ec. (3) nueva = ec. (3) antigua + 6/7 [ec.(2) nueva]
Por lo tanto, la nueva forma gausiana del sistema de ecuaciones es la siguiente:
La solución básica factible siguiente es (34; 30; 20; 0; 0) y el valor del objetivo es Z = 64. Prueba de Optimalidad. Tenemos que verificar si las variables no-básicas del objetivo tienen coeficientes que permitan aumentar el valor del objetivo si éstas cogen valores positivos. El nuevo objetivo es:
Como ninguna de las variables no-básicas tiene un coeficiente positivo, el valor del objetivo no puede aumentar si cualquiera de las variables no básicas pasa a ser básica. Por lo tanto, hemos alcanzado el óptimo, ya que no podemos pasar a un punto extremo adyacente que mejore el valor del objetivo. En resumen, el método Simplex tiene los pasos siguientes: 1. Introducir las variables de holgura para obtener la forma canónica del programa 84
2. Encontrar una solución inicial de un punto extremo y realizar la prueba de optimalidad. 3. Si no estamos en el óptimo: a. Determinar la variable básica entrante: seleccionar la variable no básica que, al aumentar su valor, aumente más rápidamente el valor del objetivo. b. Determinar la variable básica saliente: ésta es la que alcanza el valor 0 más rápidamente a medida que aumentamos la variable entrante. c. Una vez que sabemos cual es la variable básica que sale de la base, se determina la nueva solución básica factible: a partir del conjunto actual de ecuaciones se aíslan las variables básicas y Z en términos de las variables no-básicas utilizando el método de eliminación de Gauss. Las variables no-básicas se igualan a 0; cada variable básica junto con Z es igual al nuevo lado derecho de la ecuación en la cual aparece con coeficiente +1. 4. Examinamos si la nueva solución encontrada es óptima: únicamente necesitamos examinar los coeficientes de las variables no básicas que están en el objetivo. Si todos los coeficientes son negativos, estamos en el óptimo. Por otro lado, si como mínimo uno de los coeficientes asociados a las variables básicas es positivo, tenemos que repetir los pasos 2 y 3. 3.2.3 Adaptación a otro tipo de modelos Hasta ahora hemos estudiado el método Simplex para problemas de maximización con restricciones con la desigualdad . Pero hay otros casos co mo los problemas de minimización y la existencia de restricciones con igualdad o con desigualdad . A continuación veremos como adaptar la formulación del modelo con alguna de estas características para poder utilizar el método Simplex. Restricciones con igualdad El problema básico con las restricciones de igualdad es la obtención de una solución básica factible inicial. Supongamos que, en nuestro ejemplo, tenemos una restricción adicional que se tiene que cumplir con igualdad (X1 + X2 = 7). En este caso, en principio no hay que introducir una variable de holgura para formar la forma canónica. Si procedemos a encontrar una solución inicial factible igualando X1 y X2 a 0 nos encontramos con el problema de que esta nueva restricción no se cumple. Para poder obtener una solución inicial factible, nos vemos obligados a introducir una nueva variable no-negativa, denominada artificial, S3 de la siguiente forma: X1 + X2 + S3 = 7 Gracias a la introducción de esta variable artificial S3 ya podemos encontrar una solución inicial factible en donde S3 es una variable básica igual a 7. De hecho, hemos aumentado el número de variables añadiendo una que no tiene ninguna interpretación económica, pero que nos sirve para encontrar una solución inicial factible. Es meramente un artificio matemático. Pero, en la solución final, queremos que S3 tenga el valor 0 (sea no básica), ya que, si esto no es así, el problema no tendría sentido (la restricción no se cumpliría con igualdad). Para poder conseguirlo, añadimos esta variable artificial en el objetivo, pero con un coeficiente negativo de valor muy elevado (respecto a los otros), que llamaremos M: Z = X1 + X2 - MS3 Como este valor penaliza la variable en el objetivo, el método Simplex escogerá esta variable para salir de la base y nunca más volverá a entrar (es decir, se quedará con el valor 0). Por lo tanto, en la solución final S3 tendrá el valor 0. Si esto no fuera así, el problema sería infactible. En la próxima sección veremos como eliminar esta variable del objetivo. Restricciones con dirección .
85
Supongamos ahora que añadimos la restricción (3) del problema de la sección 2.2.2: 4X1 + 2X2
135
En este caso tenemos que encontrar una solución inicial de la misma forma que hacíamos anteriormente para poder ejecutar el método Simplex. Ahora bien, en este caso añadimos una variable de exceso nonegativa, E3, que mide la diferencia entre el valor del lado izquierdo de la ecuación (4X1 + 2X2) y el lado derecho (135). Esta variable tendrá un signo negativo en la ecuación: 4X1 + 2X2 - E3 = 135 Ahora bien, al fijar inicialmente X1 y X2 iguales a 0, E3 se igualará a –135, por lo que tendrá un valor negativo, incumpliendo las condiciones de no-negatividad de todas las variables en el método Simplex. De nuevo, tenemos que recurrir al artificio de introducir una variable artificial que nos permita obtener una solución factible inicial S3: 4X1 + 2X2 - E3 + S3 = 135 En este caso escogemos S3 como variable básica inicial correspondiente a la restricción (3). Como en el caso anterior (restricciones con igualdad), añadiremos la variable artificial S3 en el objetivo con un coeficiente –M. Si esta variable continua con valor positivo al final del método Simplex, el problema es infactible. El hecho de añadir la variable artificial en el objetivo implica que, al iniciar el método Simplex, el cuadro inicial no esté en la forma apropiada de eliminación gausiana, ya que esta forma requiere que todas las variables básicas tengan un coeficiente 0 en la ecuación (0) correspondiente al objetivo, y en este caso la variable básica S3 tiene un coeficiente igual a -M. Entonces, para poder iniciar el método Simplex, tanto si tenemos restricciones con igualdad o desigualdad _, tenemos que transformar esta ecuación (0) en la forma apropiada de eliminación de Gauss, para poder así determinar tanto la variable que entrará en la base como el test de optimalidad. De nuevo, el procedimiento es el de siempre: el método de eliminación de Gauss. En este caso, el procedimiento es muy similar al utilizado hasta ahora en el método Simplex. Tendremos que realizar la operación siguiente: Ec. (0) nueva = ec. (0) antigua – M * ec.(3) Es decir:
Ahora ya podemos proceder con el método Simplex ya que todas las variables básicas en la ecuación (0) tienen un coeficiente asociado igual a 0. Ahora tenemos que decidir que variable no-básica tiene que entrar en la base. Escogeremos aquella cuyo coeficiente aumente más el objetivo. En este caso, escogeríamos E3 como variable básica entrante y procederíamos a buscar la variable básica saliente de la misma forma que lo hicimos anteriormente. Hemos de observar que cuando E3 entra en la base y otra variable sale de la base (es decir, nos desplazamos a un nuevo punto extremo adyacente), el coeficiente de E3 en el objetivo tomará el valor 0. A medida que el procedimiento continua, las variables con el valor M en el objetivo van entrando en la base y llegará un punto en que M desaparecerá del sistema. Si en la solución final aún tenemos M en la ecuación (0), el sistema no tiene solución. Si tenemos más de una restricción con igualdad, el procedimiento es exactamente el mismo. Cada una de las variables artificiales tendrá un coeficiente –M en el objetivo y tendremos que encontrar la forma apropiada de eliminación de Gauss. 86
Minimización Hasta ahora, hemos examinado el método Simplex cuando estamos maximizando el objetivo. Pero, en muchos casos, tenemos que minimizar el objetivo (por ejemplo, minimizar costos, minimizar el grado de contaminación o minimizar la mortalidad). Lo más sencillo es multiplicar el objetivo por –1. Por ejemplo: Min Z = 3X1 + 4X2 es equivalente a: Max -Z = -3X1 - 4X2 Una vez hecha esta transformación, podemos aplicar el método Simplex descrito en esta sección. La causa de esta equivalencia es que, cuanto menor es Z, mayor es –Z. Otra manera de operar con un objetivo de minimización es seleccionar la variable nobásica entrante que reduzca en mayor grado el valor del objetivo. Variables no acotadas Puede ocurrir que en algunas formulaciones las variables puedan coger valores negativos. En este caso, hay que modificar el modelo para poder utilizar en método Simplex, ya que éste únicamente permite que las variables tomen valores positivos o cero. Supongamos que la variable Xi no está acotada inferiormente. Para poder resolver el problema, tendremos que sustituir esta variable en todas las ecuaciones por dos variables y de la manera siguiente:
en donde y . Como estas dos variables pueden coger cualquier valor no-negativo, su diferencia puede ser cualquier valor (positivo o negativo). Ahora ya podemos aplicar el método Simplex. En la solución final, debido a las propiedades geométricas de la solución factible en un punto extremo, nunca tendremos las dos variables con valores positivos. O únicamente una de ellas tiene valor estrictamente positivo y la otra igual a 0 (o viceversa), o las dos son iguales a 0. 3.2.4 Situaciones especiales en el método Simplex ¿Qué pasa cuando vamos a escoger la variable no-básica entrante y hay un empate en el criterio? ¿Cómo detectamos problemas sin solución? ¿I si la solución es infinita? A continuación examinaremos como el método Simplex lidia con estas situaciones. Empate en la variable entrante Si hay dos variables que tienen el coeficiente más grande (en valor absoluto) igual en la ecuación (0), se escoge arbitrariamente una de ellas para entrar en la base. Empate en la variable saliente Supongamos que ahora el empate se produce entre dos o más variables básicas al examinar el criterio de salida. Si esto sucede, todas las variables alcanzan el valor 0 al mismo tiempo cuando aumenta el valor de la variable entrante. Entonces, las variables básica que no habíamos escogido como salientes de la base también tendrán valor 0 en la solución. Este tipo de soluciones se llaman degeneradas. Incluso, si una de estas variables continua con el valor 0 hasta que se selecciona como variable saliente en una iteración posterior, la variable no-básica entrante también se quedará con valor 0 y el valor del objetivo no cambiará. Puede pasar que, si Z se queda igual, en vez de mejorar el objetivo en cada iteración, el método 87
Simplex entre en un ciclo que repite periódicamente las mismas soluciones, en vez de ir cambiando para aumentar el valor del objetivo. De hecho, se han elaborado programas lineales con ciclos infinitos. Por suerte, en la práctica esta situación es casi inexistente y normalmente los empates se rompen arbitrariamente. No hay variable básica saliente: Z no acotado ¿Qué pasa cuando no hay variables básicas candidatas a salir en la base? O, en otras palabras, ¿qué hacemos cuando todos los cocientes calculados para seleccionar la base son de tal manera que no hay ninguno es positivo? Recordemos que, a medida que aumentábamos el valor de la variable no-básica entrante, había como mínimo variable básica que iba disminuyendo hasta llegar a tener un valor 0, que determinaba automáticamente el nuevo valor de la variable entrante. Pues bien, puede haber situaciones en donde a medida que aumento el valor de la variable entrante todas las variables básicas también aumentan de valor (o no cambian). Simplemente, el problema tiene una solución infinita, ya que no hay ninguna restricción que acote el objetivo. Soluciones óptimas múltiples Como hemos visto, el método Simplex se para cuando encuentra una solución óptima. Pero, como hemos visto en el método gráfico, puede haber situaciones en las que hay soluciones óptimas múltiples... Siempre que el problema tiene más de una solución óptima factible, como mínimo una variable no-básica tiene el coeficiente igual a 0 en la ecuación (0) final, de manera que si su valor aumenta, Z no cambia. Si esta situación aparece, podemos encontrar otra solución óptima introduciendo esta variable no-básica en la base. Así podemos encontrar otras soluciones que, sin cambiar el valor del objetivo, nos ayuden a tomar una decisión en función del valor de las variables en el óptimo. 3.2.5 Soluciones con Software Por ahora hemos visto dos métodos para encontrar soluciones de programas lineales. Pero todos ellos son muy ineficientes si se tiene que hacer los cálculos con lápiz y papel incluso para problemas pequeños. Actualmente, existe un sinfín de programas de ordenador que resuelven problemas lineales muy eficientemente, incluso programas con miles de variables y restricciones. Los programas de hoja de cálculo también están incorporando métodos para obtener soluciones de programas lineales. En esta sección describiremos como programar y solucionar un modelo de programación lineal en la hoja de cálculo Excel 2007 de Microsoft7. Utilizaremos mismo ejemplo de las secciones anteriores. También supondremos que se tienen conocimientos básicos de funcionamiento de este programa. La formulación del problema de asignación de recursos de la sección 2.2.2 es:
En primer lugar reordenamos el conjunto de restricciones en función de la dirección del signo ( , =, ). El sistema queda así:
7
La versión que se utiliza en este apartado corresponde a Office 2007, aunque en versiones anteriores también existe el módulo de programación lineal 88
Esto simplificará considerablemente la introducción de datos en la hoja Excel y en el módulo Solver. Obsérvese que el conjunto de restricciones puede representarse de formal matricial solo con los coeficientes de las variables: Coeficientes Recursos X1 X2 Disponibles 1 3 144 3 2 162 1 -3 0 13 18 982 4 2 135 Cuadro 3.8: Coeficientes La primera columna corresponde a los coeficientes de X1 y la segunda a los coeficientes de X2. Precisamente vamos a escribir esta matriz en las celdas de la hoja de calculo En la Figura 3.5 hemos escrito el planteamiento del problema. En los rangos B12-B16 y C12-C16 hemos escrito los coeficientes de X1 y X2 en las restricciones. En el rango D12-D16 figuran los valores de los recursos (lado derecho de las restricciones y en las celdas B5 y C5 los coeficientes de las variables en el objetivo. Ahora tenemos que escribir las fórmulas correspondientes a las restricciones y a la función objetivo. Las celdas B8 y C8 representarán los valores de las variables de decisión X1 y X2. La fórmula de la función objetivo está escrita en la celda E2. La fórmula es la siguiente: =B8*$B$5+C8*$C$5. Las formulas del lado izquierdo de las restricciones están escritas en el rango E12E16. Estas son: =B12*$B$8+C12*$C$8 =B13*$B$8+C13*$C$8 =B14*$B$8+C14*$C$8 =B15*$B$8+C15*$C$8 =B16*$B$8+C16*$C$8 Ahora ya tenemos preparado el modelo. Obsérvese que por el momento las celdas con fórmulas tienen el valor 0. Esto es debido a que por ahora las celdas asociadas a las variables de decisión están vacías. El siguiente paso es indicar a la hoja de cálculo donde está en problema. Entramos en la opción Herramientas y escogemos en el menú el Solver. Entonces aparecerá un recuadro como el de la Figura 3.6.
89
Figura 3.5: Ejemplo en Excel
Figura 3.6: Cuadro de la Opción Solver Ahora tenemos que indicar las celdas en donde están las fórmulas. En la casilla “Celda objetivo” ponemos la referencia de la celda en donde está la función objetivo ($E$2). Luego indicamos que es un problema de maximización. Las referencias de las variables se indican en el recuadro “Cambiando las celdas” (B8; C8). Finalmente tenemos que introducir las restricciones. Para ello entramos en la opción Agregar y saldrá el recuadro de la Figura 3.7. En él tenemos que indicar donde está el lado izquierdo (la fórmula) de cada restricción, el signo de la desigualdad y el lado derecho de cada restricción. Cada vez que entramos una restricción adicional escogemos la opción agregar. Ahora bien, si hemos ordenado las restricciones en función de su dirección, no hace falta entrar una a una en el recuadro. Basta con seleccionar el rango en función de cada una de las agrupaciones realizadas. Después de haber entrado las restricciones correspondientes,
Figura 3.7.: Introducción de las restricciones Excel también exige poner las restricciones de no negatividad. La Figura 3.8 muestra el resultado final de introducir el problema.
90
Figura 3.8: Resultado final de la programación Ahora ya podemos resolver el problema. Escogemos la opción Resolver y al cabo de unos breves momentos saldrá una pantalla indicando que la solución ha sido encontrada. La solución óptima de las variables de decisión y el valor del objetivo ahora aparecen en las celdas (ver Figura 3.10). La opción Solver también permite obtener automáticamente informes sobre la solución final.
Figura 3.9: Resultado del Solver
Figura 3.10: Solución óptima 3.3 Programación Lineal Entera Los modelos de programación lineal consideran que las variables de decisión son continuas, es decir, que pueden tomar en la solución final valores fraccionados. Pero, en muchos casos, una solución óptima de un programa lineal puede ser inservible si presenta fracciones. Supongamos, por ejemplo, que hemos construido un modelo para asignar personal médico a departamentos dentro de un hospital. En este caso, las variables de decisión (asignar personas a departamentos) tienen que ser enteras en la solución final. ¡No tendría sentido una solución en la cual 2,3 médicos fuesen asignados a la sección de dermatología!
91
Para poder encontrar soluciones de problemas en los cuales algunas o todas las variables tienen que ser enteras, se utiliza la programación entera, que no es más que una extensión de la programación lineal. Otro tipo de modelos entran dentro de la programación entera binaria, que es un caso especial en donde todas o algunas de las variables representan acciones binarias, es decir, “hacer o no hacer”. En este caso, las variables únicamente pueden adoptar los valores 0 ó 1. Este tipo de problemas es muy común en la toma de decisiones, en donde muchas veces tenemos que decidir si, por ejemplo, tenemos que construir un nuevo centro, si tenemos que invertir en un nuevo departamento, o si tenemos que modificar una estrategia de planificación de un servicio. Cuando nos encontramos con este tipo de problemas, la formulación matemática no se ve alterada; únicamente en las restricciones de no-negatividad hay que indicar qué variables tienen que tomar valores enteros. El problema reside en encontrar soluciones que sean factibles, ya que el algoritmo Simplex no garantiza una solución adecuada al problema. En esta parte, examinaremos en primer lugar como podemos modificar el algoritmo Simplex para poder obtener soluciones óptimas. A continuación, examinaremos algunos problemas de programación entera cuyas variables de decisión son binarias (decisiones “hacer o no hacer”). 3.3.1 El algoritmo de bifurcación y acotamiento El Algoritmo de Bifurcación y Acotamiento 8 (ABA) se basa en el algoritmo Simplex para poder obtener soluciones enteras. En primer lugar, se aplica el algoritmo Simplex para obtener una solución inicial. Si en la solución obtenida al final del algoritmo Simplex todas las variables especificadas como enteras tienen valores enteros, no hace falta seguir ya que se ha obtenido el óptimo; en caso contrario, es necesario aplicar el ABA. Básicamente, en cada iteración del ABA se escoge una variable que presenta una solución no-entera y se divide el problema en dos sub-problemas, añadiendo en cada uno de ellos una nueva restricción que acota esta variable por su valor entero superior en un caso, y por el valor su valor inferior entero por el otro. Cada sub-problema se resuelve con el método Simplex y se verifica si la solución es entera. En caso, contrario, se vuelve a bifurcar el sub-problema en otros dos y se sigue procediendo hasta que se encuentra una solución entera. El proceso se realiza en todas las ramificaciones del árbol. Aunque este algoritmo pueda parecer complejo, el proceso es bastante sencillo. A continuación examinaremos con un ejemplo el ABA. Supongamos que tenemos que encontrar la solución al problema lineal siguiente:
En primer lugar utilizamos el método Simplex para obtener una solución del programa lineal relajado (sin considerar las restricciones que fijan las variables como enteras). La solución obtenida es Z = 8,5; X1 = 2,6 y X2 = 4,2. Tenemos que las dos variables ofrecen soluciones fraccionadas. Hay que aplicar el ABA.
8
En inglés, “branch and bound algorithm” 92
Figura 3.11: Solución Solver Definamos el problema original como P0. Escogemos X1 y creamos dos sub-problemas P1 y P2 a partir del programa original. El primer sub-problema, P1, consistirá en el programa original P0 más la restricción X1 > 2. El segundo sub-problema, P2, consistirá en el programa original más la restricción X1 > 3. Es decir, estamos diciendo que X1 no puede coger valores entre dos y tres. Solucionamos P1 y P2. P1 = P0 + X1 > 2. Solución: Z1 = 8,3; X1 = 2 y X2 = 4,5 P2 = P0 + X1 > 3. Solución: Z2 = 8,3; X1 = 3 y X2 = 3,8 Los dos sub-problemas obtienen el mismo valor del objetivo que, como era de esperar, es inferior al objetivo inicial Z. Sin embargo, ambos problemas siguen incumpliendo las condiciones de soluciones enteras. Tenemos que seguir ramificando. Cogemos el problema P1 y lo subdividimos en dos nuevos subproblemas P11 y P12 añadiendo las restricción X2 > 4 en uno y X2 > 5 (manteniendo todas las restricciones anteriores, incluida X1 > 2). Los resultados son los siguientes: P11 = P1 + X2 > 4. Solución: Z11 = 7,6; X1 = 2 y X2 = 4 P12 = P1 + X2 > 5. Solución: Z12 = 8,0; X1 = 1 y X2 = 5 En estos dos sub-problemas hemos encontrado soluciones enteras. Como Z11 es inferior a Z12 podemos descartar P11 como solución válida. Por ahora ya hemos encontrado una solución que tiene valores enteros con el problema P12, cuyo objetivo es igual a 8,0. Sin embargo, aún no hemos acabado el algoritmo. Recordemos que habíamos subdividido el problema original en dos sub-problemas. Aún no hemos explorado el segundo sub-problema P2. El valor del objetivo al solucionar P2 era 8,3, aunque la variable X2 seguía sin ofrecer un valor entero. Como estamos maximizando, podría ser que ramificando P2 en dos sub-problemas se encontrara una solución entera superior a la que hemos encontrado con el subproblema P12. La ramificación es la siguiente: P21 = P2 + X2 > 3. Solución: Z21 = 8,0; X1 = 3,8 y X2 = 3 P22 = P2 + X2 > 4. Sin Solución. El problema P22 queda descartado por no tener una solución factible. Los problemas que aún están activos son P12 y P21 y ambos tienen el mismo valor del objetivo. Pero mientras que P12 tiene soluciones enteras, P21 sigue con soluciones fraccionadas. Por lo tanto, podemos descartar P21 ya que, si ramificáramos este problema, al añadir una nueva restricción el valor del objetivo sería inferior (o igual), pero nunca superior. En otras palabras, nunca podríamos encontrar una solución mejor que la que tenemos con P12. Como P12 es la única rama activa, ya tenemos la solución óptima de nuestro problema. Si P21 hubiera dado un valor del objetivo superior a 8,0 con alguna solución fraccionada, tendríamos que seguir bifurcando este subproblema. El flujo del algoritmo se muestra en la Figura 3.12.
93
Figura 3.12: Árbol del ABA aplicado al ejemplo En realidad, con este proceso lo que se está haciendo es seccionar en cada ramificación el espacio de soluciones para explorar si existe una solución entera. Este proceso puede ser observado en la Figura 3.13, en donde, para cada sub-problema, se muestra el segmento del espacio de soluciones explorado. El algoritmo de bifurcación y acotamiento también se utiliza para resolver los problemas de programación entera binaria.. La única diferencia es que las variables están acotadas por 0 y 1. Si en un sub-problema una variable teóricamente binaria X es igual a 0,6, éste se subdivide en dos problemas: el primero añadirá la restricción X = 0 y el segundo la restricción X = 1.
Figura 3.13: Espacio de soluciones de los sub-problemas 3.3.2 Programación Entera y Solver Por suerte, hoy en día cualquier programa de ordenador para resolver problemas de programación lineal incluyen un modulo para resolver situaciones en donde una o más variables tienen que ser enteras o enteras binarias en la solución final. Este es el caso del módulo Solver incluido en la hoja de cálculo Excel de Microsoft. Supongamos que las variables de ejemplo de la sección anterior tienen que ser enteras. Cuando se introducen las restricciones, tenemos que añadir una en donde se escoge las variables en cuestión y se indica que son enteras, seleccionando “int 9” en el menú de opciones de la dirección de la restricción (ver Figura 3.14). En caso de que tengan que ser binarias, se escoge la opción “Bin”.
9
“Int” vienen de “integer”, que en ingles quiere decir “Entero”. 94
Figura 3.14: Soluciones enteras con Excel 3.3.3 Programación Entera Binaria: El Problema de la Mochila El problema de la mochila es un clásico de los métodos cuantitativos. En esencia, el problema consiste en llenar una mochila con objetos con pesos diferentes y con valores también diferentes. El objetivo es la maximización del valor total de la mochila con la restricción de que el peso de ésta no puede sobrepasar un límite predeterminado. Este problema ha sido utilizado en muchas aplicaciones diferentes. Una de ellas consiste en la asignación de pacientes a una unidad (un ambulatorio, un quirófano, etc.) que tiene una capacidad límite. Cada paciente tiene asociado dos parámetros: el primero mide la gravedad del paciente respecto a los otros en términos relativos, y el segundo mide el tiempo de utilización del servicio. El problema consiste en encontrar qué pacientes podrán ser atendidos y cuales habrá que derivar a otro centro. Es evidente que en este problema el número de pacientes a ser atendidos es más elevado que la capacidad del centro. En este tipo de problemas nos encontramos con la disyuntiva de tenemos que, por un lado, dar prioridades para intentar atender el máximo de pacientes, y por el otro lado atender a aquellos que presentan más gravedad. Formulación del problema Supongamos que tenemos m pacientes a ser programados en un centro. Los parámetros que tenemos que conocer a priori son: gi = valor cardinal de la gravedad del paciente i ti = duración en minutos de la intervención del paciente i T = tiempo total disponible en el centro y las variables de decisión son: Xi = 1, si se atiende al paciente i; 0, si no se le atiende. En este caso todas las variables son binarias y tendremos una para cada paciente. Una vez definidos los parámetros y las variables, podemos construir en modelo. Este modelo tiene una única restricción que, básicamente, define que el total de minutos que los pacientes atendidos en el centro consumirán no puede exceder el tiempo total disponible T. Como Xi solo puede ser igual a 0 ó 1, el tiempo total consumido por el paciente i será igual a tiXi. Si sumamos tiXi para todos los pacientes, tendremos el tiempo total consumido por ellos, que no puede ser superior a T. En términos matemáticos:
El objetivo consiste en la maximización de la “gravedad total” del sistema. En otras palabras, queremos atender a aquellos pacientes más necesitados. Tenemos que observar que el problema no es tan trivial, ya que no vale ordenar los pacientes en función de la gravedad e ir llenando “la mochila” del centro hasta agotar la capacidad, porque un paciente j que presenta un nivel de gravedad gj puede tener asociado un tiempo de atención tj muy superior al tiempo conjunto de dos pacientes k y l (tj > tk + tl), que tienen una menor gravedad, pero cuya gravedad conjunta es superior a la del primero (gj < gk + gl). En este caso, sería mejor incluir a los dos pacientes k y l y no al paciente j. El objetivo vendrá definido por la función lineal siguiente:
95
En definitiva, la formulación final del modelo será:
Este problema es fácil de resolver utilizando el algoritmo ABA ya que únicamente tiene una restricción. Supongamos ahora que algunos tratamientos son incompatibles con otros. Por ejemplo, si se trata de un quirófano, podríamos tener que si operamos al paciente i también podremos operar al paciente j porque tendremos recursos disponibles (quirófano preparado, personal adecuado), pero si no se opera a ningún paciente de tipo i entonces no se podrá operar al paciente j. Para poder introducir esta consideración tendríamos que añadir la siguiente restricción: Xi Xj Es decir, si operamos al paciente i, Xi = 1, lo que implica que Xj quedará libre para coger el valor 0 ó 1 (será el modelo quien lo decida). Por otro lado, si Xi = 0, la variable Xj será siempre igual 0, y por lo tanto el paciente j no podrá ser operado. Supongamos ahora que el paciente j únicamente podrá ser operado si tanto el paciente i como el k son operados. En cualquier otro caso el paciente j no podrá ser atendido. Para formular este tipo de restricciones a veces es muy útil la utilización de la “tabla de la verdad”. En esta tabla se introduce las combinaciones de las X que son factibles. Esta tabla se representa en el Cuadro 3.9. Xi
Xk
Xj
0
0
0
1
0
0
0
1
0
1 1 1 Cuadro 3.9: Tabla de la Verdad La ecuación de esta restricción que tendrá que añadirse al modelo es: Xi + Xk 2 Xj Si Xi y Xk son ambas iguales a 1, Xj podrá ser igual a 0 ó 1. En cualquier otro caso, Xj siempre será igual a 0. Como hemos visto en este ejemplo, el uso de variables binarias puede ser muy útil para modelizar situaciones en donde la decisión es “hacer o no hacer”. 3.3.4 El Problema de Asignación El problema de asignación es otro clásico en los modelos de decisión. En esencia, consiste en asignar recursos a tareas en función de un objetivo ligado a la eficiencia del sistema. Un ejemplo típico es el de asignación de personas a turnos horarios. Otro ejemplo es el de asignar personas a máquinas, o el de asignar regiones a Centros de Atención Primaria. En este apartado se presenta el Problema de asignación como una variante del Problema de Transporte. Como vimos anteriormente la Compañía de Seguros Pacífico S.A. tiene Centros de Asistencia Primaria (CAPs) distribuidos en m pueblos y ciudades de una región (un CAP en cada centro urbano). Para obtener 96
un buen funcionamiento global del servicio y poder planificar el número de visitas en función del personal previsto en cada CAP y de su dimensión, Pacífico S.A. ha decidido organizar el servicio de tal forma que todos sus asegurados tengan un CAP de referencia asignado, pero que sea éste el más cercano posible a su lugar de residencia. En la región hay m ciudades y pueblos (siendo m bastante mayor que n) y la compañía sabe cuantos asegurados tiene en cada uno de ellos. El objetivo es asignar cada una de las m ciudades a un único CAP, minimizando el costo o la distancia total. La diferencia básica entre este problema y el Problema de Transporte es que en este caso cada pueblo o ciudad (con la totalidad de sus habitantes) es asignado a un único CAP, mientras que en el otro problema podría darse lugar a que una parte de la población de una ciudad estuviera asignada a un CAP y la otra a otro diferente. A continuación examinados los parámetros y variables necesarios para la formulación. En primer lugar se definen los parámetros necesarios para formular el modelo. Sea: ai: número de asegurados en el centro urbano i, i = 1,...,m. bj: número total de asegurados que el CAP j puede tener asignados como máximo, j = 1,...,n. cij: costo de desplazamiento entre i y j. Las variables que se utilizará son de tipo binario: Sea Xij =1, si el área i está asignada al CAP j; y 0 en caso contrario. Una vez definidos los parámetros y las variables, necesitamos definir las restricciones del modelo. Como en el Problema de Transporte, en esta formulación hay dos tipos de restricciones. La primera viene definida por la capacidad de atención máxima de los CAPs. El número total de asegurados asignados al CAP j no puede exceder su capacidad bj. Para un CAP determinado j, no podemos asignar las población que la que determina su capacidad máxima a1X1j + a2X2j + ... + aiXij + ... + amXmj
bj
Para todos los CAPs, tendremos que:
El segundo grupo de restricciones tiene que considerar que hemos de asignar la totalidad de los asegurados de Todosalud SA de cada centro urbano i a un único CAP. Para cada área, tendremos que: Xi1 + Xi2 + ... + Xij + ... + Xin = 1 Es decir, una única variable asociada a cada área i puede ser igual a 1. Para todas las áreas:
Finalmente, se tiene que formular el objetivo de minimización total de la distancia o costo total del sistema. Este viene definido por: c11X11 + c12X12 + ... + c1nX1n + ... + cijXij + ... + cm1Xm1 + ... + cmnXmn que podemos re-escribir en forma compacta como:
97
En resumen, la formulación completa del modelo es la siguiente:
Se tiene que observar que este problema presenta la misma peculiaridad que el problema de Transporte. Para que el problema tenga una solución factible, el número total de asegurados no puede exceder la capacidad total de los CAPs. Es decir, existe la siguiente restricción implícita en el modelo:
Si esto no se verificara, el problema no tendría solución. 3.3.5 Problemas de Localización de Servicios ¿Cuántas ambulancias se necesitan en un área geográfica, y dónde deberían ubicarse para asegurar un buen servicio a las llamadas por urgencias? ¿En dónde deberían localizarse las Centros de atención Primaria en una región para minimizar el tiempo de desplazamiento de los usuarios? ¿En dónde tenemos que localizar almacenes para optimizar la distribución de productos farmacéuticos en un país? Estas cuestiones, relacionadas con el diseño y la operación de los servicios de atención y de distribución, han sido estudiadas durante los últimos 25 años por un gran número de investigadores. Los planificadores tienen que responder a preguntas como éstas cuando se enfrentan al diseño o a la reconfiguración de los servicios de urgencias médicas, de ambulatorios, de operaciones de distribución, o de redes hospitalarias. Por ejemplo, la velocidad de reacción de un sistema de emergencia a una llamada es el criterio principal para juzgar el desempeño de los servicios de emergencia. Otra medida es la habilidad del personal para lidiar efectivamente con la situación una vez llegado a la escena. La localización inicial de los servidores (parques de bomberos, garajes de ambulancias, etc.) influencia poderosamente la eficiencia de la respuesta. Esto se refleja en la gran cantidad de modelos desarrollados para ayudar a los planificadores de servicios de urgencias. El problema básico trata de localizar servicios que van a permanecer en su ubicación por un largo tiempo una vez decidida su localización. En otras palabras, su ubicación será, sino definitiva, constante durante un largo periodo de tiempo. La localización de estos servicios puede ser determinante en la evaluación de la eficiencia de su "desempeño" en la oferta del servicio en cuestión. Efectivamente, el auge de la investigación operativa en los años sesenta provocó la aparición de un campo especifico dedicado a la localización de servicios de en regiones y en zonas urbanas. En general, estos modelos optimizan uno o varios objetivos en función de unos recursos limitados y/o criterios de cobertura y de atención. Estos modelos se pueden agrupar en tres categorías en función del objetivo principal. La primera categoría corresponde a modelos cuyo objetivo principal es la maximización de la cobertura de la población siguiendo un criterio ``estándar'' (per ejemplo, maximizar la población cubierta por el servicio de ambulancias en un tiempo máximo de 10 minutos). El segundo grupo corresponde a 98
modelos de localización cuyo objetivo es la minimización de la distancia o tiempo medio de acceso a la población. El tercero consiste en la minimización los de costos de transporte de mercancías o de personas y de localización de centros. Entre estos modelos se han realizado diversas variaciones para intentar reflejar algunos aspectos específicos del problema de localización. Por ejemplo, hay modelos que no tan solo localizan ambulancias, sino que también determinan para cada estación cual es la combinación óptima de vehículos, materiales y recursos humanos. Otros modelos estudian el problema de la localización teniendo en cuenta el grado de congestión del servicio, intentando obtener un conjunto de localizaciones que no tan solo optimice la cobertura, sino que de alguna forma considere la situación de que un servicio está ocupado atendiendo una llamada y en su estación se produzca otra llamada (modelos de ``backup'' o servicios auxiliares). Otra línea de trabajo estudia la situación en donde la demanda de servicio tiene elementos probabilísticos en función de la hora del día. En esta sección formularemos tres modelos básicos de localización de servicios. Modelos de Cobertura Los modelos de cobertura suelen fijar una distancia estándar D entre un servicio y la población usuaria. Esta distancia (o tiempo de desplazamiento) se considera como la distancia máxima entre usuario y servicio para ofrecer una atención correcta. Esta distancia estándar se utiliza como criterio básico para obtener la ubicación óptima de servicios. El Problema de Localización de Servicios con Cobertura10 El Problema de Localización de Servicios con Cobertura (PLSC), en palabras, es el siguiente: ¿Cuál es el número mínimo de centros y dónde tenemos que localizarlos para que toda la población esté cubierta dentro de la distancia estándar D? El PLSC puede ser formulado de la siguiente forma. Supongamos una red de transporte en donde existen m nodos o áreas, cada uno con una demanda (o población) determinada del servicio, y conectados entre ellos por "arcos" (carreteras, calles, etc.), cada uno de ellos con un tiempo de desplazamiento o una distancia asociados. La localización de los servicios se realiza exclusivamente en los nodos. En otras palabras, únicamente los nodos de la red son candidatos a obtener una localización de los servicios, y por otro lado, los nodos también representan los centros de demanda de los servicios. Muchas veces, en algunas aplicaciones, no todos los nodos de demanda son candidatos a obtener un centro de servicio (a veces en un nodo se encuentra un edificio de interés cultural, o simplemente no existe terreno disponible para ubicar un servicio); por ello siempre en la formulación del modelo se diferencia entre la demanda (nodos que requieren del servicio) y la oferta (nodos candidatos a recibir el servicio). En la Figura 3.10 se representa ejemplo de red de 20 nodos con la cual formularemos algunos modelos de localización.
10
En inglés: “Location Set Covering Problem” 99
Figura 3.3.: Red de 20 nodos En esta Figura, los nodos están representados por círculos y también se indican las distancias entre los nodos que están directamente conectados. El Cuadro 3.10 contiene la matriz de distancias dij entre todos los pares de nodos (i,j) de la red. Esta matriz es fundamental en los modelos de localización. En general, esta matriz se obtiene calculando, para cada par de nodos, el “camino más corto” entre ellos, es decir, la distancias más corta que los une.
Po b.
1
2
34
65
3
4
5
6
7
8
9
10
11
12
13
14
15
16
75 18, 2 13, 7 11, 4 15, 7
32 23, 5 18, 5 11, 0
34
28 27, 5 22, 5 15, 0 12, 2 16, 7 11, 5
53
52 15, 0 13, 0 15, 2 20, 7
21 25, 0 20, 5 18, 2 19, 2 12, 9,0 0
39 21, 5 19, 5 21, 7 27, 2 15, 5 11, 5 19, 0 13, 5 18, 0 14, 5
98 18, 0 21, 0 25, 2 30, 7 19, 0 15, 0 22, 5 15, 0 24, 0
69 35, 0 30, 5 27, 0 24, 2 22, 0 16, 8 16, 0 27, 0 12, 0 33, 0 21, 8 10, 0 18, 2 24, 2
67 28, 5 26, 5 27, 2 28, 2 21, 0 15, 8 20, 0 20, 5 16, 0 21, 5 13, 5
17
18
19
20
54 40, 5 38, 5 38, 0 35, 2 33, 0 27, 8 27, 0 32, 5 23, 0 33, 5 25, 5 21, 0 19, 7,0 8,0 0 13, 25, 0 9,0 0
76 37, 0 37, 5 39, 4 40, 4 33, 2 28, 0 32, 2 31, 5 28, 2 28, 0 24, 5 21, 2 18, 0 19, 0
90 32, 0 35, 0 39, 2 44, 7 33, 0 29, 0 36, 5 29, 0 36, 5 23, 0 24, 0 29, 5 18, 5 14, 0
14
99 85 95 12, 21, 13, 0,0 5,0 5 2 0 16, 5,0 0,0 7,5 2 8,5 12, 5 7,5 0,0 8,7 6,2 21, 16, 14, 2 2 8,7 0,0 9 13, 14, 0 8,5 6,2 9 0,0 18, 13, 11, 15, 2 7 4 7 5,2 23, 18, 11, 12, 5 5 0 8,2 7 11, 19, 8,0 6,0 2 9 5,0 27, 22, 15, 12, 16, 5 5 0 2 7 12, 17, 25, 11, 9,0 0 2 9 0 15, 13, 15, 20, 0 0 2 7 9,0 25, 20, 18, 19, 12, 0 5 2 2 0 21, 19, 21, 27, 15, 5 5 7 2 5 18, 21, 25, 30, 19, 0 0 2 7 0
15
35, 30, 27, 24, 22, 16, 16, 27, 12, 33, 21, 10, 18, 24, 0,0 11, 24, 11, 21, 34,
1 2 3 4 5 6 7 8 9 10 11 12 13
100
5,2 0,0 7,5 10, 2 11, 5 13, 0 5,0 6,8 11, 5 15, 0
8,0
6,0 11, 2 19, 8,2 9 12, 7 5,0 10, 7,5 2 17, 0,0 7 17, 7 0,0 21, 4,0 7 20, 5 6,0 12, 5 7,0 11, 17, 0 0 19, 13, 0 5 22, 15, 5 0
9,0 12, 0 17, 2 25, 9 11, 0 13, 0 5,0 6,8 20, 12, 11, 4,0 5 5 0 21, 17, 7 6,0 7,0 0 24, 16, 0,0 5 5 7,0 24, 23, 5 0,0 8,0 0 16, 11, 5 8,0 0,0 8 23, 11, 7,0 0 8 0,0 18, 14, 11, 0 5 6,5 0 24, 10, 17, 0 9,0 0 0
9,0 10, 6,5 0 11, 17, 0 0 0,0 6,0 6,0 0,0
22 27, 0 27, 5 29, 7 35, 2 23, 5 19, 5 27, 0 21, 5 26, 0 18, 0 14, 5 19, 9,0 0
16 17 18 19 20
0
5
0
28, 5 27, 0 40, 5 37, 0 32, 0
26, 5 27, 5 38, 5 37, 5 35, 0
27, 2 29, 7 38, 0 39, 4 39, 2
2
0
8
0
0
0
0
8
0
2
2
2
28, 21, 15, 20, 20, 16, 21, 13, 13, 11, 2 0 8 0 5 0 5 5 9,0 7,0 0 2 0,0 35, 23, 19, 27, 21, 26, 18, 14, 19, 24, 13, 2 5 5 0 5 0 0 5 0 8,0 9,0 2 0 35, 33, 27, 27, 32, 23, 33, 25, 21, 19, 25, 11, 12, 2 0 8 0 5 0 5 5 0 0 0 0 0 40, 33, 28, 32, 31, 28, 28, 24, 21, 18, 19, 21, 12, 4 2 0 2 5 2 0 5 2 0 0 0 2 44, 33, 29, 36, 29, 36, 23, 24, 29, 18, 14, 34, 23, 7 0 0 5 0 5 0 0 5 5 0 5 5 Cuadro 3.3: Población de cada nodo y distancias entre nodos
2
0
13, 12, 0 0 20, 0,0 0 20, 0 0,0 10, 10, 0 0 10, 23, 5 5
0
5
12, 23, 2 5 10, 10, 0 5 10, 23, 0 5 13, 0,0 5 13, 5 0,0
Ahora es necesario conocer, para cada nodo de demanda, cuáles son las ubicaciones potenciales donde, si se abre un centro en ellas, el nodo de demanda estará cubierto dentro de la distancia estándar D. Por ejemplo, si D = 10, el centro de demanda 4 tiene, como ubicaciones potenciales de cubrirlo, los nodos 3, 4 y 7. En el Cuadro 3.4, se indican, para cada nodo, las ubicaciones potenciales de cobertura. Nodo a Cubrir
Ubicaciones Potenciales
Nodo a Cubrir
Ubicaciones Potenciales
1
1,2,8,10
11
5,6,8,10,11,13,14
2
1,2,3,5,8
12
6,9,12,15,16
3
2,3,4,5
13
11,13,14,16,17
4
3,4,17
14
10,11,13,14,17
5
2,3,5,6,8,11
15
12,15
6
5,6,7,11,12
16
12,13,16
7
4,6,7,9
17
13,14,17,19
8
1,2,5,8,10,11
18
18,19
9
7,9,12
19
17,18,19
10 1,8,10,11,14 20 20 Cuadro 3.4.: Ubicaciones potenciales de cobertura por nodo. D = 10 Por ejemplo, si ubicamos un centro en el nodo 8, los nodos 1, 2, 5, 8, 10 y 11 estarán cubiertos, ya que él está incluido en el conjunto de ubicaciones potenciales de cada uno de estos nodos de demanda. Definamos Xj como una variable binaria (0 ó 1) que, si es igual a 1, indicará que estamos abriendo un centro en el nodo j, y que, en caso contrario (igual a 0), el nodo j estará vacío. Tendremos tantas variables como ubicaciones potenciales. Podemos utilizar estas variables para formular el modelo. Por ejemplo, tenemos que, para el nodo 4, podemos escribir la siguiente restricción: X3 + X4 + X7
1
que indica que como mínimo una de las tres variables tiene que ser igual a 1, o, en otras palabras, que para que el nodo 4 esté cubierto tenemos que abrir como mínimo un centro en 3, 4, ó 7. Si definimos Ni como el conjunto de ubicaciones potenciales que cubrirán el nodo i dentro de la distancia estándar D, (Ni = {j / dij D}, para cada nodo demanda i podemos escribir la restricción siguiente:
101
Este conjunto de restricciones forzarán a que cada nodo esté cubierto. Ahora falta formular el objetivo. Como queremos minimizar en número de centros a ubicar, cuantas menos Xj sean igual a 1, mejor. Por lo tanto, el objetivo lo podemos formular de la siguiente forma:
Si definimos m como el número total de nodos de demanda y n como el número de total de ubicaciones potenciales, la formulación final del Problema de Localización con Cobertura es:
Se puede utilizar el módulo Solver de Excel para resolver el problema con distancias estándar diferentes. En el Cuadro 3.5 se presentan algunos resultados para coberturas diferentes: Distancia Estándar D
Número mínimo De Centros
Ubicaciones Finales
15
3 8,9,19
12
4 3,8,15,17
11
5 3,10,12,18,20
10
6 4,8,12,17,18,20
9
8 4,8,12,15,17,18,19,20
8 9 4,5,8,9,13,15,18,19,20 Cuadro 3.4: Resultados con diferentes coberturas Este problema suele tener a veces bastantes soluciones óptimas alternativas. El PLSC puede modificarse para considerar, por ejemplo, la minimización del presupuesto. Si cada nodo potencial de obtener un servicio tiene asociado un costo fijo de apertura fj, podemos reformular el objetivo del problema de la siguiente forma:
En este caso estamos minimizando el costo total de apertura de centros. Es muy improbable que aparezcan soluciones alternativas óptimas. En este problema, la fijación de la distancia estándar D es determinante de los resultados, por lo que hay ir con mucho cuidado al determinarla. Supongamos que, en nuestro ejemplo, la distancia estándar está fijada en 10. Al resolver el PLSC encontramos que la solución óptima es igual a 6 centros, ubicados en los nodos 4, 8, 12, 17, 18 y 20. Pero el sistema no tiene suficiente presupuesto para construir 6 centros. Únicamente tiene un presupuesto para 4 centros. Como el número mínimo de centros para cubrir la población es igual a 6, con 4 centros no podremos cubrirla por completo. En este caso, si fijamos en número de centros, podemos intentar 102
encontrar sus ubicaciones de forma a maximizar la cobertura de la población. Este problema es conocido como el Problema de Localización con Cobertura Máxima (PLCM). El Problema de Localización con Cobertura Máxima (PLCM). Este problema puede ser descrito de la siguiente forma: ¿Dónde tenemos que localizar p centros para maximizar la cobertura de la población dentro de la distancia estándar D? Este problema es una extensión del PLSC. Para formular el modelo tenemos que añadir un nuevo grupo de variables binarias Yi, que denominaremos de cobertura, que serán igual a 1 si el nodo i está cubierto por un centro dentro de la distancia estándar D; e igual a 0 si no lo está. Como en la solución final algunos nodos de demanda quedarán descubiertos (ya que no tenemos suficientes centros para cubrir toda la población), algunas de estas variables serán 0. Cojamos de nuevo como ejemplo el nodo 4. Para que el esté cubierto se tiene que localizar como mínimo un centro en uno de los nodos 3, 4 o 7. Ahora tendremos que escribir la restricción siguiente: X3 + X4 + X7
Y4
Si como mínimo una de las variables de localización X es igual a 1, la variable Y4 podrá ser también igual a 1, y por lo tanto el nodo de demanda 4 estará cubierto. Si, en cambio, todas las variables X de la restricción son iguales a 0, la variable de cobertura Y4 será forzosamente igual a 0 y el nodo 4 no estará cubierto. Para cada nodo de demanda escribiremos la siguiente restricción:
Otra restricción es la limitación del número de centros a localizar. En nuestro ejemplo hemos fijado el número de centros en 4. Esto quiere decir que únicamente cuatro variables de ubicación Xj podrán ser igual a 1. La restricción, en términos matemáticos, es:
Finalmente, el objetivo consiste en la maximización de la cobertura de la población de la región en cuestión. En el modelo PLSC todos los nodos quedaban cubiertos, por lo que no hacía falta preocuparse de la población. En el nuevo modelo, como algunos nodos de demanda quedarán descubiertos, tenemos que considerar la población de cada uno de ellos. El modelo intentará cubrir, en primer lugar, aquellos nodos con mayor población (o demanda). El objetivo se formula matemáticamente de la forma siguiente:
En donde ai es un parámetro que denota el volumen de demanda (en nuestro ejemplo, población) asociada al nodo i. Contra más Yi sean igual a 1, más cobertura obtendremos. La formulación final del problema es:
103
La formulación del problema de máxima cobertura para nuestro ejemplo, con D = 10 y p = 4. El resultado final se presenta en el Cuadro 3.6. Número de Centros
4
Distancia estándar
10
Población Cubierta
88%
Ubicaciones 4,8,12,17 Nodos no cubiertos 18,20 Cuadro 3.6: Resultados del PLCM en el ejemplo Vemos que con 4 centros pasamos a cubrir el 88% de la población. En otras palabras, mientras que el número mínimo de centros necesarios para cubrir toda la población era igual a 6, con 4 centros cubrimos el 88% de ella y únicamente dos nodos no están cubiertos. Modelo de Localización P-Mediano El modelo P-Mediano de localización (MPML) tiene que objetivo principal la minimización de la distancia media entre los nodos de demanda y los centros. El problema, en palabras, es el siguiente: ¿Dónde se ubicarán p centros de forma a minimizar la distancia media entre éstos y los nodos de demanda? Para formular este problema necesitamos conocer, como en el problema anterior, la matriz de distancias y la demanda que se genera en cada uno de los nodos. En este caso no se utiliza una distancia estándar. Las variables de modelo serán: Xij = 1, si el nodo de demanda i es atendido por el centro ubicado en j; 0, en caso contrario Wj = 1; si ubicamos un centro en j; 0, en caso contrario A continuación definimos las restricciones. En primer lugar, un nodo de demanda tiene que estar asignado a un único centro. Para forzar esta situación, para cada nodo de demanda i, la suma de las Xij con respecto a l índice j tiene que ser igual a 1. En términos matemáticos:
Ahora bien, el nodo i no podrá ser asignado al nodo j si no existe un centro en j. Como la variable Wj indica si existe un centro en j o no, tendremos que:
104
Si no existe ningún centro en j, Wj = 0, lo que implica que ningún nodo de demanda podrá ser asignado a j. En este caso, todas las variables Xij serán igual a 0. Finalmente, tenemos que fijar el número de centros a abrir. La siguiente restricción tiene que ser añadida al modelo:
Finalmente, tenemos que formular el objetivo de distancia media. Tenemos que aidij será la distancia total entre la población (o demanda) en i y el centro en j. Si sumamos aidij para todas las i tendremos toda la demanda asignada a j. Luego tenemos que sumar para todas las j, y tendremos la distancia total del sistema. El objetivo es:
Una vez obtenido el valor de Z, tenemos que dividirlo por la demanda (o población) total del sistema para obtener la distancia media entre la demanda y los centros. En resumen, la formulación del problema P-mediano es:
Esta formulación suele tener muchas variables y restricciones. Por ejemplo, si m=n=100 tendremos 10.100 variables y 10.101 restricciones. Existen varias formas de reducir el número de variables y restricciones, pero aún así este modelo suele ser bastante grande. Se han desarrollado varios métodos heurísticos para poder encontrar soluciones del MPML. El Problema de Localización de Plantas con Capacidad En muchos casos el objetivo principal es encontrar una serie de ubicaciones que minimicen tanto los costos de transporte como el costo de apertura de los centros. El modelo de Localización de Plantas con Capacidad (MLPC) se describe de la forma siguiente: ¿Cuántos centros se necesitan y dónde hay que ubicarlos para minimizar los costos totales del servicio sin exceder su capacidad? Para poder formular el modelo, necesitamos los siguientes parámetros: ai = demanda en el nodo i dij = distancia entre el nodo de demanda i y el nodo de ubicación potencial j. fj = costo de apertura de un centro en el nodo j cij = costo de transporte por unidad de demanda y unidad de distancia 105
Cj = capacidad de un centro si se ubica en j y las variables que a continuación se describen: Xij = demanda del nodo i atendida por el centro en j Wj = 1, si ubicamos un centro en j; 0, en caso contrario. Un vez definidos los parámetros y las variables del modelo, se tienen que formular las restricciones. En primer lugar, no podemos exceder la capacidad de cada centro. Para que esto se cumpla, la demanda asignada a cada uno de los centros potenciales j no puede exceder su capacidad. En términos matemáticos:
Por otro lado, la demanda de cada uno de los nodos tiene que ser atendida. Es decir:
Finalmente, un nodo de demanda i no puede ser servido por j si no existe un centro en j. Matemáticamente,
en donde M es un parámetro con un valor muy elevado (por ejemplo, 1010). Si Wj es igual a 0, forzosamente todas las Xij serán igual a 0. En caso contrario, si Wj es igual a 1, las variables Xij podrán tomar cualquier valor, ya que no tendrán ninguna cota superior. Ahora falta definir el objetivo. Por un lado tenemos los costos de apertura, o costos fijos. Por otro lado, tenemos que minimizar los costos de distribución o transporte. Estos dos tipos de costos juegan un papel opuesto en relación al número de centros a ubicar. Mientras que, contra más centros abramos, menor será el costo de transporte al reducirse las distancias, por otro lado los costos de apertura aumentarán considerablemente. El modelo buscará el número de centros que minimice los costos totales. El objetivo se define matemáticamente como:
El primer término de del lado derecho de la ecuación refleja los costos de apertura. El segundo término formula los costos totales de transporte. En resumen, el modelo se formula de la siguiente forma:
106
Este problema es de programación lineal entera mixta, ya que mientras que algunas de las variables son enteras (en este caso las Wj son binarias), otras son continuas (las Xij pueden tomar cualquier valor nonegativo). Este problema es muy utilizado para ubicar plantas de producción y depósitos de distribución. Existe un sinfín de problemas de localización basados en este modelo. 3.3.6 Conclusiones En este capítulo hemos examinado como formular algunos problemas de programación entera mixta y binaria y como resolverlos con el algoritmo de bifurcación y acotamiento. Mientras que algunos problemas son relativamente fáciles de resolver con este algoritmo, otros pueden ser extremadamente “caros” en términos de tiempo de ordenador, ya que la ramificación es exponencial, y en cada rama del árbol del algoritmo tenemos que resolver un programa lineal. La mayoría de programas lineales incorporan un modulo de programación entera por lo que no hay que realizar el algoritmo; el propio programa se encarga del proceso. En la hoja de cálculo Excel, para resolver programas con algunas o todas las variables enteras, basta declararlas como enteras o binarias (si procede) dentro de la ventana de restricciones. 3.4 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Investigación de operaciones: http://www.investigacion-operaciones.com/contenido.htm Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
107
108
MODELOS DE INVENTARIOS. Objetivos del Capítulo. Análisis de la estructura de los modelos de gestión de inventarios Procesos de gestión de inventarios. Políticas de control y seguimiento de inventarios Utilización de software para gestión de stocks 4.0 Introducción La Gestión de Inventarios es la técnica que permite mantener una existencia de productos a un nivel adecuado, según sean las necesidades de las Unidades Productivas que están relacionadas, y en consecuencia de las Estrategias de Producción. Si miramos al Inventario del punto de vista de Análisis del Valor, este no adiciona valor al Sistema de Producción, por lo tanto, lo ideal es que el tamaño del inventario que manejemos sea lo más pequeño posible. Su tamaño, en este caso, es dependiente de consideraciones de variabilidad que se manejan dentro del Sistema Productivo y de los Niveles de Riesgo que sean aceptables para un determinado Sistema de Producción. Por lo tanto, el principal objetivo de analizar un Sistema de Inventario es encontrar respuestas a preguntas como las que se presentan a continuación: ¿Qué artículos deben mantenerse en inventario? ¿Qué cantidad de artículos debe ser ordenada o producida? ¿Cuándo deben generarse las Ordenes para que el costo total de manejo de inventarios sea el mínimo posible? ¿Qué Sistema de Control de Inventario deberá utilizarse para cada caso? Dentro de la filosofía de producción JIT, lo ideal es que no existieran inventarios, o que estos sean mínimos. Por lo tanto, la filosofía JIT trabaja desde la perspectiva de entregar y recibir la cantidad especificada en el instante preciso. Pero si analizamos con detenimiento lo que propone la filosofía JIT, podríamos decir que es demasiado idealista, ya que físicamente es imposible eliminar completamente la existencia del inventario, ya que su papel básico es permitir el acoplamiento entre dos unidades productivas de distinta capacidad, lo que no debemos obviar. 4.1 Definiciones y Funciones. Inventario: se puede definir inventarios de Materias Primas, Partes en Proceso y de Productos Terminados, ya que se encuentran en algún lugar y en un determinado tiempo dentro del Sistema de Producción. Objetivo del Inventario: permitir y/o facilitar la producción entre dos unidades de producción o dos etapas de producción que están ubicadas secuencialmente. Por lo tanto, el inventario cumple una función de capacitor entre ambas unidades, permitiendo por un lado, absorber las distintas capacidades y formas de producción, y por otro, las variaciones que experimenta cada unidad dentro del Proceso de Producción. 109
A continuación, presentaremos dos Sistemas de Producción, A y B, los cuales funcionan con distinta Tasa de Producción y en el que el sistema A alimenta al sistema B. Sistema Productivo A
Sistema Productivo B
Figura 4.1 Sistemas Productivos A y B De las figuras anteriores se pueden observar dos situaciones básicas: a.
En la medida que exista un Inventario, es posible "acoplar" dos Unidades Productivas con distinta "Capacidad de Producción" (entendiendo por Capacidad de Producción como la cantidad producida por unidad de tiempo).
b. En la medida que el Tamaño del Inventario es mayor, es posible establecer mayor independencia entre ambas Unidades de Producción. En caso contrario, cuando el Tamaño del Inventario es menor, mayor es la dependencia entre ambas unidades. 4.2 Clasificación de los sistemas PRODUCTIVOS según la demanda. Podemos destacar que desde el punto de vista de la demanda final sobre el producto, se puede inferir que existen dos esquemas básicos de administración de inventarios. Dependiendo del tipo de Demanda Final que tenga un producto, se puede decir que existen dos Esquemas Básicos de Administración de Inventarios: a.
Con DEMANDA INDEPENDIENTE: cuando se tiene una demanda independiente, la cantidad de productos en inventario no depende sólo de las decisiones internas del Sistema de Producción, sino que fundamentalmente de las condiciones del mercado. Estas condiciones del mercado se ven reflejadas como el consumo de un determinado bien en un determinado momento. Los Modelos que permiten dimensionar el Volumen del Inventario cuando se tiene una demanda independiente se llaman MODELOS DE TIPO REACTIVO, y se aplican para dimensionar el volumen de productos finales a fabricar y a dimensionar el stock de productos que tendremos en inventario. Los modelos de tipo reactivos también son usados, desde una perspectiva tradicional, para dimensionar los Lotes de Producción que deben ser manufacturados bajo condiciones de estructura de costos similares a las que se definen para el caso de compras y almacenamiento.
110
b. Con DEMANDA DEPENDIENTE: en este caso, como su nombre lo indica, la demanda que experimenta un determinado producto depende de las negociaciones y acuerdos que se tomen entre el cliente y la empresa, a nivel del Sistema de Planificación de la Producción. Los Modelos que permiten cuantificar el nivel de inventarios bajo este esquema son llamados MODELOS DE TIPO PROACTIVOS, o de Calculo de Necesidades. (MRP). Al ver estos dos enfoque, podemos ver que existe una diferencia fundamental con relación a como se origina una decisión y cuales son las variables y/o parámetros considerados para tomar una decisión. Así en el caso de los Modelos de tipo Reactivo, la pregunta básica que se plantea es: ¿Qué debo hacer cuando se llega a cierto nivel crítico, llamado punto de reorden? Es decir, un modelo de tipo reactivo nos lleva a definir un cierto punto de reorden, él nos avisa cuando tenemos que realizar un reaprovisionamiento. Este punto de reorden va a depender de la Política de Reposición que definamos (tema que tocaremos más adelante). En el caso de los Modelos de tipo Proactivos, el problema básico esta en definir que se va hacer en un determinado futuro, por lo tanto las preguntas básicas que se plantean son: ¿Qué es la que se necesitará a futuro? ¿Qué cantidad y en qué momento? Es decir, un modelo de tipo proactivo me lleva a definir un Plan Maestro de Producción, de acuerdo a la demanda que se fija a nivel de Sistema de Planificación de la Producción. Ahora si hacemos un análisis desde una perspectiva histórica, podemos decir que en un principio las Empresas planificaban las existencias de materiales usando modelos de tipo Reactivo, lo que les traía las siguientes ventajas y desventajas: 1. Ventajas de la utilización de Sistemas de Tipo Reactivo: La facilidad de controlar los niveles de inventario. Se pueden llevar, de manera más sencilla, los Registros productos.
tanto de entrada o salida de
2. Desventajas de la utilización de Sistemas de Tipo Reactivo: El volumen de material almacenado es voluminoso. El problema (peligro) de obsolescencia de productos que se almacenan. El deterioro y pérdida de productos. Posteriormente, surgieron los modelos de tipo proactivos o de Calculo de Necesidades, los cuales son aplicados a Sistemas de Manufactura y, específicamente, cuando existen productos de tipo Estandarizado o Semiestandarizado. 1. Ventajas de la utilización de Sistemas de Tipo Proactivo: Permiten dimensionar los inventarios de acuerdo a las necesidades del producción.
sistema de
2. Desventajas de la utilización de Sistemas de Tipo Proactivo: Sólo se pueden implementar si en la empresa que utiliza este sistema existe una infraestructura computacional adecuada. 111
En consecuencia, en este capítulo se analizará, preferentemente, lo relacionado con demanda independiente. 4.3 Estructura de Costos de Inventarios. Muchos problemas de decisión de inventarios pueden resolverse empleando Criterios Económicos. Sin embargo, uno de los prerequisitos más importantes para aplicar un criterio económico es tener una Estructura de Costos adecuada. Muchas de estas estructuras de costos involucran alguno o todos de los 4 tipos de costos siguientes: a.
Costo Unitario del Articulo (C): es el costo derivado de comprar o producir los artículos individuales de inventarios. Su unidad de medida es ($/unidad).
b. Costos de Ordenar o Pedir (S): es el costo relacionado a la adquisición de un grupo o lote de artículos, también se dice que es el costo de las acciones necesaria para realizar una nueva compra. Este costo de pedir no depende del número de artículos que tenga el lote respectivo, sino que esta asociado a las actividades de hacer el pedido si es desde el punto de vista de comprar, o de los costos de transformar el sistema (costos de set up) y adecuarlo a la fabricación de un nuevo lote o corrida de producción.Su unidad de medida es ($/orden). c.
Costos de Mantener o Poseer Inventarios (h): este costo está asociado a la permanencia del artículo durante un período de tiempo. Su valoración se determina en función del tiempo almacenado y del valor del bien involucrado. Por lo tanto, el costo de mantener, involucra aspectos tales como: Costo de capital. Costo de almacenamiento. Costo de obsolescencia y perdida.
d. Costos de Inexistencia (W): son los costos que reflejan las consecuencias de quedarse sin material en un determinado momento. Entre estos costos podemos indicar: Falta de materia prima (debido a paro de la producción, mano de obra ociosa, etc...). Falta de productos terminados (perdida por no ventas, necesidad de subcontratación, pérdida de prestigio frente a clientes, etc...). Falta de repuestos. Su unidad de medida es ($/unidad). 4.3.1 Nomenclatura Asociada a Inventarios. Para establecer los diferentes modelos de costos asociado a cada sistema de inventario, es necesario en primer lugar definir una nomenclatura adecuada para entender las ecuaciones respectivas. Sean las siguientes definiciones: D C
= Demanda Anual. (unidades/año) = Costo de Compra (si el artículo es comprado) o Costo Unitario Variable (si el artículo ha sido producido). ($/unidad) Q = Cantidad Ordenada por Lote. (unidades / lote) Q* = Cantidad Lote Económico. (unidades/lote) r = Punto de Reorden. (unidades) tl = Tiempo de espera. (días) 112
S P dl CT h
= Costo de Preparación o Emisión de la Orden. ($/orden) = Tasa de Producción. (unidades/año) = Demanda durante el Período de Espera.(unidades/día) = Costo total ($/año) = Costo de mantener una unidad en términos % del valor de la unidad y por unidad de tiempo T = Longitud del periodo de análisis. (unidad de tiempo, días o años) 4.4 Decisiones sobre inventarios Las decisiones en inventarios son tomadas en función de como se espera que sea la demanda futura, la cual puede ser clasificada en los siguientes términos:
Figura 4.2 Decisiones en Inventarios La figura 4.2 da origen a distintos Modelos de Inventarios, en función del tipo de demanda: a.
Modelos de Inventarios con Demanda Determinística Estática: estos modelos se utilizan cuando la demanda es conocida y constante para todos los períodos. b. Modelos de Inventarios con Demanda Probabilística Estática: estos modelos se utilizan cuando demanda es aleatoria y tiene una distribución de probabilidades, pero es igual para todos los períodos. c.
Modelos de Inventarios con Demanda Determinística Dinámica: estos modelos se utilizan cuando la demanda es conocida y constante, pero varía para cada período. d. Modelo de Inventarios con Demanda Probabilística Dinámica: estos modelos se utilizan cuando la demanda es probabilística con una distribución de probabilidades, y es variable en cada período. 4.5 Análisis de la Tasa de Demanda y Tasa de Reposición. Desde el punto de vista de su comportamiento o variación en el tiempo (tasa de cambio), la demanda se puede clasificar en: a. Demanda Infinita Uniforme. b. Demanda Fuente Uniforme. c. Demanda Exponencial. Las siguientes figuras nos ayudaran a visualizar de mejor forma lo anteriormente dicho:
113
Figura 4.3 Cantidad de Inventario Q En general, el nivel del inventario en un momento determinado esta dado por la expresión:
Q0 = Inventario Inicial en el tiempo 0. X = Tamaño de lo demando durante un período T t = tiempo considerado. n = Indice del exponente de la demanda. T = Longitud del Período. Para el caso de la Tasa de Reposición de Inventarios, se pueden postular diversos modelos de comportamiento: a. b. c. d.
Tasa de Reposición Uniforme. Tasa de Reposición Exponencial. Tasa de Reposición infinita. Tasa de Reposición en Lotes.
Las siguientes figuras nos ayudaran a visualizar de mejor forma lo anteriormente dicho:
Figura 4.4 Tasa de Reposición de Inventarios Tipos de decisiones sobre inventarios. Con relación a las decisiones que se deben tomar sobre la gestión de los inventarios, las podemos clasificar en base a lo siguiente: a. Políticas de Inventarios, para las cuales se definen diferentes Modelos de Análisis. b. Dimensionamiento de las Cantidades a Ordenar, las cuales están en función de las Políticas definidas. c. Sistemas de Control a Implementar. 4.6 Políticas de inventario.
114
La Política de Inventario se refiere a la Revisión y Disciplina utilizada para ordenar y controlar los inventarios. La política de Inventario trata de responder a las siguientes interrogantes: ¿Cuándo debe ser emitida la orden? ¿Cuánto se debe comprare (tamaño del lote)? Existen dos tipos de Políticas de Revisión de Inventarios: Política de Revisión Periódica y Política de Revisión Continua. 4.6.1 Política de Revisión Periódica. Bajo esta política, los Niveles de Inventario son monitoreados a intervalos de tiempo T, donde T es la longitud de tiempo determinada según sea el criterio ordenado. La cantidad a ordenar está dada en función de como sean las decisiones de reposición. a.
Revisión periódica con reposición bajo un punto de quiebre (r). En este sistema, la reposición del inventario se realiza siempre que el nivel de existencia en el inventario sea menor que un punto mínimo aceptable o de quiebre (r).
Figura 4.5 Revisión Periódica Así la cantidad ordenada es: 0 si It > r; ó Imax – It si It < r b.
Revisión Periódica y Emisión de Orden de Compra. En este sistema, toda vez que se cumple el periodo T, se emite una orden igual a Imax –It, por lo tanto, la cantidad ordenada siempre es variable. 4.6.2 Política de Revisión Continua. Bajo esta política, el monitoreo del inventario es permanente y una vez que se alcanza el punto de reorden r es emitida una orden de compra. El punto r se determina en función de un nivel de seguridad aceptado y en función de la cantidad consumida durante el tiempo que demora en obtenerse la reposición
Figura 4.6 Reposición Instantánea La elección de un sistema de revisión dependerá de varios factores: 1. En el caso de Sistemas de Revisión Periódica, estos sistemas están asociados básicamente a modelos de reaprovisionamiento. 115
Como ventajas de estos sistemas de revisión periódicos se pueden mencionar: Fácil de llevar. Es bueno para coordinar ítems relacionados, ya que aprovecha mejor la infraestructura de transporte. Es bueno en el caso de que se quiera manejar artículos baratos. Como desventajas de los sistemas de revisión periódicos se pueden mencionar: Es más caro, del punto de vista de que maneja una mayor cantidad de mercadería en inventario. Es susceptible a que ocurran faltas cuando la demanda es variable. 2. En el caso de los Sistemas de Revisión Continua, como ventajas tenemos que: Optimiza los niveles de recursos involucrados. El nivel de servicio es mejor, ya que mejora la probabilidad de que el pedido sea abastecido con el inventario existente. Es apropiado para artículo caros. Pero el sistema de revisión continua tiene los siguientes inconvenientes: Tiene un alto costo por manejos de registro y requiere una constante atención en el producto. 4.7 Dimensionamientos de las Cantidades a Ordenar. 4.7.1 Modelo de un Único Producto: Para este caso, consideramos: Una tasa de Demanda D. Una tasa de Producción P (es decir, una unidad es adicionada al inventario 1 a la vez). Las Faltas son permitidas, de manera que no se sobrepase un máximo Zmáx. El siguiente diagrama nos permita visualizar de mejor forma el modelo de dimensionamiento de inventario para un único producto:
Figura 4.7 Modelo Dimensionamiento de Inventario
116
Por definición: Tp = Q/P y T = Q/D. En este modelo, la producción parte en el punto a, y en ese momento, se inicia el llenado a una tasa de PD que primero en un principio sirve para reponer las faltas y posteriormente para acumular inventario, hasta llegar a un nivel máximo en el punto k. A partir de este punto, el nivel del inventario empieza a disminuir, llegando a un nivel 0 (cero) o al punto J y un nivel de falta máximo en el punto a del ciclo siguiente. El nivel máximo del inventario es:
Composición del costo para el ciclo dado: a.
Costo de colocar una orden o (set up) este un costo fijo S.
b. El costo de llevar el inventario durante un ciclo, este costo es efectivamente incurrido donde existen materias T2 y T3. Así corresponde calcular el inventario medio durante el ciclo total. Recordar que
Así el es el área b, k, j dividida por T
Como Q/D = T y como se conoce T2 y T3, y de (*)
y el costo promedio de mantener por un período es igual c.
,
El costo de falta se debe a dos situaciones: 1. 2. Así:
Por el hecho de deber material y se mide como Zmax * W, donde W representa el costo por falta independiente de la duración.($/unidad). Costos por la falta promedio durante el período T. Tiempo para eliminar los atrasos.
117
Tiempo en construir los atrasos Utilizando el mismo procedimiento que en el caso anterior, se tiene que:
Así el costo de falta promedio será: donde
es el costo de falta por unidad/por unidad de tiempo.
d. El costo de compra finalmente es = C * Q por lo tanto, el Costo Total por Ciclo es el siguiente:
Como nuestro objetivo es el Costo Total Anual, tenemos que: El número de órdenes es D/Q = n° h = i*c, donde i: representa la tasa anual de costo de inventario
Lo anterior es la ecuación general de costos en función de Q, Zmax. Alternativas de Solución: La situación es derivar con respecto a: Cantidad y a Zmax.: , e igualar a 0.
Casos Especiales en que No se Permitan Faltas. Caso A: Tasa de Llenado del inventario es P-D.
118
Figura 4.8 Tasa de Llenado de Inventario: P-D
Caso B: Tasa de llenado P= infinita.
Figura 4.9 Tasa de Llenado Infinito
4.7.2 Modelos con Tiempo de Espera. Los modelos determinísticos pueden ser fácilmente ajustados cuando los tiempos de espera se conocen con certeza. Así, el punto de Reorden se calcula como: r* = Existencia de seguridad + demanda durante el tiempo de espera. Si las existencias de seguridad son iguales a 0, entonces: r* = 0 + tiempo de espera * dL = tL * dL
119
Con dL representando la demanda diaria del producto. Ejemplo: Una cadena de venta de hamburguesas consume anualmente 750 cajas vacías, el costo de pedir cajas al proveedor es de 15 US$ por orden y de manejo de las cajas en inventario, es de un 30%. Si el valor de cada caja es 12 US$ y se sabe que la entrega es en 5 días. ¿Cuál es la doctrina de operación que debemos seguir? El valor de cada caja es 12 US$
Figura 4.10 Tiempo de Espera
Supuesto = operación 365 días al año.
La Política Optima a seguir, es ordenar 78 unidades, cuando la existencia es 10 cajas 4.7.3 Análisis De Sensibilidad. Ejemplo: Una empresa fabricante de insignias tiene un contrato por 50.000 (unidades) de venta anual. La empresa tiene una política de ordenar lotes de 40.000 (unidades) con un costo de colocar la orden de 16.000 ($/pedido). Costo de manejo es del 20%. Costo del producto es 60 ($/unidad). La empresa desea mejorar el error que comete al seguir su actual política Solución: Tenemos los siguientes costos: Costos Relevantes = Costos de Mantención + Costos de Pedir.
120
El CT según política actual, es el siguiente:
El Costo total de la Política Optima:
A continuación, calcularemos el incremento en el Costo total que acarrea la política que actualmente utiliza la empresa:
El costo total sufrió un incremento de 25%, por no seguir la política óptima Alternativamente, podríamos haber obtenido el mismo resultado haciendo el siguiente cálculo:
Lo importante es considerar los costos relevantes y sensibilizar. Ejemplo de Tarea: El restaurante “dulce rico” para su uso de venta de bebidas, enfrenta una demanda de 120 vasos diarios, y opera 360 días al año. Los vasos tienen un Costo de 40 ($/docena). Para enviar una orden de pedido, el restaurante tiene que pagar 2.000 ($/orden). El mantener inventario le significa un costo de mantención del orden del 50% debido a muchas pérdidas producidas por su operarios, que diariamente quiebran muchos vasos o los trisan. ¿Determine el error que se comete debido a que hace pedidos una vez al mes.? Solución: D = (120 /12) * 360 = 3600 .(docenas de vasos/año) S = 2000.($/orden) i = 0,5 C = 40 ($/docena)
121
Como realiza pedidos anuales: CT = 2000 * 12 * 0,5 * 40 * 150 = 24000 + 3000 = $27000 Con la política óptima el costo total es:
4.7.4 Cantidades Descontinuadas. Lo anterior sucede cuando existen descuentos por volumen, es decir, el precio varía a medida que el volumen es mayor. Así si: Cantidad Ordenada
Precio Unitario
0 < Q < q1
P1
q1
Q < q2
P2
q2
Q < q3
P3
q3
Q < q4
P4
Cuadro 4.1 Cantidades Descontinuadas En este caso, el valor de CD es relevante, ya que según el volumen de compra existe un Cj.
Para el caso anterior el supuesto que se tiene es una reposición instantánea, tasa infinita de reposición y una demanda constante. Ejercicio: Suponga que un depósito de equipos electrónicos enfrenta una demanda de 250.000 unidades/año y el costo de hacer el pedido es de 100 $/orden. El costo anual es de 0.24% Las cantidades y precios son los siguientes: Rango de Cantidades
Precio unitario
0 Q < 5.000
$12
5.000
Q < 20.000
$11
20.000
Q < 40.000
$10
40.000
Q
$9
Cuadro 4.2 Cantidades Descontinuadas (2) ¿Cuál es el tamaño de lote óptimo de equipos electrónicos que conviene comprar?
Solución:
122
d.
Un supuesto razonable es utilizar el mejor precio que en este caso de 9 $/U Cj = 9 ($/unidad)
Esto quiere decir que si nos ofrecieran vendernos los equipos a 9 $/unidad, nos conviene pedir en lotes de 4811 (unidades/pedido). Como esta cantidad Qj = 4811 (unidades/ pedido), es mucho menor que las 40.000 (unidades/pedido), el tamaño mínimo de lote por el que el proveedor está dispuesto a pedir un precio de 9 ($/unidad) es de 40.000 (unidades/pedido).
Costo total de la alternativa para esta situación es: (Q*=40.000, C=9) = $2.293.825 d. Si Cj = 10 ($/unidad) el lote optimo en esta nuevas condiciones es:
En este caso el lote más cercano en esta condición es 20.000 (unidades/pedido)
e.
Para
C = 11 ($/unidad)
En consecuencia el lote esta fuera del rango considerado. Q* = 4352 < 5000 (unidades/pedido) Costo total de la alternativa: CT (C=11, Q = 5000) = $ 2.761.600 f.
Para
C = 12 ($/unidad)
Q* = 4166 < 5000 (unidades/pedido)
123
En este caso el Lote esta dentro del rango considerado. Costo total de la alternativa: CT (Q* =4166, C = 12) = $ 3.012.000 Así se tiene que: Q*(unidades/pedido) Cj ($/unidad)
CT ($)
40
9
2.493.825
20
10
2.525.250
5
11
2.761.600
4.166
12
3.012.000
la mejor política
Cuadro 4.3 Cantidades Descontinuadas (3)
Figura 4.11 Costo Total 4.7.5 Situaciones Con Múltiples Inventarios. Existen casos donde existen: Varios tipos de productos. Varios lotes económicos óptimos (uno para cada producto a considerar). Varias restricciones, ya sea de capital para comprar, espacio para almacenar o transportes, presupuesto, peso, etc... Cada producto tiene una demanda independiente. Para el caso anterior, se pueden plantear las dos Políticas de Inventario antes analizadas: Lote económico. Período económico. Ejercicio: Sea una fábrica que produce tres tipos de lámparas que presentan demandas distintas. Para conceptos de fabricación, la fábrica dispone de un presupuesto de $16.000. El costo de mantener una unidad de inventario es de 0,18 (18%). En la siguiente tabla, presentamos la demanda, costos de fabricación y costos de set-up (costos de echar a andar) para esta fábrica:
124
Lampara Lampara Lampara tipo 1 tipo 2 tipo 3 Demanda Dj (unidades/año)
1.5
1.5
2.5
Costo de Fabricación ($/unidad)
60
30
80
Costo de set-up ($/orden)
60
60
60
Cuadro 4.4 Múltiples Inventarios Solución: Como los tres tipos de lámparas son unidades independientes, podemos calcular el lote económico para cada una de ellas por separado, entonces:
Los anteriores son los lotes económicos óptimos a fabricar, pero si calculamos el costo total de fabricación en que incurriríamos al seguir esta política, tendríamos: Costo de Fabricación totales = (60*129) + (30*183) + (80*144) = 24759 > 16000. Si observamos, al fabricar los lotes económicos anteriores, estaríamos sobrepasando el presupuesto límite del que disponemos. Por esto debemos disminuir de alguna forma los lotes económicos de cada una de las lámparas, lo que se logra al calcular el llamado COEFICIENTE DE LAGRANGE (Le). Desarrollo: Se debe tomar como supuesto base, el que no existen desfases entre los pedidos de los productos considerados.
Para optimizar = Sujeto a: Se calcula
Donde B son restricciones de presupuesto en este caso. y se reemplaza en
125
Si no se cumple lo anterior se plantea el Lagrangiano:
Derivando con respecto a Q y
, y finalmente reordenando la ecuación es posible establecer que:
B: Es de parámetro dado por la restricción. E: Es el valor del parámetro de la restricción en condiciones optimas. Q*jL = Es el valor optimo del ítem considerando la restricción de Lagrangiano.
Para nuestro ejemplo E = 24750
Considerando que
se puede evaluar los Ti.
Nota: El problema se produce al inicio del análisis, es decir al efectuar en primera compra o el primer traslado, etc. 4.7.6 Calculo del Periodo Optimo. Para la situación anterior puede plantearse el cálculo de un tiempo de ciclo fijo para todos los ítems sujeto a la restricción de presupuesto. Sabiendo que
Derivando con respecto a T y minimizando 0
126
Debido a que existen restricciones de presupuesto y puede existir un T 0 que es distinto, entonces nos interesa: Maximizar T0 , tanto como sea posible. Por resolución del Lagrangiano, similar al del caso anterior, puede calcularse un T 0 de la siguiente forma:
y el desfase óptimo entre las órdenes está dado por:
Por lo tanto el T óptimo es aquel que minimiza CT que es función de: CT que es función de: CT (T*c To)
Figura 4.12 T óptimo q minimiza CT Si aplicamos esto en el ejemplo anterior, tendríamos que:
El período T0 con restricciones, sería:
= 0,0660 años = 24 días Por lo tanto, el min. T{24, 28} = 24 días, y las cantidades ordenadas
127
Qj = Dj*T =
Q1 = 1500 x 0,0660 = 99 (unidades) Q2 = 1500 x 0,0660 = 99 (unidades) Q3 = 2500 x 0,0660 = 165 (unidades)
Figura 4.13 T que minimiza CT (2) Ejemplo: Una maestranza atiende varios centros comerciales en una serie de productos industriales, entre los que se encuentra la fabricación de tornillos de banco. La demanda total de este producto es de 30.000 (unidades/año). La capacidad de producción de la maestranza en este producto es de 45000 (u/año). El costo de elaboración de una unidad es de $4.000. - y el mantener stock involucra un monto del 15%. El costo de ajuste de máquinas es del orden de $30.000. Se desea saber una doctrina de operación óptima. El tiempo en preparar las máquinas toma cinco días. a. A qué nivel de Inventario es necesario empezar a preparar la máquina b. Qué cantidad se debe fabricar. c. Que cantidad se acumula como máximo. Respuesta: a.
El nivel r = dxT = 30.000 (u/año) x 5/365 = 410 unidades
b.
c. 4.8 Modelos con Demanda Probabilística En los modelos de inventario se asumió lo siguiente: Demanda conocida y estable Tiempo de espera constante
128
La realidad práctica no es así, ya que si pueden ocurrir ambas situaciones como lo indica la figura siguiente:
Figura 4.14 Demanda Probabilistica En este caso tenemos que: a. Existe una demanda variable b. Existe un tiempo de espera variable Por lo tanto, la solución de ese problema es bastante complejo y puede ser logrado en función de un procedimiento de prueba y error de manera dirigido para obtener convergencia, asumiendo un valor de demanda constante se calcula un punto de reorden, y con este valor se recalcula un nuevo Q para otra demanda y nuevamente otro r, finalmente convergen a valores en el tiempo de Q y r. 4.8.1 Modelo Simple Asumir que tL= contante, es decir, el tiempo de espera conocido no así la demanda la cual varía. En este modelo se desea encontrar la doctrina de operación que tome en cuenta la posibilidad de falta de existencias. Así, se desea establecer existencias de seguridad adecuadas que permitan proporcionar un nivel especificado de protección para dar servicio a los clientes cuando se desconoce la demanda. Definición de NIVEL DE SERVICIO: Es el porcentaje de demanda del comprador que se satisface con material proveniente del inventario, así un nivel de 100% representa la satisfacción de todos los requerimientos de comprador con material existente en “bodega”. El porcentaje de inexistencia es igual a 100% - el nivel de servicio. Importante existen definiciones diversas de nivel de servicio y que dan valores distintos de puntos de reorden.
129
Figura 4.15 Modelo Simple 4.8.2 Cálculo de Inventario de seguridad para la Política de Revisión Continua. Variables: m = consumo efectuado durante el tiempo de espera. Z = factor de seguridad. s = inventario de seguridad. tL = desviación estándar de la demanda durante el tiempo de espera. dL = demanda diaria promedio. diario= desviación estándar diaria de la demanda. tL = tiempo de espera.
Donde: Sí:
Por lo tanto
Resumiendo:
Ejemplo: La demanda diaria de “camotes” se encuentra distribuida normalmente con una media d = 50 (unidades/día) una desviación de diario =5(unidades/día). El abastecimiento tiene un tiempo de espera de 6 (días). El costo de solicitud la orden es de 8 (US$/orden), el costo unitario de cada camote es de 1.2 (US$/unidad) y los costos de manejo son del 20% del precio unitario. Se desea dar un nivel de servicio de 95%. ¿Cuál sería la Política Optima? Supuesto: 365 días al año. D = d x 365 = 50 x 365 = 18250 130
S = 8 $/orden i = 0,2 % C= 1.2
De la distribución normal con un 95%, obtenemos que el área bajo la curva es 0,5 + 0,45. Con este último valor se entra a tabla de Z y u = 0. El valor de Z es 4.645. Luego:
Pero, como conocemos la
diario
=5(unidades/día), tenemos que:
12.2 (unidades) por el período de 5 días. r* = 300 + 1,645 * 12,2 = 300 + 20 = 320 (unidades) Resultado: a. La política es ordenar lotes de 1103 unidades b. El punto de orden es de 320 unidades. c. El Inv. Seguridad = 20 Unidad.
Figura 4.16 Política de Revisión Continua 4.8.3 Calculo de Inventario de Seguridad en Política de Revisión Periódica. A diferencia del modelo EOQ este sistema funciona diferente debido a que: 1. No tiene un punto de reorden sino un objetivo de inventario 2. No tiene una cantidad económica del pedido sino que la cantidad varía de acuerdo a la demanda. 3. El sistema periódico (T) el intervalo de compra es fijo y no la cantidad.
131
Figura 4.17 Política de Revisión Periódica Sustituyendo T = Q/D en la fórmula de EOQ, tenemos que:
Esta ecuación proporciona un intervalo de revisión T aproximadamente óptimo. El nivel de inventario objetivo I, puede establecerse de acuerdo a un nivel de servicio especificado. Así el inventario objetivo se fija lo suficientemente alto para cubrir la demanda durante el tiempo de entrega más, el período de revisión. Este tiempo es el que condiciona el nivel máximo. Se requiere este tiempo previsión, debido a que el material en almacén no será restablecido sino hasta el siguiente período de revisión, más el tiempo que tomará esa segunda entrega. Así, el tiempo total tLT = T + tL I = m’ + s’ Desde
P m’ s’ s’ Z
tL+t
= = = = = =
nivel de inventario objetivo demanda promedio durante el tiempo de T + tL Inventario de seguridad z * tL La desviación estándar durante T + tL Factor de seguridad
Ejemplo: Sea una demanda
d tL
= = diario= s = i = c =
200 (cajas/día) 4 (días) 150 (cajas/día) 20 20% 10($/caja)
Suponga que el almacén abre 5 días a la semana, 50 semanas, 250 días al año I. Política de Revisión Permanente:
132
m = 200 x 4 = 800 (unidades) tL2= tL+ t*
2
diario
tL2 = 4 x(150)2 = 90.000 tL = 300 (cajas/durante tL) Nivel de servicio 95% Z = 1,645 Inventario de Seguridad: s=z*
tL
= 495 (unidades)
Pto. de Reorden: r = (d* tLT)+( z *
tL)=200
x 4 + 1,65x300 = 800 + 495 = 1295 (unidades)
II. Para la política Revisión Periódica, tenemos que
I= m’ + s’ I = m’ + Z
tL+T
m’ = d * tL+T = 200 x 9 = 1800 (unidades) = 9 * 1502 = 202.500 2
Lt+T =
Lt+T =
(tL+T)*
2
d=
202500
450 (unidades)
Inventario de seguridad s’: s’ = 1.65 * 450 = 742 (unidades) Por lo tanto: I = m’ + s’ = 1800 + 742 = 2542 (unidades) La regla de revisión periódica es ordenar para lograr un nivel objetivo de I= 2542 unidades y hacer revisión cada 5 días. Si comparamos los inventarios de seguridad para cada una de las políticas, tenemos: Política de Revisión Continua: s = 495 (unidades) Política de Revisión Periódica: s’ = 742 (unidades) 133
¿ Porqué se produce tal diferencia? En el Sistema de Revisión Periódica el Inventario de Seguridad sirve para cubrir un período de tiempo (T + tL), mientras que en el Sistema de Revisión Permanente el Inventario de Seguridad cubre un período t L 4.9 Resumen Final de Inventarios. Los modelos básicos de inventario son:
Figura 4.18 Modelos Básicos de Inventarios 1. En el caso de sistema periódico, es más fácil de llevar ya que sólo se verifica una vez cada período, se pide un máximo que es variable. 2. El sistema Q/r debe ser revisado permanentemente y hacer registros cada vez que se hace un egreso, requiere de mayor esfuerzo. 3. El sistema periódico requiere de más existencia de seguridad, ya que esta se dimensiona para un tiempo tL = T + tL. 4. El Sistema de Revisión Periódica puede dar como resultado más falta, ya que puede trabajar con una demanda normalmente alta, puede haber falta. 5. En el sistema Q, r la cosa es diferente, ya que existe un monitoreo permanente y se puede reaccionar más rápido. 4.9.1 Enfoque Japonés. La filosofía rápida es producir lo que el cliente desea. Hacer la cantidad exacta, en el tiempo exacto y en las condiciones solicitadas. Elaborar el producto con la frecuencia que se pide. Producir con calidad perfecta (especificaciones dadas). Fabricación con tiempo de espera mínimo. Lote económico EOQ = 1 (teorico) Producción sin desperdicio de mano de obra, material, equipo, etc.., de forma que por ningún motivo exista material o inventario ocioso. Por lo tanto, como resultado final de esta filosofía, tenemos una drástica caída de inventarios con el consiguiente aumento de rotación. El enfoque JIT nace como una filosofía de administración o gestión de la producción y, con su técnica de Kanban, como herramienta de CONTROL de la producción. Ejemplo de un análisis de producción:
134
Toyota 1980 Japón
Disponibilida des días de Rotación Inventario Anual 4 62
Kaeasaki 1981 Japón
3,2
78
Kawasaki (USA) 1982
5,0
50
Plantas
6 - 25 Compañías Americanas 1982 10 - 41 Cuadro 4.5 Análisis de Producción Rotación es igual = 250 días de disponibilidad 4.9.2 Sistema de Costeo ABC. Este sistema se basa en la propuesta de PARETO (1906), donde observa que unos cuantos artículos en cualquier grupo, controlarían una proporción significativa del grupo entero. Así se observo que: Unos pocos individuos parecen obtener la mayoría de los ingresos. Unos pocos productos parecen obtener la mayoría de los ingresos y así por adelante. En inventario sucede algo parecido. Un ejemplo que aclara la situación, donde un total de 10 artículos de los cuales 2 representan el 73,2% del costo o uso. Clase
Nº de Artículos
Porcentaje
Porcentaje del uso total en
A
3,6
20
73,2 %
B
2,4,9
30
16,3 %
C
1,5,7,8,10
50
10,5 % 100%
Cuadro 4.6 Sistema de Costeo ABC
Figura 4.19 Costeo ABC En resumen: este concepto se fundamenta en los pocos significativos en los muchos significativos, lo básico es que me permite orientar mis esfuerzos.
135
Consideraciones adicionales Otros aspectos a considerar en manejo de inventarios es que no son costos son: Lead time Obsolescencia Disponibilidad Sustitutibilidad Criticidad Así se deben considerar aspectos de: “no” producir por falta. rapidez de la compra. cuando un sustituto está disponible. descuentos según fecha de compra. Estos aspectos pueden tener un mayor impacto que lo determinado económicamente, en determinados casos. 4.10 Sistemas de Control de Inventarios Hasta este punto la atención se ha centrado en las reglas de decisión que pueden usarse para determinar ¿Cuándo y Cuánto Ordenar?. En las operaciones, estas reglas deben enmarcarse dentro de un sistema de control de inventarios, de la forma como se registra la información (transacciones). Un sistema de control de inventarios puede ser manual o computarizado o una combinación de ambos. Sin embargo, hoy en día la gran mayoría de los sistemas de control son computarizados, exceptuándose aquellos que tienen un numero pequeño de artículos, donde su costo no justifica que se implemente un sistema sofisticado. Independiente de si un sistema de control es o no computarizado, deben ejecutarse las siguientes funciones: Conteo de las transacciones. Todo sistema de inventario requiere de un método de registro de las operaciones de entrada y salidas del sistema con el fin de dar apoyo a las funciones contables y de administración de inventarios. Estos registros pueden mantenerse en forma perpetua o solo por un periodo de tiempo. Pronósticos. Las decisiones de inventario deben basarse en pronósticos de demanda. En todo sistema es necesario considerar técnicas cuantitativas que apoyen lo juicios subjetivos, esto ultimo con el fin de modificar los pronósticos cuantitativos en caso de que ocurran eventos poco probables. Informes a la alta administración. Un sistema de control de inventarios debe generar informes para la alta administración, así como para los gerentes de inventarios. Estos informes deben medir el funcionamiento global del inventario y deben ayudar en la formulación de políticas generales para lo inventarios. Tales informes deben incluir el nivel de servicio que se proporciona, los costos de operación del inventario, los niveles comparados con otros periodos. 4.10.1 Tipos de Sistemas de Control Son muchos los tipos de sistemas de control de inventarios que actualmente están en uso, sin embargo los 4 de mayor uso son los siguientes: a.
136
Sistema de Un Solo Dispositivo: Es un sistema de un solo dispositivo el caja o estante se llena en forma periódica (por ejemplo los estantes de las tiendas minoristas, los cajones para partes
pequeñas en las fabricas, etc.) . Este sistema donde el tamaño es la meta. y el inventario se ajusta a esta medida en forma periódica, No se mantienen registros de cada una de las entradas y salidas. b. Sistemas de Dos Depósitos. La idea básica es que existen dos compartimentos, el primero es de donde se saca el material y el segundo es una cantidad tal que es igual al punto de reorden. Una vez que el primero se ha agotado se inicia el segundo, emitiéndose una orden por una nueva cantidad igual al lote Q a ordenar determinado en función de un modelo respectivo. d. Sistema de Cardex. Con este sistema, se lleva un cardex, en el que generalmente se tiene una tarjeta para cada artículo del inventario. Conforme se venden los artículos, se localizan las correspondientes tarjetas y se actualizan. Similarmente. las tarjetas son actualizadas cuando llega material nuevo. e.
Sistema Computarizado. Se conserva un registro para cada artículo en una memoria de almacenamiento de lectura computarizada. las transacciones se asientan contra este registro conforme los artículos son despachados o recibidos. Un buen ejemplo de la actualidad son los supermercados con sus registros de códigos de barras pueden automáticamente saber la cantidad vendida de un determinado producto, su rotación, pérdidas, etc. 4.11 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Modelos de Inventario http://www.inca.inf.utfsm.cl/~Pablo/files/ModeloInventario2006.pdf Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
137
138
MODELACION DE COLAS. Objetivos del Capítulo. Identificar el nivel óptimo de capacidad del sistema que minimiza el costo del mismo. Evaluar el impacto que las posibles alternativas de modificación de la capacidad del sistema tendrían en el coste total del mismo. Establecer un balance equilibrado (“óptimo”) entre las consideraciones cuantitativas de costos y las cualitativas de servicio. Prestar atención al tiempo de permanencia en el sistema o en la cola. 5.0 Introducción. En la mayoría de las organizaciones existen ejemplos de procesos que generan colas de espera. Estas colas suelen aparecer cuando un usuario, un empleado, una máquina o una unidad tiene que esperar a ser servidas debido a que la unidad de servicio, operando a plena capacidad, no puede atender temporalmente a este servicio. Un típico ejemplo de colas de espera que ilustra el problema es un viaje en avión. Primero, para comprar el billete podemos tener que hacer cola en la ventanilla correspondiente. Una vez obtenido el billete, tendremos que hacer cola para facturar el equipaje y obtener las tarjetas de embarque. Después hacemos cola para pasar por el detector de metales y finalmente esperamos en cola en la sala de embarque. Una vez dentro del avión, tendremos que esperar a que los pasajeros coloquen sus bolsas de mano para poder llegar a nuestro asiento. Cuando el avión se dirige hacia la pista de despegue puede encontrar con una cola de aviones esperando su turno para despegar. Cuando llega a su destino, puede dar unas cuantas vueltas antes de tener permiso para aterrizar. Y finalmente, cuando se asigna una puerta de desembarque para el avión, tendremos que esperar a que lleguen las maletas. En este viaje, es posible que hayamos sido miembros de por lo menos diez colas. Y eso sin considerar la experiencia en colas de la propia compañía aérea para este mismo viaje. El avión en el cual viajábamos tiene que esperar en cola para repostar, ser inspeccionado, asignarle una puerta determinada, una tripulación, una carga de comidas, una ruta específica, etc. De ahí que las compañías aéreas se preocupan de gestionar sus operaciones lo más eficientemente posible, y tratar de reducir al mínimo el tiempo de espera en realizar dichas operaciones. Los sistemas sanitarios también se enfrentan a este tipo de problemas. Las listas de espera son muy comunes en muchos procesos quirúrgicos dentro de una red sanitaria, y a nivel ambulatorio es muy común la existencia de personas esperando a ser atendidas en un Centro de Asistencia Primaria. Los sistemas de urgencias muchas veces se ven congestionados siendo el tiempo de espera crucial. Los modelos de gestión de colas intentan simular el sistema en donde puede existir congestión (y por lo tanto, colas) y generan una serie de parámetros –que veremos en este capítulo- que permiten evaluar el sistema actual y evaluar la realización de modificaciones en el servicio en cuestión. 5.1 Descripción de un sistema de colas Un sistema de colas tiene dos componentes básicos: la cola y el mecanismo de servicio. En la figura 5.1 se presenta un esquema de una cola simple.
139
Figura 5.1: Esquema de Cola Simple Pueden existir varias configuraciones de colas más complejas. En la Figura 5.2 se exponen otros tipos de configuraciones de sistemas de colas.
Figura 5.2: Configuraciones de colas El proceso básico en la mayoría de los sistemas de colas es el siguiente. Los clientes que vienen a procurar un determinado servicio se generan a través del tiempo en una fuente de entrada. Estos clientes entran dentro del sistema y se unen a una cola. En un determinado momento, se selecciona uno de los clientes para poder proporcionarle el servicio en cuestión, mediante lo que se denomina la disciplina de servicio. Esta disciplina es la que rige el mecanismo de atención. Una vez seleccionado el cliente, este es atendido por el mecanismo de servicio. Una vez terminado el servicio, el cliente sale del sistema. En general, un sistema de colas tiene una población potencial infinita. Es decir, que el tamaño de la cola es muy pequeño respecto al potencial de usuarios del sistema. Por ejemplo, un ambulatorio de urgencias en general cubre una región con población grande comparado con las posibles urgencias que se puedan generar. Ahora bien, existen casos en donde la población es finita respecto del tamaño de la cola. Esto puede suceder en la farmacia de un hospital, en donde la población potencial la forma las enfermeras y ATS. En un momento dado puede formarse una cola considerable. Como los cálculos son mucho más sencillos para el caso infinito, esta suposición se emplea casi siempre. Otro factor a tener en cuenta es el patrón estadístico mediante el cual se generan los clientes a través del tiempo. La suposición normal es que el proceso se genere siguiendo un proceso de Poisson, que veremos más adelante. Si el proceso de llegada es Poisson, el tiempo entre cada una de las llegadas sigue una distribución exponencial. Otro factor importante a tener en cuenta en un sistema de colas es la “fuga” de algún cliente. Al modelizar la cola hay que considerar si una persona que lleva dentro de la cola un rato, desiste de ser atendida, cansada de esperar, abandonando la cola. Como hemos mencionado anteriormente, la disciplina de la cola rige el sistema de entrada en el mecanismo de servicio. La mayoría de los sistemas utiliza el método “First In First Out”, conocido como 140
FIFO. Otros sistemas pueden ser de tipo aleatorio, o de acuerdo con un sistema de prioridad previamente establecido. El mecanismo de servicio consiste en una o más instalaciones de servicio, con cada una de ellas con uno o más canales de servicios, llamados servidores. Los clientes son atendidos en estos servidores. El tiempo que transcurre desde el inicio del servicio para un cliente hasta su terminación se llama el tiempo de servicio (o duración del servicio). Un modelo de sistema de colas tiene que especificar la distribución de probabilidad de los tiempos de servicio de cada servidor (y tal vez para distintos tipos de clientes), aunque normalmente se supone la misma distribución para todos los servidores. Una vez más, la distribución exponencial es la más empleada en los tiempos de servicio. 5.2 Objetivos de la gestión de colas En los modelos de colas existen dos objetivos: por un lado la minimización del tiempo de espera y por el otro la minimización de los costos totales de funcionamiento del sistema. Estos objetivos suelen ser conflictivos, ya que para reducir el tiempo de espera se necesitan poner más recursos en el sistema, con el consiguiente aumento de los costos de producción. En muchos casos el tiempo de espera es difícil de determinar, sobretodo cuando se trata de un sistema en donde seres humanos están implicados. En la Figura 5.3 podemos ver la disyuntiva entre el costo de espera y el costo de producción.
Figura 5.3: Costos de un sistema de colas Si pudiéramos sumar ambos costos, el costo total alcanzaría su mínimo en el punto H. En este punto el nivel de servicio es óptimo. Sin embargo, en muchos casos la obtención “objetiva” de este resultado puede ser muy complicada ya que, como se ha indicado anteriormente, la cuantificación del tiempo de estera en valores monetarios puede ser harto complicada y subjetiva. Por lo tanto, en general se intenta llegar a una solución que sea “lógica” en función de los valores que adopten los diferentes parámetros del modelo. En la sección siguiente se examinan estos parámetros. 5.3 Medidas del sistema Existen dos tipos de medidas para poder valorar un sistema en donde pueden aparecer colas: medidas “duras” y medidas “blandas”. Estas últimas están relacionadas con la calidad del servicio. Por ejemplo, no es lo mismo esperar 15 minutos de pie haciendo cola en un ambulatorio sin refrigeración y poco ventilado que esperar el mismo tiempo en una sala de espera con butacas confortables, revistas, aire acondicionado y música clásica de fondo. El paciente valorará mucho más 1 minuto de espera en el primer caso ya que representa un costo mucho más elevado en términos de confort. En otras palabras, seguramente un minuto de cola en el ambulatorio equivale a muchos minutos de espera en la sala de espera confortable. La gestión cuantitativa de las colas no se ocupa de estos aspectos cualitativos (que no por ello dejan de ser importantes) sino que da valores a una serie de medidas “frías” o “duras”. Las medidas duras más utilizadas en los modelos de gestión de colas y su notación estándar son las siguientes: Tasa media de llegada, ë Tasa media de servicio, ì Tiempo medio de espera en la cola, Wq Tiempo medio de estancia en el sistema, Ws Número medio de personas en la cola, Lq 141
Número medio de personas en el sistema, Ws Porcentaje de ocupación de los servidores, Pw Probabilidad de que hayan x personas en la en el sistema, Px En los siguientes apartados iremos examinando estos conceptos. 5.4 Un sistema de colas elemental: tasa de llegada y de servicio constantes Supongamos que tenemos un sistema en donde tanto la tasa de llegada (en personas por unidad de tiempo) como el tiempo de servicio son constantes. En este caso, podemos tener las tres situaciones siguientes: 5.4.1 No hay cola, tiempo ocioso del servidor Supongamos que tenemos un sistema en donde cada 6 minutos, exactamente, llega una persona a un ambulatorio. O, en otras palabras, la tasa de llegada es exactamente de 10 personas por hora. Supongamos que la tasa de servicio del médico (del servidor en términos técnicos) es de 12 personas por hora siempre, ni una más ni una menos. En esta situación nunca se formará una cola porque el servidor puede manejar perfectamente las llegadas. Incluso ya sabemos que el servidor estará ocioso un 16,6% de su tiempo, ya las llegadas necesitan únicamente de 10/12, o 83,33% de la capacidad de servicio. 5.4.2 No hay cola ni tiempo ocioso del servidor. Siguiendo el ejemplo anterior, supongamos que la tasa de servicio pasa a ser igual a 10 personas por hora, es decir, exactamente igual que la tasa de llegada. En esta situación es imposible que se forme una cola, pero por otro lado el servidor estará ocupado 100% de su tiempo y trabajará a plena capacidad. 5.4.3 Formación de cola y sin tiempo ocioso en el servidor Ahora supongamos que la tasa de servicio pasa a ser igual a 8 personas por hora, mientras que siguen llegando pacientes cada 6 minutos exactamente. En esta situación se formará una cola que irá creciendo, ya que el servidor no puede absorber toda la demanda de servicio y los pacientes se irán acumulando. La cola de llegadas no servidas inmediatamente irá creciendo a una tasa de 2 personas por hora, el es decir el exceso de llegadas partido por las personas servidas. Por ejemplo, al cabo de ocho horas, tendríamos 16 personas en la cola. El hecho de que hayamos asumido unas tasas de llegada y de servicio constantes hasta ahora facilita los cálculos para obtener información sobre el sistema. Pero la situación se complica si nos trasladamos a la situación más realista, en donde las tasas de llegada y de servicio no son constantes, sino que siguen una determinada distribución probabilística. Por ejemplo, si las llegadas y los tiempos de servicio estuviesen distribuidos aleatoriamente a lo largo de la jornada, aunque la capacidad de los servidores sea suficiente para absorber la demanda, puede pasar que un grupo de pacientes llegue en bloque y formen durante un tiempo una cola. Y, por otro lado, si durante un tiempo no llegan más pacientes, la cola puede ser reducida por el mecanismo de servicio. En las siguientes secciones examinaremos algunos de estos casos. 5.5 Las distribuciones de Poisson y Exponencial 5.5.1 La distribución de Poisson Esta distribución es muy frecuente en los problemas relacionados con la investigación operativa, sobre todo en el área de la gestión de colas. Suele describir, por ejemplo, la llegada de pacientes a un ambulatorio, las llamadas a una centralita telefónica, la llegada de coches a un túnel de lavado, el número de accidentes en un cruce, etc. Todos estos ejemplos tienen un punto en común: todos ellos pueden ser descritos por una variable aleatoria discreta que tiene valores nonegativos enteros (0,1,2,3,4…). El número de pacientes que llegan al ambulatorio en un intervalo de 15 minutos puede ser igual, a 0, 1, 2 3… Sigamos con el ejemplo del ambulatorio. La llegada de pacientes se puede caracterizar de la forma siguiente: 1. El número medio de llegadas de los pacientes para cada intervalo de 15 minutos puede ser obtenido a través de datos históricos. 2. Si dividimos el intervalo de 15 minutos en intervalos mucho más pequeños (por ejemplo, 1 segundo), podemos afirmar que: 142
2.1 La probabilidad de que exactamente un único paciente llegue al ambulatorio por segundo es tiene un valor muy reducido y es constante para cada intervalo de 1 segundo. 2.2 La probabilidad de que 2 o más pacientes lleguen dentro del intervalo de 1 segundo es tan pequeña que podemos decir que es igual a 0. 2.3 El número de pacientes que llegan durante el intervalo de 1 segundo es independiente de donde se sitúa este intervalo dentro del periodo de 15 minutos. 2.4 El número de pacientes que llegan en un intervalo de 1 segundo no depende las llegadas que han sucedido en otro intervalo de 1 segundo Si al analizar un proceso de llegada este cumple estas condiciones, podemos afirmar que su distribución es de Poisson. La fórmula para obtener la probabilidad de que un evento ocurra (que lleguen 3 pacientes, por ejemplo) es la siguiente:
En donde x representa en número de llegadas, ë la tasa media de llegadas y P(x) la probabilidad de que el número de llegadas sea igual a x. 5.5.2 La distribución Exponencial Mientras que la distribución de Poisson describe las llegadas por unidad de tiempo, la distribución exponencial estudia el tiempo entre cada una de estas llegadas. Si las llegadas son de Poisson, el tiempo entre ellas es exponencial. Mientras que la distribución de Poisson es discreta, la distribución exponencial es continua, porque el tiempo entre llegadas no tiene por qué ser un número entero. Esta distribución se utiliza mucho para describir el tiempo entre eventos, más específicamente, la variable aleatoria que representa el tiempo necesario para servir a la llegada. Ejemplos típicos de esta situación son el tiempo que un médico dedica a una exploración, el tiempo de servir una medicina en una farmacia, o el tiempo de atender a una urgencia. El uso de la distribución exponencial supone que los tiempos de servicio son aleatorios, es decir, que un tiempo de servicio determinado no depende de otro servicio realizado anteriormente, ni de la posible cola que pueda estar formándose. Otra característica de este tipo de distribuciones es que no tienen “edad”, o en otras palabras, “memoria”. Por ejemplo, supongamos que el tiempo de atención de un paciente en una sala quirúrgica sigue una distribución exponencial. Si el paciente ya lleva 5 horas siendo operado, la probabilidad de que esté una hora más es la misma que si hubiera estado 2 horas, o 10 horas o las que sea. Esto es debido a que la distribución exponencial supone que los tiempos de servicio tienen una gran variabilidad. A lo mejor el próximo paciente operado tarda 1 hora porque su cirugía era mucho más simple que la del anterior. La función de densidad de la distribución exponencial es la siguiente:
En donde t representa el tiempo de servicio y ì la tasa media de servicio (pacientes servidos por unidad de tiempo). La densidad exponencial se presenta en Figura 5.4. En general nos interesará encontrar P(T < t), la probabilidad de que el tiempo de servicio T sea inferior o igual a un valor específico t. Este valor es igual al área por debajo de la función de densidad.
143
Figura 5.4: Distribución Exponencial Si, por ejemplo, queremos saber cual es la probabilidad de que el tiempo de servicio sea de 2 o menos horas cuando el tiempo medio es de 3 horas (una tasa de servicio de 1/3), podemos aplicar la fórmula siguiente: En este caso, P(T 2) = 0,486, casi un 50% de probabilidad. 5.6 Modelo de Colas Simple: Llegadas en Poisson y Tiempos de Servicio Exponencialmente Distribuidos. El modelo que presentaremos a continuación tiene que cumplir las condiciones siguientes: 1. 2. 3. 4. 5. 6. 7.
El número de legadas por unidad de tiempo sigue una distribución de Poisson Los tiempos de servicio siguen una distribución exponencial La disciplina de la cola es de tipo FIFO La población potencial es infinita Existe un único canal de servicio La tasa media de llegadas es menor que la tasa media del servicio El tamaño potencial de la cola es infinito
Si estas condiciones se cumplen y si conocemos la tasa media de llegada ë, y la tasa media de servicio ì, las ecuaciones para obtener valores de las medidas descritas anteriormente son: Número medio en la cola: Número medio en el sistema: Tiempo medio de espera en la cola: Tiempo medio en el sistema: Factor de utilización: Un ejemplo Consideremos el caso de un gran laboratorio farmacéutico que tiene en su almacén un único estacionamiento de carga de que sirve a todas las farmacias de una región, y existe un único trabajador para buscar los medicamentos del pedido de cada furgoneta y cargarlos en ella. Se observa que de vez en 144
cuando las furgonetas de transporte se acumulan en el estacionamiento formando cola, y de vez en cuando el trabajador está ocioso. Después de un estudio del sistema observamos que éste cumple las condiciones expuestas anteriormente. Después de examinar las llegadas de las camionetas durante varias semanas, se determina que la tasa media de llegada es de 4 camionetas por hora, y que la tasa de servicio es de 6 camionetas por hora. Los gestores del almacén están considerando el añadir un trabajador adicional, o incluso dos de ellos, para aumentar la tasa de servicio. El problema consiste en evaluar estas opciones diferentes. Si se añade un trabajador, el sistema seguirá siendo de cola simple, porque una única camioneta puede cargarse a la vez. Si usamos dos trabajadores, la tasa de servicio será igual a 12. Si utilizamos tres trabajadores, la tasa de servicio será igual a 18. En el Cuadro 5.1 se han utilizado las ecuaciones expuestas anteriormente para obtener las medidas de eficiencia del sistema. Hemos supuesto que la capacidad de trabajo es proporcional al número de trabajadores. Trabajadores 1
2
3
Número medio de camionetas en la cola
Lq
1,333
0,167
0,063
Número medio de camionetas en el sistema
Ls
2,000
0,500
0,286
Tiempo medio de la camioneta en cola
Wq
0,333
0,042
0,016
Tiempo medio de la camioneta en el sistema
Ws
0,500
0,125
0,071
Ocupación del servicio Pw 0,667 0,333 Cuadro 5.1: Resultados del modelo simple de colas
0,222
Supongamos que los costos de operación de cada camioneta por hora son de 2000 U.M. y los trabajadores cobran 1800 U.M. por hora de trabajo y que estos trabajan 8 horas al día. En el Cuadro 5.2 se presentan los costos asociados. Al interpretar los tiempos, hay que ir con cuidado ya que estos están en fracciones de hora. Costo de Trabajadores Camioneta por dia
Costo de mano de obra por dia
Costo total Por dia
1
320
144
464
2
80
288
368
3 46 432 Cuadro 5.2: Costos de operación del sistema
478
Los gestores tendrían que añadir un nuevo trabajador al sistema ya que esto representará una reducción de los costos totales operacionales, aunque el factor de utilización pasará a ser de 33%. Es decir, que los dos trabajadores tendrán 5 horas y 20 minutos para dedicarse a otras tareas dentro del laboratorio farmacéutico. Extensión del modelo simple a colas con capacidad limitada Existen casos en los que el sistema (cola más servicio) tiene una cierta capacidad. Si un cliente llega cuando hay M o más personas en el sistema, el cliente se va inmediatamente y no vuelve. Este tipo de modelo es característico de los problemas de colas que se pueden encontrar en algunos servicios. Por ejemplo, un restaurante con un estacionamiento limitado. En este caso, las ecuaciones del modelo son: Probabilidad de 0 personas en el sistema: 145
Factor de utilización: Proporción de clientes perdidos porque el sistema está lleno: Número medio en el sistema: Número medio en la cola: Tiempo medio de espera en el sistema: Tiempo medio en la cola: 5.7 Modelo múltiple de Colas: Llegadas en Poisson y Tiempos de Servicio Exponencialmente Distribuidos. En muchos casos podemos tener situaciones en donde existe más de un servidor en el sistema. A medida que van llegando los clientes, los servidores se van ocupando y cada vez que un de ellos acaba su servicio, el primero de la cola lo vuelve a ocupar. El sistema está representado en la Figura 5.5.
Figura 5.5: Sistema múltiple de colas En este tipo de modelos la tasa de llegada siempre tiene que ser inferior a la tasa agregada de servicio, que no es más que la tasa de servicio individual multiplicada por el número de canales. En este modelo se supone, además de las condiciones expuestas anteriormente, que la tasa individual de cada canal es la misma. Las expresiones matemáticas para la obtención de las medidas de eficiencia del sistema dependen de P0 que es la probabilidad de que no haya nadie en el sistema se pueden calcular los valores de P0 .Los valores de las medidas de eficiencia son función de P0 y se obtienen a partir de las siguientes fórmulas: Factor de utilización: Número medio en el sistema: Número medio en la cola: Tiempo medio de espera en el sistema: Tiempo medio en la cola: Tenemos que tener presente que en estas ecuaciones ì representa la tasa de servicio por canal. En la página web (archivo colas.xls) se pueden calcular estos valores tanto para sistemas múltiples de colas con capacidad infinita como con capacidad limitada. 146
Un ejemplo El ambulatorio de una región tiene dos médicos de cabecera que atienden a los pacientes que van llegando. En general los pacientes tienen que esperar a ser atendidos y la gerencia está estudiando la posibilidad de contratar un nuevo médico para aligerar el sistema. Como es muy difícil estimar en términos monetarios el costo de espera de los pacientes, la gerencia realizará la nueva contratación si se consiguen reducir los tiempos totales del servicio (espera más atención) a la mitad. Después de observar y recoger datos sobre las llegadas y sobre el tiempo de servicio, la gerencia calcula que en media llegan 8 pacientes por hora, y que cada uno de los médicos puede atender 5 pacientes por hora. En el cuadro 5.3 se presentan los resultados después de aplicar las fórmulas del modelo con dos y tres médicos.
Médicos 2
3
Probabilidad de que todos los médicos estén libres
P0
0,111
0,190
Probabilidad de que todos los médicos estén ocupados
Pw
0,710
0,278
Número medio de pacientes en el sistema
Ls
4,442
1,918
Número medio de pacientes en cola
Lq
2,842
0,318
Tiempo medio de un paciente en el sistema
Ws
0,555
0,240
Tiempo medio de un paciente en cola Wq 0,355 Cuadro 5.3: Resultados del modelo múltiple de colas
0,040
En el cuadro podemos observar que si añadimos un médico adicional el tiempo de espera de cada paciente en el sistema pasa de 0,555 horas a 0,240 horas. Por lo tanto, el objetivo de la gerencia se cumple al añadir un nuevo médico. También se puede observar que con tres médicos el tiempo de espera en la cola es insignificante. 5.8 Limitaciones de los modelos de gestión de colas Los dos modelos que hemos presentado en este capítulo son los más comunes cuando se trata de sistemas en donde están implicados seres humanos. Sin embargo, pueden existir casos en donde la población potencial del sistema es finita, la cola de la disciplina no es FIFO, la tasa de servicio depende de las personas en la cola, y las distribuciones de las llegadas no son de Poisson. En estos casos estos modelos son inservibles. Las distribuciones juegan un papel esencial en estos modelos. Los sistemas en donde las variaciones de las llegadas en diferentes horarios son muy grandes no pueden ser examinados con las formulaciones presentadas. Cuando tenemos sistemas más complejos se utiliza la simulación como método de análisis. En la siguiente sección simularemos un sistema de colas. 5.9 Ejemplo de simulación de un sistema de colas. La farmacia de un hospital tiene dos personas para atender a 10 enfermeras que vienen a buscar medicamentos para los pacientes. La gerencia observa que de vez en cuando se forman colas para recoger las medicinas y que el servicio resulta un tanto ineficiente. Por otro lado, la población potencial es bastante reducida y no puede considerarse como infinita. Por otro lado la distribución del número de llegadas no es Poisson ni el tiempo de servicio exponencial. Por lo tanto no se puede aplicar el modelo múltiple de gestión de colas. 5.9.1 Recogida de datos
147
La gerencia observó el funcionamiento de la farmacia durante periodos de 1 hora distribuidos a lo largo de un mes. Estos periodos de una hora fueron aleatoriamente escogidos durante el día para obtener una muestra representativa de la actividad. Los resultados de la observación se muestran en el Cuadro 5.4. Duración del Número de tiempo de Servicio Observaciones (minutos) 8
15
9
30
10
45
11
60
Total de llegadas 150 Cuadro 5.4: Resultados de la muestra Además, la gerencia dividió el tiempo de observación en intervalos de 5 minutos y anotó las llegadas de enfermeras que llegaron durante estos intervalos. Se observó que en promedio llegaba una enfermera cada 5 minutos. Al final del periodo de observación, la gerencia presentó los resultados obtenidos de la siguiente forma: Distribución porcentual de los tiempos de servicio: 15/150 = 10% (8 min) 30/150 = 20% (9 min) 45/150 = 30% (10 min) 60/150 = 40% (11 min) Media ponderada de los tiempos de servicio: 10% _ 8 min = 0,8 min 20% _ 9 min = 1,8 min 30% _ 10 min = 3,0 min 40% _ 11 min = 4,4 min Tiempo medio de servicio: 10,0 min Con esta información, la gerencia pudo empezar a realizar la simulación con la ayuda de números aleatorios. 5.9.2 Simulación de llegadas. En primer lugar la gerencia simula las llegadas de las enfermeras a la farmacia. Ésta sabe que las llegadas son aleatorias, aunque en promedio llega una cada cinco minutos. Como los números aleatorios tienen 10 dígitos (0,1,2,3,4,5,6,7,8,9,10), la gerencia escoge (aleatoriamente) el 7 como representativo de una llegada. Si cogemos al azar un número de la tabla, la cantidad de sietes que contenga el número indicará la cantidad de llegadas en un intervalo de 5 minutos. La gerencia simula las llegadas a la farmacia durante 24 periodos de 5 minutos. Quizás no sea una cantidad muy representativa en este caso, pero para efectos de explicación de la simulación es suficiente. En un caso real simularíamos el sistema con muchos más periodos, pero la mecánica seguiría siendo la misma. Para ilustrar el procedimiento de simulación de llegadas, hemos escogido los 12 primeros números aleatorios del apéndice (por columna) y contado las veces que sale el número 7. 1239650125 0 1370937859 2 0926561938 0 1639438732 1 148
6749281769 2 8912349495 0 9172674928 2 9916253764 0
0178780337 3 9128374452 1 4412773934 2 0112378549 1
En el Cuadro 5.5 se muestran los resultados para los 24 periodos.
Periodo
Cantidad de Llegadas
Periodo
Cantidad de Llegadas
Periodo
Cantidad de Llegadas
1
0
9
3
17
1
2
2
10
1
18
1
3
0
11
2
19
1
4
1
12
1
20
0
5
2
13
0
21
0
6
0
14
0
22
1
7
2
15
1
23
0
8 0 16 4 24 2 Cuadro 5.5: Simulación del número de llegadas en cada intervalo 5.9.3 Simulación de los tiempos de servicio Después de obtener los resultados de la simulación de las llegadas, la gerencia tiene que realizar la simulación de los tiempos de servicio. Recordemos la distribución de los tiempos de servicios observada anteriormente: Minutos
Porcentaje 8
10
9
20
10
30
11
40
Como seguimos utilizando los números aleatorios de 10 dígitos, consideraremos que el 0 representa un tiempo de servicio de 8 minutos, el 1 y el 2 un tiempo de 9 minutos, el 3, 4 y el 5 un tiempo de 10 minutos, y el 6, 7, 8 y 9 un tiempo de 11 minutos. De esta forma podemos representar exactamente la probabilidad de los tiempos de llegada. Por ejemplo, observamos en el Cuadro 5.5 que en el segundo periodo hubieron dos llegadas al servicio. Para simular el tiempo de servicio, escogemos la última fila de números aleatorios de la tabla comenzando por la izquierda. El primer número es 9 y el segundo 8. Esto quiere decir que la primera y la segunda llegada tendrán asociadas un tiempo de atención de 11 minutos. Este proceso se repite para todos los periodos en los que hay llegadas. El resultado se presenta en el Cuadro 5.6. Número de Número de periodo Llegadas
Tiempo de servicio de cada una
1
0
2
2 (1) 11min, (2) 11 min
3
0
4
1 (3) 10 min
5
2 (4) 11 min, (5) 10 min
6
0
7
2 (6) 9 min, (7) 10 min
8
0
9
3 (8) 10 min, (9) 10 min, (10) 11 min
149
10
1 (11) 11 min
11
2 (12) 10 min, (13) 8 min
12
1 (14) 11 min
13
0
14
0
15
1 (15) 11 min
16
4 (16) 10 min, (17) 11 min, (18) 11 min, (19) 11 min
17
1 (20) 9 min
18
1 (21) 8 min
19
1 (22) 11 min
20
0
21
0
22
1 (23) 11 min
23
0
24 2 (24) 9 min, (25) 11 min Cuadro 5.6: Resultados de la simulación de los tiempos de servicio 5.9.4 Simulación conjunta del sistema Ahora ya podemos simular el sistema. El objetivo de la gerencia es encontrar el número óptimo de trabajadores en la farmacia de forma a minimizar el costo total del servicio. Se considera que el sistema es FIFO, es decir, primer en llegar, primero en ser atendido. Ahora se tienen que definir los criterios de cada llegada dentro de cada periodo. Se definen los criterios siguientes: 1. Si en un periodo llega una única enfermera, ésta lo hará al principio del periodo 2. Si en un periodo llegan 2 enfermeras, la primera lo hace al principio y la segunda en el tercer minuto 3. Si en un periodo llegan 3 enfermeras, la primera llega al principio, la segunda en el minuto 3, y la tercera en el minuto 5 4. Si en un periodo llegan 4 enfermeras, se asume que llegan en los minutos 2, 3, 4 y 5 respectivamente. En la Figura 5.6 se presenta el patrón de llegadas de los 24 periodos. Cada llegada viene indicada por un cuadro conteniendo su correspondiente número de orden, y encima del recuadro se indica el tiempo de espera correspondiente. Por ejemplo, si examinamos el periodo entre las 10:15 y las 10:20, vemos que se producen 5 llegadas (de la 16 a la 20), y, como veremos más adelante, seguramente se producirá una cola considerable. El comportamiento del sistema simulado con dos trabajadores atendiendo a los clientes (nivel de congestión, personas en cola, duración del tiempo de espera) puede representarse tal como se muestra en la Figura 5.7. En la Figura 5.8 se representa la simulación con tres trabajadores. Si se comparan las dos figuras, visualmente se puede observar que el tiempo de espera se reduce considerablemente. Si se examina desde un punto de vista económico, con dos trabajadores atendiendo a las enfermeras, éstas esperaran un total de 213 minutos, un tiempo medio de espera igual a 8,52 minutos. Para obtener un valor monetario del tiempo de espera, la gerencia considera que el costo por hora de cada trabajador es igual a 7 nuevos soles y el costo de cada enfermera es de 12 nuevos soles. Si recordamos que el tiempo medio entre cada llegada era de 5 minutos, en media las enfermeras realizaran 96 viajes por día (8 horas diarias por 12 viajes por hora). Y si el tiempo medio de espera es de 8,52 minutos por viaje, el tiempo total de espera es igual a 817,9 minutos (13,63 horas perdidas), lo que representa un costo total de espera de 163,56 nuevos soles. Si añadimos el costo de los dos trabajadores 150
(112 nuevos soles), el costo diario total es igual a 275,56 nuevos soles. Si realizamos el mismo ejercicio pero modificando el número de trabajadores atendiendo a las enfermeras (Figura 7.6) el tiempo total de espera es igual a 47 minutos, o 1,88 minutos de espera por llegada. Si tenemos 96 llegadas por día, el tiempo total perdido es igual a 180,48 minutos (3 horas diarias). El costo de la espera es igual a 36 nuevos soles y el sueldo de los trabajadores igual a 168 nuevos soles, lo que da un costo total igual a 204 nuevos soles. Por lo tanto, la operación con tres trabajadores parece ser más eficiente en términos monetarios. ¿Qué pasaría si contratáramos un cuarto trabajador que eliminaría completamente el tiempo de espera de las enfermeras? En este caso el único costo sería el sueldo de los trabajadores, que sería igual a 224 nuevos soles, superior al costo con tres trabajadores.
Figura 5.6: Representación de las llegadas
151
Figura 5.7: Operación de la farmacia con dos trabajadores
Figura 5.8: Operación de la farmacia con tres trabajadores 5.10 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Investigación de operaciones: http://www.investigacion-operaciones.com/contenido.htm Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
152
:
ANALISIS DE LA TEORÍA DE LA DECISIÓN Objetivos del Capítulo. Capacitar en la identificación de criterios a tener en cuenta en un proceso de toma de decisiones, Desarrollar la capacidad de modelización matemática de problemas empresariales atendiendo a diversos criterios. Desarrollar la capacidad de identificar cuál es la metodología matemática más adecuada para un problema concreto dentro de las varias que se estudian. Estar preparado para la elaboración, resolución y posterior refinamiento de un modelo matemático para la toma de decisiones empresariales. 6.0 Introducción La característica principal de la gestión económica de la empresa es la del proceso de convertir información en acción, a este proceso lo llamamos toma de decisiones. Decisión: Es una elección entre dos o mas líneas de acción diferentes. El objeto de la teoría de la decisión es racionalizar dicha elección. Para ello hay que proceder de modo sistemático, evaluando todas las posibilidades de elección como las consecuencias que puedan derivarse de cada opción. El estudio de la teoría de la decisión provee de herramientas para la toma de decisiones importantes. La teoría de la decisión adopta un enfoque científico, contrapuesto a la intuición y experiencia como únicos criterios que se utilizaban anteriormente. 6.1 Las decisiones en la empresa El método científico utilizado por la teoría de la decisión presenta un esquema lógico de actuaciones a la hora de plantear la solución de un problema. Este esquema cumple las siguientes fases: 1. Definición del problema 2. Enumeración de posibles alternativas (Ai: Alternativas o estrategias) 3. Identificación de los posibles escenarios o estados de la naturaleza en la que las diferentes alternativas pueden desarrollarse. Variable o no controlables por el sujeto decisor: temperatura, actuaciones de la competencia ect. (Ej: Estados de la naturaleza) 4. Obtención de resultados y valoración de los mismos: Desenlaces asociados a una alternativa concreta dado un estado específico de la naturaleza. (X ij: Resultados) 5. Predicción de probabilidad sobre la ocurrencia de cada estado de la naturaleza.(P j: Probabilidad) 6. Fijación de criterios de decisión que permitan la elección de una estrategia o alternativa. Es una forma de utilizar la información para seleccionar una alternativa concreta. 7. Identificación del tipo de decisión: Para ello clasificamos las decisiones en estáticas y en decisiones secuenciales. Decisiones estáticas Son aquellos problemas de decisión en los que sólo se adopta una decisión y no se analizan las posibles alternativas/decisiones posteriores a una alternativa/decisión previa. Decisiones secuenciales: Problema de decisión en el que se consideran una secuencia de decisiones, es decir, decisiones posteriores dependientes de una decisión inicial. 8. Identificación del contexto en el que se toma la decisión: A su vez, el problema de decisión, tanto en la perspectiva estática como secuencial, puede ser de tres tipos, en función del grado de
153
conocimiento que se tenga sobre la ocurrencia de los estados de la naturaleza (incertidumbre, riesgo, certeza) Certeza: Cuando conocemos con seguridad el estado de la naturaleza que se va a producir. En un problema estático se traduce en una matriz de una sola columna con un sólo estado de la naturaleza, en un problema secuencial se refleja en un sólo estado de la naturaleza para cada una de las decisiones adoptadas. Situaciones de riesgo: cuando no conocemos el estado de la naturaleza que se va a producir, pero si conocemos las probabilidades de ocurrencia de cada uno de ellos. Situaciones de incertidumbre: Cuando desconocemos qué estado de la naturaleza se va a producir y la probabilidad de ocurrencia de cada uno de ellos. 6.2 Problemas de decisión estáticos El proceso de decisión se sintetiza en una matriz de decisión, matriz de consecuencias o matriz de ganancias.. Es una matriz que consta de tantas filas como alternativas o estrategias se contemplen, y de tantas columnas como estados de naturaleza sean posibles, siendo sus elementos los resultados correspondientes a cada alternativa en un estado de naturaleza específico. Ai = {a1, a2, ……….. an} Ej = {e1, e2, ……….. em}
Ejemplo: Jhon Pérez ha heredado $1.000. El ha decidido invertir su dinero por un año. Un inversionista le ha sugerido cinco inversiones posibles: oro, bonos, negocio en desarrollo, certificado de depósito, acciones. Jhon debe decidir cuanto invertir en cada opción. La siguiente tabla representa las ganancias que obtendría para cada escenario posible de comportamiento del mercado. MATRIZ DE GANANCIAS ALTERNATIVAS Oro
Gran alza
ESTADOS DE LA NATURALEZA pequeña sin pequeña gran alza cambios baja baja
-100
100
200
300
0
Bonos
250
200
150
-100
-150
Negocio
500
250
100
-200
-600
60
60
60
60
60
200 150 150 -200 Cuadro 6.1 Matriz de Ganancias 6.3 Elección del criterio de decisión en condiciones de incertidumbre:
-150
Cert. de depósito Acciones
Situación en la que podemos descubrir los estados posibles de la naturaleza pero desconocemos la probabilidad de ocurrencia de cada uno de ellos. Los criterios de decisión más empleados en estos casos son un reflejo de la actitud hacia el riesgo que tienen los responsables en la toma de decisiones. El criterio de decisión se toma basándose en la experiencia de quien toma la decisión, este incluye un punto de vista optimista o pesimista, agresivo o conservador. Los criterios aplicados son: Maximin o de Wald, Minimax o Savage, Maximax, Principio de razonamiento insuficiente o criterio de Laplace, Criterio de Hurwics
154
Criterio maximin o de Wald: Perfil pesimista (el decisor cree que el peor caso ocurrirá) o conservador (el decisor quiere asegurar una ganancia mínima posible). Se llama máximo porque elige el máximo resultado entre los mínimos resultados. Se elige lo mejor dentro de lo peor. Para encontrar una solución óptima: se marca la ganancia mínima de todos los estados de la naturaleza posible y se identifica la decisión que tiene el máximo de las ganancias mínimas. EL CRITERIO MAXIMIN
ALTERNATIVAS Oro
Gran alza
ESTADOS DE LA NATURALEZA pequeña sin pequeña gran alza cambios baja baja
Mínimas Ganancias
-100
100
200
300
0
-100
Bonos
250
200
150
-100
-150
-150
Negocio
500
250
100
-200
-600
-600
60
60
60
60
60
60
200 150 150 -200 Cuadro 6.2 Criterio Maximin
-150
-200
Cert. de depósito Acciones
La decisión óptima con este criterio sería invertir en certificados de depósito. Criterio mínimax o Savage: Este criterio se ajusta también a criterio pesimista o conservador. La matriz de ganancias es basada en el costo de oportunidad. El decisor incurre en una pérdida por no escoger la mejor decisión. Para encontrar la solución óptima se determina la mejor ganancia de todas las alternativas en cada estado de la naturaleza (mejor ganancia por columna) y se calcula el costo de oportunidad para cada alternativa de decisión (como la mejor ganancia por columna menos la ganancia de cada una de las celdas de la columna), posteriormente se encuentra el máximo costo de oportunidad para todos los estados de la naturaleza y se selecciona la alternativa de decisión que tiene el mínimo costo de oportunidad. MATRIZ DE GANANCIAS ESTADOS DE LA NATURALEZA Gran pequeña sin pequeña gran ALTERNATIVAS alza alza cambios baja baja Oro
-100
100
200
300
0
Bonos
250
200
150
-100
-150
Negocio
500
250
100
-200
-600
60
60
60
60
60
-200
-150
Cert. de depósito Acciones
200 150 150 Cuadro 6.3 Matriz de Ganancias MATRIZ DE COSTO DE OPORTUNIDAD
ESTADOS DE LA NATURALEZA Gran pequeña sin pequeña gran ALTERNATIVAS alza alza cambios baja baja
Máximo costo de oportunidad
Oro
600
150
0
0
60
600
Bonos
250
50
50
400
210
400
0
0
100
500
660
660
Negocio
155
Cert. de depósito
440
190
140
240
0
440
Acciones
300 100 50 500 210 500 Cuadro 6.4 Matriz de Costo de Oportunidad La decisión óptima con este criterio invertir en bonos por tener el menor costo de oportunidad El criterio maximax: Este criterio se basa en el mejor de los casos. Considera los puntos de vista optimista y agresivo. Un decisor optimista cree que siempre obtendrá el mejor resultado sin importar la decisión tomada. Un decisor agresivo escoge la decisión que le proporcionará una mayor ganancia. Para encontrar la decisión óptima se marca la máxima ganancia para cada alternativa de decisión y se selecciona la decisión que tiene la máxima de las máximas ganancias. EL CRITERIO MAXIMAX ALTERNATIVAS Gran alza Oro
ESTADOS DE LA NATURALEZA pequeña sin pequeña gran alza cambios baja baja
Máximas Ganancias
-100
100
200
300
0
300
Bonos
250
200
150
-100
-150
250
Negocio
500
250
100
-200
-600
500
60
60
60
60
60
60
200 150 150 -200 Cuadro 6.5. El Criterio Maximax
-150
200
Cert. de depósito Acciones
La decisión óptima sería invertir en un negocio en desarrollo por presentar la máxima ganancia posible. Criterio de razonamiento insuficiente o criterio Laplace: Puede ser tomado por un tomador de decisiones que no sea optimista ni pesimista. El decisor asume que todos los estados de la naturaleza son equiprobables. Para encontrar la decisión óptima se selecciona la decisión con el mayor valor esperado.
E(X1) = E(Oro) = −100*0,2 + 100*0,2 + 200*0,2 + 300*0,2 + 0*0,2 = 100 E(X2) = E(Bonos)=250*0, 2 + 200*0,2 + 150*0,2 − 100*0,2 − 150*0,2 = 70 E(X3) = E(Negocio) = 500*0,2 + 250*0,2 + 100*0,2 − 200*0,2 − 600*0,2 = 10 E(X4) = E(Certif.) = 60*0,2 + 60*0,2 + 60*0,2 + 60*0,2 + 60*0,2 = 60 E(X5) = E(Acciones) = 200*0,2 + 150*0,2 + 150*0,2 − 200*0,2 − 150*0,2 = 30 La decisión óptima sería invertir en Oro. Criterio de Hurwicz: Es un criterio intermedio entre maximin y el maximax: Supone la combinación de ponderaciones de optimismo y pesimismo. Sugiere la definición del llamado coeficiente de optimismo (α), y propone que se
156
utilice como criterio de decisión una media ponderada entre el máximo resultado asociado a cada alternativa, y el mínimo resultado asociado a la misma. 0≤α≤1
cuanto más cercano a 1 mayor es el optimismo.
Para hallar la solución óptima se marca el máximo y el mínimo de cada alternativa. Según el coeficiente de optimismo del decidor (α), se multiplica el máximo por éste y el mínimo se multiplica por (1-α). Luego se suman los dos. Luego elegimos el máximo entre todas las alternativas. En nuestro ejemplo, si suponemos que el empresario es neutral α=0,5 EL CRITERIO HURWICS Maximas Ganancias Con =0,5
ESTADOS DE LA NATURALEZA ALTERNATIVAS Gran pequeña sin pequeña gran alza alza cambios baja baja Oro
-100
100
200
300
0
100
Bonos
250
200
150
-100
-150
50
Negocio
500
250
100
-200
-600
-50
60
60
60
60
60
60
200 150 150 -200 Cuadro 6.6 El Criterio Hurwics
-150
0
Cert. de deposito Acciones
T(Xi)=T(Oro)=0.5*300 + 0.5*(−100)=100
Se elige
6.4 En situación Riesgo. Conocemos la lista de estados de la naturaleza y su probabilidad de ocurrencia. Como los eventos son excluyentes tenemos: La suma de probabilidades de todos los estados de la naturaleza debe ser iguales a la unidad. El criterio que se utiliza para comparar los resultados correspondientes a cada línea de actuación es la mayor “esperanza matemática”. EL CRITERIO DE LA GANANCIA ESPERADA ESTADOS DE LA NATURALEZA ALTERNATIVAS Gran pequeña sin pequeña gran alza alza cambios baja baja Oro
Ganancias Esperada
-100
100
200
300
0
100
Bonos
250
200
150
-100
-150
130
Negocio
500
250
100
-200
-600
125
60
60
60
60
60
60
200
150
150
-200
-150
95
Cert. de depósito Acciones Probabilidad
0,2 0,3 0,3 0,1 0,1 Cuadro 6.7 El Criterio de la Ganancia Esperada
El utilizar como único criterio de decisión la esperanza matemática supone asumir ciertas hipótesis: Que al sujeto decisor no le importe la dispersión del resultado (no tiene en cuenta la desviación típica) 157
Que no exista riesgo de ruina: Es el riesgo que el desenlace de una estrategia pueda suponer un quebranto económico tal que no pueda ser superado por la empresa. En dicho caso el decisor pasaría a elegir sólo entre aquellas alternativas cuyos resultados más desfavorables puedan ser asumidos por la empresa. Tiene que ver con la capacidad de asumir pérdidas. Para solucionar estas limitaciones se construyen unas funciones de utilidad. a.
Consideración de la variabilidad de los resultados: Penalizar la esperanza económica por una medida que dé idea de la variabilidad de los datos, considerando la multiplicación de dicha medida de variabilidad por un coeficiente indicativo de temor al riesgo (a) del sujeto decisor. La función de utilidad se halla restando al valor esperado de cada alternativa el coeficiente de aversión por la desviación típica. Si a→1 Mayor aversión al riesgo. El inversor presenta un perfila más conservador Si a→0 Poca aversión al riesgo. El inversor presenta un perfil más arriesgado. Función de utilidad = U(Xi) = E(Xi) – a*σX Observemos que cuando a tiende a 1 la cantidad a restar es mayor, por tanto la utilidad esperada es menor lo que corresponde a un perfil conservador.
j
En nuestro ejemplo: Si Jhon Pérez tiene una aversión al riesgo del 15%: a = 0,15
158
Se elige la alternativa que maximiza la función de utilidad: En nuestro ejemplo sería: X2 = Bonos =71,71 → Máximo beneficio teniendo en cuenta la aversión al riesgo b. Consideración del riesgo de ruina: La probabilidad de ruina es la probabilidad de que un resultado Xij sea menor que un cierto ingreso (si la matriz que estamos analizando es de costos) o beneficio crítico que como mínimo ha de obtener la empresa. Es decir, en el peor de los casos, cuáles serían las pérdidas que se estaría dispuesto a asumir, o beneficio que cómo mínimo se exige a la inversión. En nuestro ejemplo, si estamos dispuestos a asumir pérdidas hasta 180 unidades monetarias, se rechazan las inversiones en negocio y en acciones ya que podrían generar pérdidas que no se podrían asumir (-600; 200). Se tendría que elegir entre el oro, bonos o certificados de depósito a través de la esperanza matemática o bien considerando la función de utilidad que penalice la dispersión de resultados ( a través de la desviación típica). 6.5 Problemas de decisiones estáticas Problema 1: Un empresario agricultor se plantea escoger entre tres alternativas de cultivo (trigo, remolacha o patata) con tres estados de la naturaleza (tiempo lluvioso, tiempo normal o tiempo seco) y la probabilidad de tiempo respectivamente (30% lluvioso, 50% normal y 20% seco). Y una aversión al riesgo del 20% y un beneficio crítico de 100 u.m. Para el criterio Hurwicz se considera un coeficiente de optimismo del 50% P1= 0,3
P1= 0,5
P1= 0,2
lluvia
normal
seco
Trigo Remolacha
250
290
200
-100
450
350
150
200
250
Patata a. Situación de riesgo:
E(X1) = E(trigo) = 250*0,3 + 290*0,5 + 200*0,2 = 260 E(X2) = E(remolacha) =100*0,3 + 450*0,5 + 350*0,2 = 265 E(X3) = E(patata) = 150*0,3 + 200*0,5 + 250*0,2 =195 Para solucionar estas limitaciones se construyen unas funciones de utilidad. Consideración de la variabilidad de los resultados
En nuestro ejemplo: Si el empresario agricultor tiene una aversión al riesgo del 20%: a=20%:
159
Se elige la alternativa que maximiza la función de utilidad: En nuestro ejemplo sería: X1 = trigo = 253→Máximo beneficio teniendo en cuenta la aversión al riesgo Consideración del riesgo de ruina: Si fijamos un ingreso típico de 100 unidades monetarias: Se rechaza el cultivo de remolacha ya que puede llegar a presentar un ingreso inferior (-100 u.m.) al ingreso crítico. Se tendría que elegir entre el trigo y la patata a través de la esperanza matemática o bien considerando la función de utilidad que penalice la varianza. b. En situación de incertidumbre b1. Criterio Laplace
T(X1) = 250 + 290 + 200 = 740 →Se elige el trigo T(X2) = -100 + 450 + 350 = 700 T(X3) = 150 + 200 + 250 = 600 b2. Criterio pesimista, de Wald ó Maximin: Se elige lo mejor dentro de lo peor. Trigo = 200 → Se elige Remolacha = -100 Patata = 150 b3. Criterio optimista o maximax: Se elige el máximo de los máximos. Trigo = 290 Remolacha = 450 → Se elige Patata = 250 b4. Criterio de Hurwicz: Es un criterio intermedio entre maximin y el maximax: Supone la combinación de ponderaciones de optimismo y pesimismo. Sugiere la definición del llamado coeficiente de optimismo (α), comprendido entre cero y uno: 0 ≤ α ≤ 1 → cuanto más cercano a 1 mayor es el optimismo T(Xi) = α * MaxXij + (1−α) MinXij 160
En nuestro ejemplo, si suponemos que el empresario es neutral α=0,5 T(X1) = 0.5*290 + 0.5*200 = 245 T(X2) = 0.5*450 + 0.5*(-100) = 175 T(X3) = 0.5*250 + 0.5*(150) = 200 b5. Criterio de Savage Se construye una matriz de perjuicios o de costo de oportunidad matriz de consecuencias E1 Trigo Remolacha Patata
E2
E3
250
290
200
-100
450
350
150
200
250
matriz de arrepentimientos o costo de oportunidad E1 Trigo
E2
E3
0
160
150
Remolacha
350
0
0
Patata
100
250
100
Arrepentimiento máximo para la opción trigo = 160 → Se escoge el trigo Arrepentimiento máximo para la opción remolacha = 350 Arrepentimiento máximo para la opción patata = 250 6.6 La Utilización de la Información Perfecta y el Concepto de Valor Esperado en Contexto de Riesgo. Como es lógico, en un contexto de riesgo se debe decidir con el máximo valor esperado. La Ganancia que se espera obtener al conocer con certeza la ocurrencia de ciertos estados de la naturaleza se le denomina: Ganancia Esperada de la Información Perfecta (GEIP). Este concepto corresponde al costo de oportunidad de la decisión seleccionada usando el criterio de la ganancia esperada. Esta decisión es la que genera una menor pérdida para quien tiene que tomar la decisión. En este caso nos aseguran con toda probabilidad la ocurrencia de cierto estado de la naturaleza, por eso la llamamos información perfecta. El GEIP se calcula como el producto de la máxima ganancia para cada estado de la naturaleza por su respectiva probabilidad, y a este resultado le restamos el máximo valor esperado.
En nuestro ejemplo de Jhon Pérez, podríamos calcular, por ejemplo, el valor máximo que podemos pagar por un estudio donde nos aseguren la ocurrencia de cierto estado de la naturaleza. Podemos entonces calcular la ganancia esperada de la información perfecta (GEIP)
161
EL CRITERIO DE LA GANANCIA ESPERADA ESTADOS DE LA NATURALEZA ALTERNATIVAS Gran pequeña sin pequeña gran alza alza cambios baja baja Oro
Ganancias Esperada
-100
100
200
300
0
100
Bonos
250
200
150
-100
-150
130
Negocio
500
250
100
-200
-600
125
60
60
60
60
60
60
200
150
150
-200
-150
95
Cert. de depósito Acciones Probabilidad
0,2 0,3 0,3 0,1 0,1 Cuadro 6.7 El Criterio de la Ganancia Esperada
GEIP= (500*0,2 + 0,30*250 + 0,3*200 + 300*0,1 + 60*0,1) −130 = 141 Quiere decir esto, que si puedo obtener información, que me asegure la ocurrencia de cierto estado de la naturaleza, puedo pagar por ella un máximo de 141 unidades monetarias. 6.7 La utilización de la información imperfecta y el concepto de valor esperado en contexto de riesgo. La información adicional, no siempre es perfecta, muchas veces los estudios adicionales que se encargan tienen cierto margen de error. La información adicional mejora la probabilidad obtenida de la ocurrencia de un determinado estado de la naturaleza y ayuda al tomador de decisiones a escoger la mejor opción. La estadística Bayesiana construye un modelo a partir de información adicional obtenida a partir de diversas fuentes. El teorema de Bayes:
donde = probabilidad revisada = probabilidad a priori = probabilidad condicionada = sumatoria probabilidad conjunta A partir del teorema de Bayes podemos calcular la Ganancia esperada con la Información Adicional (GECIA): La expresión matemática para su cálculo es la siguiente:
donde: = Máximo valor esperado a posteriori
162
= Sumatoria de probabilidades conjuntas Para su cálculo seguimos los siguientes pasos: 1. Clasificamos la información adicional obtenida como probabilidad condicionada distinguiendo cada uno de los escenarios planteados. 2. Calculamos la probabilidad conjunta con la fórmula de Bayes para cada alternativa en cada escenario planteado. 3. Calculamos la sumatoria de probabilidades conjuntas para cada escenario planteado. 4. Calculamos la probabilidad revisada para cada alternativa en cada escenario. 5. Calculamos la ganancia esperada con la probabilidad revisada para cada uno de los escenarios planteados. 6. Calculamos el GECIA También podemos calcular el valor esperado de la información adicional, es decir, el mayor valor esperado por contar con una mejor información. Se calcula como la diferencia entre el GECIA y el mayor valor esperado con la información a priori.
Ejemplo: Retomemos el ejemplo de Jhon Pérez. Supongamos que hemos contratado un informe adicional que nos indica la probabilidad de ocurrencia de una gran alza, pequeña alza, etc. condicionada a que el crecimiento económico sea positivo o negativo. Los resultados se pueden ver en la siguiente tabla. ESTADOS DE LA NATURALEZA Gran pequeña sin pequeña ALTERNATIVAS alza alza cambios baja 0,800 0,700 0,500 Probabilidad Crec. Positivo Condicionada Crec, Negat. 0,200 0,300 0,500 Cuadro 6.8 Estados de la Naturaleza
Gran baja
0,400
0,000
0,600
1,000
Pasos: 1. Clasificamos la información adicional obtenida como probabilidad condicionada distinguiendo cada uno de los escenarios planteados. En este caso viene ya en la tabla. 2. Calculamos la probabilidad conjunta con la fórmula de Bayes para cada alternativa en cada escenario planteado. En caso de crecimiento positivo la probabilidad conjunta que se produzca una gran alza sería Probabilidad conjunta =
= 0.80*0.20 = 0.16
En caso de crecimiento positivo la probabilidad conjunta que se produzca una pequeña alza sería: Probabilidad conjunta =
= 0.70*0.30 = 0.21
163
Y así vamos completando para cada escenario (crecimiento positivo, crecimiento negativo), la probabilidad de ocurrencia de cada alternativa. De esta forma vamos completando una tabla que nos permita recoger toda la información de forma ordenada como la que se presenta más adelante. 3. Calculamos la sumatoria de probabilidades conjuntas para cada escenario planteado. Para el caso de crecimiento positivo la sumatoria sería: Sumatoria Probabilidad Conjunta =
= 0.16 + 0.21 + 0.15 + 0.04 + 0 = 0.56
Para el caso de crecimiento negativo la sumatoria sería: Sumatoria Probabilidad Conjunta =
= 0.04 + 0.09 + 0.15 + 0.06 + 0.10 =
0.44 4. Calculamos la probabilidad revisada para cada alternativa en cada escenario. En caso de crecimiento positivo la probabilidad revisada que se produzca una gran alza sería
5. Calculamos la ganancia esperada con la probabilidad revisada para cada uno de los escenarios planteados. En caso de crecimiento positivo la probabilidad revisada que se produzca una gran alza para la alternativa del oro sería: = -100*0.286 + 100*0.375 + 200*0.268 + 300*0.071 + 0*0 = 84 6. Calculamos el GECIA: para ello marcamos el mayor valor esperado para cada uno de los escenarios planteados = 249*0.56 + 120*0.44 = 193 7. Calculamos GEIA = 193 – 130 = 63 EL CRITERIO DE LA GANANCIA ESPERADA CON INFORMACION ADICIONAL ALTERNATIVAS Oro
Ganancias Ganan Esperada Revisada cias Espera da a Crec.Pos Crec.Neg priori itivo ativo
ESTADOS DE LA NATURALEZA sin Gran pequeña cambio pequeña gran alza alza s baja baja -100
100
200
300
0
100
84
120
Bonos
250
200
150
-100
-150
130
179
67
Negocio
500
250
100
-200
-600
125
249
-33
60
60
60
60
60
60
60
60
Cert. de depósito 164
Acciones
200
150
150
-200
-150
95
139
39
Probabilidad 0.2 0.3 0.3 0.1 0.1 S = 1 Probabili Crecim. Positivo 0.8 0.7 0.5 0.4 0 dad Condicio Crecim. nada Negativo 0.2 0.3 0.5 0.6 1 Crecim. 0.16 0.21 0.15 0.04 0 0.56 Probabili Positivo dad Crecim. Conjunta Negativo 0.04 0.09 0.15 0.06 0.1 0.44 Crecim. 0.286 0.375 0.268 0.071 0.000 1.000 Probabili Positivo dad Crecim. Revisada Negativo 0.091 0.205 0.341 0.136 0.227 1.000 Cuadro 6.9 El Criterio de la Ganancia Esperada con Información Adicional GECIA=GANANCIA ESPERADA CON LA INFORMACIÓN ADICIONAL
GECIA = 249*0,56 + 120*0.44 = 193 GEIA=GANANCIA ESPERADA DE LA INFORMACIÓN ADICIONAL
GEIA = 193 – 130 = 63 CONCLUSIÓN: Cantidad máxima que puede pagar por un informe externo es de 63 u.m. 6.8 Decisiones secuenciales y árboles de decisión: Problema de decisión en el que se consideran una secuencia de decisiones, es decir, decisiones posteriores dependientes de una decisión inicial. El análisis del problema de decisión bajo el enfoque secuencial suele ser preferible al enfoque estático, dado que es normal que una decisión tomada en el momento inicial condicione decisiones en los momentos posteriores de tiempo. En este caso, se sintetiza la representación del problema a través de un árbol de decisión dado que su representación en una matriz no es viable. Un árbol de decisión es un grafo o dibujo que explica las secuencias de las decisiones o alternativas a tomar y los diversos estados de la naturaleza que se pueden presentar o acontecimientos que pueden suceder. Es una forma de abordar el problema de decisión cuando hay que adoptar una secuencia de decisiones excluyentes. Los elementos fundamentales del problema de decisión se representan en un árbol de decisión de la siguiente forma: Puntos o nudos de decisión entre alternativas o estrategias: □ Nudos aleatorios: Ocurrencia de los posibles estados de la naturaleza: ○ Resultados esperados: Δ El primer nudo (1) siempre es decisional: representa la decisión inicial que ha de tomar el decisor. El árbol toma la siguiente forma:
165
Se supone que la elección de una alternativa supone el abandono del resto. El resultado de dicha decisión depende a su vez de un suceso incierto como es el estado de la naturaleza que se produzca. Una vez producido un posible estado de la naturaleza, es posible elegir de nuevo entre distintas alternativas, siendo sus resultados dependientes del estado de la naturaleza que se produzca. La solución de un problema de decisión secuencial, consiste en buscar la secuencia de decisiones óptimas a adoptar. Vamos a resolverlo en un contexto de riesgo. La técnica de resolución consiste en ir determinando los valores monetarios esperados en cada punto de decisión, haciéndolo de derecha a izquierda, empezando por los resultados finales. Distinguimos entre. El valor de los nudos aleatorios (que son de los que parte los estados de la naturaleza) es la media ponderada de los resultados posibles. El valor de los nudos decisionales se obtiene tomando la esperanza matemática correspondiente a la mejor decisión posible. Para la construcción del árbol seguiremos los siguientes pasos: 1. Identificación clara del problema. 2. Establecer las estrategias o alternativas primarias entre las que debera elegir el momento actual 3. Establecer las diferentes alternativas y los diferentes sucesos que se van a ir produciendo a lo largo de este horizonte temporal. Hay dos matizaciones: 3.1 Sucesos inciertos: tienen que ser mutuamente excluyentes. 3.2 Sucesos aleatorios: Tienen que ser definidos de manera exhaustiva, es decir, la suma de las probabilidades de los diferentes sucesos debe ser igual a uno. 4. Representación completa del árbol de decisión con los diferentes nudos y ramas. Las secuencias alternativas que hemos representado tienen que reflejar fielmente la información con la que cuenta el sujeto decidor en cada momento para tomar diferentes decisiones en el horizonte temporal. 5. Valoración de cada una de las alternativas y sucesos aleatorios que nos lleva al final a una valoración de las diferentes ramas de un árbol. 6. Determinar las decisiones optimas, y para ello utilizaremos el método de resolución de marcha atrás. Para esto tenemos que valorar todos los nudos del árbol. Limitaciones del método: El método es valido si el decisor utiliza como criterio decisor maximizar el valor esperado. Se puede corregir con la desviación típica. En cada nudo aleatorio se calcula la función de utilidad de los resultados posibles. En cada nudo decisional se toma la alternativa con mayor función de utilidad. El método exige que el decisor pueda soportar el riesgo de ruina.
166
En caso de que los resultados no sean temporalmente homogéneos habrán de ser actualizados a la misma fecha. Otra situación puede ser tomar el criterio de elección de maximizar la probabilidad de ganancia y no la de maximizar el valor esperado. Este criterio de elección es útil cuando existen muchas situaciones de ganancia nula. Ejemplo: Frank Jones es un estudiante de último semestre de la Facultad de Ciencias Económicas y Administrativas y quiere empezar a hacer currículo. La Universidad ha convocado unas becas para trabajar en el servicio. Los solicitantes deben superar dos pruebas: una teórica que se realizara y una práctica para quienes superen la prueba teórica. La beca esta dotada de una retribución mensual de 1.000 nuevos soles libres de toda carga. Por otra parte, municipio de la ciudad ha convocado mediante concurso la provisión de un puesto de Ayudante de Administración que se dedicara a la formación técnica de los empleados. El puesto tiene una remuneración mensual de 1500 nuevos soles y habrá que superar una entrevista personal con el jefe de personal y un examen teórico – practico para quienes superen la prueba teórica. Frank esta nervioso, pues no sabe a que carta jugar. Por un lado se siente seguro de sus conocimientos teóricos y piensa que si solicita la beca tiene un 70% de posibilidades de aprobar la prueba teórica y un 40% de aprobar la practica, pero si se decanta por concursar en el municipio considera que con su nerviosismo las posibilidades de superar la entrevista se reducen al 40% y la probabilidad de superar el examen teórico – practico la estima en el 50%. Dado que la primera prueba para la beca de la Universidad y para el municipio coinciden, decidir: a. ¿a cual deberá asistir si lo que desea Frank es maximizar su ganancia mensual esperada? b. ¿a cual deberá asistir si lo que desea Frank si su objetivo es maximizar la probabilidad de obtener alguna ganancia? Solución: a) Lo primero es construir el árbol con las alternativas, probabilidades asociadas y resultados
Una vez representados los nudos y las ramas, con sus probabilidades, así como los resultados asociados a ese cada camino, se procede de derecha a izquierda para determinar el valor asociado a cada vértice. El valor asociado a un nudo aleatorio es la esperanza matemática de los valores situados al final de las ramas que parten de el:
167
Comenzamos por el nodo 4: E(4) =1.000∗0.4 + 0∗0.6 = 400 Tal será el valor asociado al nodo 4, que se ha de situar junto a el en el árbol. Y del mismo modo se opera con los demás nodos. E(2) = 400∗0.7 + 0∗0.3 = 280 Del mismo modo, procediendo de derecha a izquierda, se calculan los valores asociados a los nodos 5 y 3. E(5) = 1.500*0.5 + 0*0.5 = 750 E(3) = 750*0.4 + 0*0.6 = 300 El valor asociado a cualquier nudo decisional es igual al mayor de los valores asociados a los nudos en los que tienen destino las ramas que se desprenden de el. Si Frank sigue el criterio de elegir la opción a la que le corresponda la mayor ganancia mensual esperada, se decidirá por asistir a la prueba del municipio con un valor esperado de 300 nuevos soles mensuales. El árbol queda de la siguiente forma:
b. Si se decide por la Beca, la probabilidad de obtener alguna ganancia mensual, será la probabilidad de aprobar las dos pruebas de la misma, es decir superar la primera prueba y luego la segunda:
Del mismo modo se obtienen:
168
Con respecto al concurso convocado por el ayuntamiento
Por consiguiente el árbol de decisión también puede representarse de la siguiente forma:
Las distribuciones de probabilidad asociadas a las dos opciones se recogen en la siguiente tabla: Opciones Beca Ayuntamiento
Valores probables
Probabilidades
1000
0,28
0
0,72
1500
0,20
Valor esperado
0 0,80 Cuadro 6.10 Opciones y Probabilidades
280 300
Respuestas: a.
¿a cual deberá asistir si lo que desea Frank es maximizar su ganancia mensual esperada? Según los valores esperados reflejados en la tabla, se debe elegir Ayuntamiento (300) por presentar mayor valor esperado frente al Ayuntamiento (280). Los resultados deben corregirse con medidas de dispersión y medidas que incluyan el riesgo que se quiere asumir.
Corrección de la dispersión de los resultados con la desviación típica y construcción de las respectivas funciones de utilidad si el coeficiente de aversión al riesgo (α) es del 10%:
169
Dado que para la beca, la esperanza matemática vale 280 nuevos soles, su desviación típica será:
Por tanto, la dispersión de los valores posibles de la variable “ganancia mensual”, en relación a su media, es mayor en la opción del Municipio que en la opción de la Beca. b) ¿a cual deberá asistir si lo que desea Frank si su objetivo es maximizar la probabilidad de obtener alguna ganancia? Según los valores esperados reflejados en la tabla, se debe elegir Beca (28%) por presentar mayor probabilidad de ganancia frente al Ayuntamiento (20%). 6.9 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Decisión: Herramientas para el Análisis de Decisión: Análisis de Decisiones Riesgosas: http://home.ubalt.edu/ntsbarsh/opre640S/SpanishP.htm Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
170
ADMINISTRACIÓN Y GESTIÓN DE PROYECTOS CON PERT – CPM Objetivos del Capítulo Elaborar la lista de actividades de un proyecto. Representar el proyecto con el uso de una red y/o diagrama. Calcular el tiempo total requerido para terminar el proyecto. Calcular cuándo debe iniciarse y terminarse las actividades individuales para cumplir con la fecha de terminación del proyecto. Determinar las holguras y las actividades críticas. Realizar un estudio de costo contra tiempo para un proyecto. Programar y controlar los costos de un proyecto. 7.0 Introducción Grandes proyectos han existido desde el inicio de las civilizaciones en nuestro planeta. Cuando pensamos en la construcción de las pirámides egipcias o mayas, de los templos romanos o de las catedrales góticas, en enviar astronautas a la luna, en conocer planetas inexplorados hasta hoy en día, en descubrir el secreto del genoma humano, etc., nos viene a la cabeza miles de personas trabajando en innumerables tareas y actividades durante años, e incluso siglos, coordinando las actividades con un único fin: el conseguir acabar una obra maestra. En general, los proyectos suelen ser grandes y caros. Construir un hospital, desarrollar un nuevo medicamento, realizar una campaña masiva de vacunación en África son proyectos que necesitan una buena coordinación y utilización de los recursos disponibles para obtener una eficiencia en términos de tiempo y de costo. Completar estos proyectos en un periodo determinado y cumpliendo las expectativas presupuestarias no es tarea fácil. Si, por ejemplo, falla el suministro de un material determinado en una fecha concreta, el proyecto puede sufrir retrasos que implican un aumento considerable del costo. Una buena gestión y administración del proyecto es crucial. Normalmente los proyectos están divididos en muchas tareas, dependientes entre ellas. En muchos casos no podemos empezar una tarea sin haber finalizado otra. Es posible que en grandes proyectos existan muchísimas actividades interdependientes, por lo que los administradores tienen que encontrar métodos y mecanismos para poder gestionar eficientemente ellas. En este capítulo examinamos los métodos actuales utilizados para la gestión y administración de proyectos que tienen muchas tareas. 7.1 Definición de la Gestión y Administración de Proyectos Un proyecto puede ser definido como una serie de tareas relacionadas entre ellas con un claro objetivo y que además requiere una larga duración temporal. La Gestión y Administración de Proyectos consiste en la planificación, dirección y control de recursos (personal, equipos, materiales) necesarios para satisfacer las necesidades técnicas, económicas y temporales del proyecto. Un proyecto empieza por lo que se denomina Declaración Del Trabajo11 (DDT). Básicamente, el DDT es una declaración escrita de las intenciones del proyecto en cuestión y la agenda prevista indicando el inicio y la finalización de éste. A veces también se especifica datos técnicos sobre los costos, el presupuesto y las diferentes etapas 12 del proyecto. 11 12
En inglés, “statement of work” En inglés, “milestones” 171
Una tarea (o actividad) es una subdivisión determinada del proyecto. En general tiene una duración de algunos meses y es realizada por un grupo o unidad de trabajo. Una sub-tarea no es más que una división de una tarea, ya que a veces es necesario dividir las tareas en porciones más significativas. Normalmente un proyecto tiene una estructura jerarquizada de tareas y subtareas (ver Cuadro 7.1.) Las tareas tienen asociados en general una serie de atributos, cuya función es la de facilitar la definición perfecta de cada tarea en el marco de la planificación y gestión del proyecto. Estos atributos pueden ser los siguientes, entre otros: Atributos de identificación: o o o
Código: conjunto de caracteres alfanuméricos que permite identificar la actividad. Designación: descripción breve de la actividad Ejecutor: sirve para identificar la entidad o la persona responsable de la tarea.
Atributos temporales: o o o
Duración de la tarea: número de periodos previstos para llevar a cabo según una asignación previa de recursos. Fechas previstas: las más destacables son las de inicio y finalización previstos para la tarea. Fechas reales: El control sobre el proyecto permitirá fijar las fechas reales de inicio y finalización de les tareas una vez realizadas; y también el grado de realización de una tarea, que puede ser medido en función del porcentaje del trabajo realizado sobre el total previsto.
Atributos de necesidades de recursos: o o
Tipo de recurso: atributo cualitativo que determina qué elementos son necesarios en cada actividad Cantidad de recurso: atributo cuantitativo que establece cuantas unidades se necesitan de cada recurso
Cuadro 7.1: Jerarquía De tareas Un paquete de trabajo13 consiste en un grupo de actividades combinadas que pueden asignarse a un único grupo o unidad de trabajo u organización. En este paquete se determina la descripción de las tareas a realizar, cuando se tienen que iniciar y finalizar, el presupuesto, algunas medidas sobre el rendimiento y eventos o etapas específicas a ser alcanzadas. Algunos ejemplos pueden ser la producción de un 13
En inglés, “work package”
172
prototipo, el teste de una máquina en concreto o la puesta en funcionamiento de una campaña de mercado. El objetivo principal de la planificación y gestión de un proyecto consiste en el establecimiento de: Un calendario de la realización de las actividades (tareas), que implica el establecimiento de unas fechas de inicio y de finalización de todas las ellas Una asignación de recursos a las actividades, que implica el escoger una modalidad para llevar a cabo cada actividad en función de los recursos disponibles. Más concretamente, la gestión y administración de proyectos pretende contestar a las siguientes preguntas14: ¿Cuál es la fecha de finalización de proyecto? ¿Cuál es la variabilidad esperada de esta fecha? ¿Cuáles son las fechas programadas del principio y terminación de cada actividad específica? ¿Cuáles actividades son críticas en el sentido de que deben terminar con exactitud como fueron programadas para llegar a la meta de la finalización de l proyecto? ¿Cuánto se pueden demorar las actividades no críticas antes de provocar un retraso en la fecha de conclusión del proyecto? ¿Qué controles se deben ejercer en el flujo de recursos financieros para las diversas actividades durante el proyecto? Actualmente existen dos grandes métodos para poder responder a estas preguntas: el PERT 15 y el CPM16. Ambos métodos son similares. El primero fue desarrollado a finales de la década de los 50 para construir el misil Polaris, un complejo proyecto con más de 250 contratistas primarios y 9000 subcontratistas. El segundo fue diseñado también a finales de los años 50 por DuPont y Remington Rand para la gestión de grandes proyectos. 7.2 Representación gráfica de un Proyecto La representación gráfica de un proyecto es importante, ya que permite analizarlo de forma eficiente, identificando las actividades críticas y, por otro lado, simplifica las tareas de control y de actualización de la evolución del proyecto. La representación gráfica se realiza a través de una red. Una red es un conjunto de nodos conectados por arcos. Los arcos vienen representados por los nodos con los cuales está asociado. Por ejemplo, supongamos la red siguiente:
Figura 7.1 Red el conjunto de nodos viene representado por N={1,2,3,4,5}, y el conjunto de arcos A es el siguiente: A={(1,2),(1,3),(2,3),(2,4);(5,4),(5,2),(3,5)}. Un camino entre dos nodos consiste en una secuencia de arcos conectados, en donde el nodo final de un arco coincide con el nodo inicial del arco siguiente. Por ejemplo, el camino entre los nodos 1 y 4 es:
14 15 16
Ver Eppen y Gould (1999) En inglés, PERT: “Program Evaluation and Review Technique” En inglés, CPM: “Critical Path Method” 173
(1,2);(2,3),(3,5),(5,4). Un ciclo (o circuito) es un camino en donde los extremos coinciden. Por ejemplo, la secuencia (2,3),(3,5),(5,2) es un ciclo. Existen dos tipos de representaciones de los proyectos: las redes ANA (actividades en los arcos), en donde las actividades se representan por los arcos de la red, o las redes ANN, en donde las actividades se representan en los nodos, si bien que las redes ANA son las más comunes. Más concretamente, las redes ANA tienen las características siguientes: las actividades se representan en los arcos las relaciones de precedencia se definen a partir del orden de los arcos los sucesos se representan en los nodos el nodo inicial representa el inicio del proyecto el nodo final representa su finalización Por otro lado, las redes ANN tienen las características siguientes: las actividades se representan en los nodos las relaciones de precedencia vienen definidas por los arcos los sucesos son actividades con una duración nula Redes ANA. Las redes ANA tienen una serie de convenciones que hay que seguir para su diseño gráfico. Estas son: Las actividades secuenciales son aquellas que están en el mismo camino (y por tanto, son de alguna manera dependientes) Las actividades paralelas son las que se encuentran en caminos diferentes (y por tanto son independientes).
Figura 7.2 Red ANA La convención ANA indica que la red tiene que dibujarse de izquierda a derecha. Consecuentemente, la numeración de los sucesos se realizará en el mismo sentido, aumentando a medida que nos desplazamos hacia la derecha. Cada actividad se representa por un único arco (no podemos tener actividades que tengan los mismos sucesos de inicio y finalización).
174
Figura 7.3 Red ANA Doble Sentido La construcción de una red tiene que realizarse por fases, añadiendo las actividades una a una. Para proyectos grandes, es más fácil empezar la construcción de la red desde el final e ir retrocediendo. De vez en cuando, al construir la red, será necesario introducir actividades ficticias para respetar correctamente las relaciones de precedencia y también para evitar que dos actividades compartan el mismo nodo de salida y de llegada. Estas actividades ficticias tienen una duración igual a cero y no consumen ningún recurso. A continuación se ilustra el uso de las actividades ficticias. Caso 1: Representación correcta de las relaciones de precedencia Supongamos las siguientes relaciones de precedencia: A C, B C, B E. No se puede representar esta relación sin la utilización de una actividad ficticia, ya que tendríamos la figura siguiente:
Figura 7.4 Relaciones de Precedencia En la cual se comente el error de relacionar la actividad E con la actividad A, cuando en realidad no hay ninguna relación de precedencia entre ellas. Por eso es necesario el introducir una actividad ficticia para evitar este error.
Figura 7.5 Actividad Ficticia En este caso, las relaciones de precedencia se mantienen. La actividad ficticia une a las actividades B y C y a su vez impide que las actividades A y E estén relacionadas. Caso 2: Evitar que dos actividades tengan el mismo nodo de origen y destino. En este caso, las actividades B y C tienen los mismos nodos de origen y destino (nodos 3 y 4) y tenemos que añadir una actividad ficticia para que esto no ocurra. La representación incorrecta es la siguiente:
175
Figura 7.6 Nodos con Mismo Origen y Destino Al añadir una actividad ficticia, podemos obtener dos situaciones correctas diferentes:
Figura 7.7 Nodos Corregidos Ambas situaciones implican el mismo resultado de relación de precedencia, al no tener las actividades ficticias ni utilización de recursos ni costo temporal. Como veremos más adelante, el impedir que dos actividades tengan el mismo nodo de origen y destino es básico para poder determinar las actividades que son críticas para la buena ejecución del proyecto. Una vez que se ha construido la red, se tiene que verificar si se cumplen las condiciones siguientes: Se han representado todas las actividades Todas las relaciones de precedencia también están representadas La red no tiene relaciones de precedencia inexistentes Hay unos únicos nodos inicial y final Finalmente, se han de enumerar los nodos de la red, utilizando el método explicado anteriormente, asociando un valor que identifique cada suceso. Ejemplo:
176
Actividad
Actividad Precedente
Duración de la actividad
A
-
1
B
A
1
C
A
2
D
C
7
E
C
4
F
B
4
G
E,F
3
H
D
2
I
D
1
J
G
1
K
H,I
5
L
K
3
La red ANA correspondiente es la siguiente:
Figura 7.8 Red ANA Como hemos mencionado anteriormente, la red ANA también se puede transformar en red ANN. En este ejemplo, la configuración ANN sería la siguiente:
Figura 7.Red ANN 7.3 Planificación Temporal del Proyectos – CPM El método CPM17 consiste e una metodología simple para poder gestionar cada una de las actividades que componen el proyecto. Para cada actividad, el CPM determina unos tiempos de inicio y de finalización y también la posible existencia de holguras temporales que determinen en nivel crítico de su importancia para la consecución del proyecto en el menor tiempo posible. Más concretamente, los objetivos del CPM son: Determinar la duración mínima del proyecto Determinar las fechas de inicio de cada una de las actividades que lo componen Identificar las actividades que son críticas18 Determinar que atrasos posibles pueden sufrir las actividades sin afectar la duración mima del proyecto. El CPM utiliza como base las redes ANA y realiza las siguientes hipótesis: Las actividades tienen una duración determinada conocida (determinista) Se tienen que ejecutar todas las actividades No hay repetición de actividades No hay restricciones significativas de recursos En principio, el CMP determina el momento más avanzado y el momento más retardado de realizar cada suceso. Estos valores se utilizarán posteriormente para calcular las fechas de inicio, fin, más avanzadas y más retardadas de cada actividad. A continuación veremos como se obtienen estos parámetros.
17 18
“Critical Path Method” Una actividad crítica del proyecto es aquella que se tiene que realizar exactamente en el mismo intervalo de tiempo igual a su duración. 177
7.3.1 Primera fase: análisis temporal de los sucesos Notación: i, j = sucesos (i=1 inicio del proyecto, j=n final del proyecto) (i,j) = actividad tij = duración de la actividad (i,j) Ei = Momento más avanzado posible para realizar el suceso i (nodo i), suponiendo que no se han realizado retrasos en las actividades anteriores. Li = Momento más atrasado posible para realizar el suceso i (nodo i), sin que la duración mínima se vea afectada. El proceso se desarrolla de la forma siguiente: 1. Para cada nodo j calcular Ej: 1. E1 = 0; 2. Para j = 2,..., n, Ej = max(i,j) {Ei + tij} 3. En = duración mínima del proyecto. 2. Para cada nodo j calcular Lj: o Ln = En ; 4. Para i = n-1, ..., 2, Li = min(i,j) { Lj - tij} o Notar que Li = 0 y que tij = Lj - Ei 3. Calcular el margen Fi para cada suceso i, es decir el retraso que cada suceso puede sufrir sin modificar la duración mínima del proyecto. Fi = Li - Ei Notar que los elementos críticos tienen un margen nulo. Utilizando el ejemplo anterior, y aplicando las fórmulas descritas, tenemos que los tiempos de los sucesos son los siguientes: Suceso
Ej
Li
Fi
1
0
0
0
2
1
1
0
3
2
4
2
4
3
3
0
5
7
8
1
6
10
10
0
7
10
11
1
8
11
12
1
9
12
12
0
10
17
17
0
11
20
20
0
A veces, un proyecto puede tener una fecha de finalización fijada de antemano, que no tiene porque coincidir necesariamente con la mínima. En este caso el proceso se modifica de la siguiente forma: 178
Para cada nodo j calcular Lj: Ln = Fecha de finalización; Para i = n-1, ..., 2, Li = min(i,j) { Lj - tij} 4. Calcular el margen Fi para cada suceso i, es decir el retraso que cada suceso puede sufrir sin modificar la duración mínima del proyecto. Fi = Li - Ei Notar que los elementos críticos son los que tienen un margen mínimo. Supongamos que en el ejemplo anterior se fija a priori el tiempo de ejecución del proyecto en 25 semanas. En este caso, el análisis temporal de los sucesos es el siguiente: Suceso
Ej
Li
Fi
1
0
5
5
2
1
6
5
3
2
9
7
4
3
8
5
5
7
13
6
6
10
15
5
7
10
16
6
8
11
17
6
9
12
17
5
10
17
22
5
11
20
25
5
Los sucesos críticos son los mismos que en el caso anterior. 7.3.2 Segunda fase: análisis temporal de las actividades 1. Para cada actividad (i,j) calcular las fechas siguientes: Fecha de inicio más avanzada (FIA) = Ei Fecha de inicio más retardada (FIR) = Lj - tij Fecha de finalización más avanzada (FFA) = Ei + tij Fecha de finalización más retardada (FFR) = Lj Margen total de la actividad (i,j) = Lj - Ei - tij Las actividades críticas son aquellas que tienen un margen total igual a 0. El camino crítico es el camino más largo entre el origen (1) y el nodo final (n); por lo tanto, es el camino con el margen mínimo total (el camino compuesto por las actividades críticas). En una red puede existir más de un camino crítico. En nuestro ejemplo, el análisis temporal de las actividades es el siguiente:
179
Arco
Actividad
Duración
FIA
FIR
FFA
FFR
Margen
(1,2)
A
1
0
0
1
1
0
(2,3)
B
1
1
3
2
4
2
(2,4)
C
2
1
1
3
3
0
(4,6)
D
7
3
3
10
10
0
(4,5)
E
4
3
4
7
8
1
(3,5)
F
4
2
4
6
8
2
(5,7)
G
3
7
7
10
11
1
(6,9)
H
2
10
10
12
12
0
(6,8)
I
1
10
11
11
12
1
(8,9)
Ficticia
0
11
12
11
12
1
(7,9)
J
1
10
11
11
12
1
(9,10)
K
5
12
12
17
17
0
(10,11)
L
3
17
17
20
20
0
El tiempo de ejecución mínimo del proyecto es de 20 semanas. No se podrá nunca realizar en menos tiempo. Ahora también podemos analizar las actividades individualizadamente. Por ejemplo, la actividad E tiene una duración de 4 semanas, se puede iniciar en la tercera semana lo más temprano posible (FIA), aunque tenemos un margen, ya que si empieza en la cuarta semana (FIR) el proyecto no se ve afectado en su conjunto, debido al margen total de una semana. Por otro lado, la actividad D no tiene margen, por lo que se tiene que empezar obligatoriamente en la tercer a semana, ya que si se retrasa, aunque sea un poco, el conjunto del proyecto se verá afectado y no podrá ser realizado en las 20 semanas. Por lo tanto la actividad D es crítica en el proyecto. El camino crítico está formado por las actividades con margen nulo. En este caso, el camino es: A
C
D
H
K
L
Gráficamente, el camino crítico es el siguiente:
Figura 7.8 Camino Crítico 7.3.3 Tercera fase: análisis más detallado de los márgenes A continuación examinaremos con más detalle el margen total de cada una de las actividades (i,j), desglosándolo en varios apartados. Margen Total = Lj - Ei - tij
180
Representa el atraso máximo permitido en la duración de una actividad sin afectar a la duración total del proyecto. Se supone que las actividades precedentes empiezan lo más pronto posible y que las actividades posteriores se inician lo más tarde posible. Margen de seguridad = Lj - Li - tij Consiste en el atraso máximo permitido en la ejecución de una actividad sin imponer restricciones temporales en las actividades precedentes. En este caso las actividades precedentes pueden acabar lo más tarde posible y las posteriores empiezan lo más tarde posible. Margen libre = Ej - Ei - tij Representa el atraso máximo permitido en la duración de una actividad sin imponer restricciones temporales en las actividades posteriores. Aquí las actividades precedentes finalizan lo más pronto posible y las posteriores pueden empezar lo más pronto posible. Margen independiente = Ej - Li - tij Representa el atraso máximo que puede tener una actividad sin afectar a las precedentes y a las posteriores. En este caso, las actividades precedentes pueden acabar lo más tarde posible y las posteriores se pueden iniciar lo más pronto posible sin que afecte por ello al proyecto. Ejemplo de aplicación: Actividad F (arco(3,5)) Margen total = 2. Si esta actividad se retrasa 2 semanas, el proyecto se puede acabar en el tiempo mínimo previsto si ninguna de las actividades precedentes y posteriores sufre retrasos. Margen de seguridad = 0. Nos indica que no tenemos margen si las actividades anteriores y posteriores se ejecutan lo más tarde posible. Margen libre = 1. En este caso, si la actividad se retrasa en una semana, el proyecto puede finalizarse en el tiempo previsto siempre que las actividades precedentes se ejecuten lo más pronto posible. Margen independiente = 0. Nos indica que cualquier retraso de la actividad F tendrá efecto en las otras actividades. Por lo tanto, la actividad F (5,7) está formada por los sucesos 5 (E=2, L=4) y 7 (E=7, L=8). Si las actividades precedentes han sufrido retrasos, las actividades posteriores no pueden compensar este retraso porque su margen es inferior. 7.4 El Gráfico Gantt El diagrama o gráfico Gantt es una manera sencilla y sintética de representación de las actividades de un proyecto. Se compone de un eje de abcisas que representa la escala temporal y de un eje de ordenadas que representa las actividades. En este caso se supone que todas las actividades se inician en su fecha de inicio más avanzada, aunque no necesariamente sea esto obligatorio (por ejemplo, podría suponerse que todas las actividades se inician lo más tarde posible). El gráfico Gantt puede construirse una vez se ha realizado el CPM (o el PERT, que veremos más adelante). La duración de cada actividad y los márgenes se presentan en el gráfico en forma de barra horizontal, y a medida que avanza la ejecución del proyecto se va modificando la configuración de cada barra (por ejemplo, el color) para indicar su estado. Ejemplo de gráfico Gantt
181
7.5 El PERT
Figura 7.9 Gráfico Gantt
El PERT19 es un método similar al CPM. La gran diferencia estriba en que los tiempos de las actividades no son determinísticos, sino que tienen un componente aleatorio. La versión original del PERT se basa en el conocimiento, para cada actividad, de tres estimaciones de su duración: La estimación más probable (m) que es la estimación más realista de la moda de la distribución de la probabilidad para el tiempo de la actividad. La estimación optimista (a) procura ser el tiempo poco probable pero posible si todo sale bien, o sea, una estimación de la cota inferior de la distribución de probabilidad La estimación pesimista (b) se basa en una estimación poco probable de que todo vaya mal. Es decir, una estimación de la cota superior de la distribución de probabilidad. Para poder operar y calcular el tiempo total mínimo del proyecto, necesitamos conocer el valor esperado y la varianza de cada una delas actividades. Se supone en general que la dispersión entre a (el valor más optimista) y b (el más pesimista) es de 6 desviaciones estándar, es decir = b – a. Por lo tanto, la varianza del tiempo de cada actividad es:
Esta suposición se basa en que las colas de muchas distribuciones de probabilidad están a 3 desviaciones estándar de la media, y por lo tanto las colas están a 6 desviaciones estándar. Por otro lado, también se tiene que conocer qué tipo de distribución de probabilidad sigue el tiempo de las actividades. En general, se asume que los tiempos siguen una distribución Beta. Este tipo de distribución tiene un rango entre dos valores a y b determinados y representa la variabilidad dentro de este rango. La distribución tiene la forma siguiente:
Figura 7.10 Distribución de Probabilidad 19
En ingles, “Program Evaluation and Review Technique”
182
Y el tiempo esperado de cada actividad se obtiene de la siguiente forma: t = 1/3[2m + 0,5(a + b)] Para poder calcular el tiempo esperado mínimo del proyecto y la probabilidad de que el proyecto finalice en una fecha determinada necesitamos que se cumplan las condiciones siguientes: que los tiempos de las actividades sean variables aleatorias estadísticamente independientes, es decir, que el punto de distribución en que ocurra el tiempo de una actividad en particular no influya en el punto de su distribución en que los tiempos de otras variables ocurrirán. que la ruta crítica siempre requiera un tiempo mayor total que cualquier otra trayectoria. que la distribución de probabilidad del tiempo del proyecto sea (aproximadamente) una distribución normal. Esta última hipótesis se basa en que la distribución de probabilidad de una suma de muchas variables aleatorias independientes es aproximadamente normal bajo una amplia variedad de condiciones20. Una vez conocido el tiempo esperado para cada una de las actividades, se utiliza éste en el CPM para obtener el camino crítico y las actividades críticas. Una vez se saben éstas, si sumamos sus tiempos medios, obtenemos el tiempo medio mínimo esperado del proyecto. También obtenemos la varianza del tiempo medio mínimo sumando las varianzas de las actividades críticas. En caso de que haya varios caminos críticos, se escoge aquel con la mayor varianza total. Para saber que la probabilidad de que un proyecto se realice en la fecha D, tenemos que buscar la media y desviación estándar en base a las Tablas (0,1) de la distribución normal. Si Z es una variable aleatoria normal (0,1), tenemos que calcular la fórmula siguiente:
Y consultar el valor de la probabilidad correspondiente en una Tabla de la normal. Ejemplo de PERT Supongamos el proyecto siguiente: Más Más Actividad optimista probable a m
20
Más pesimista Actividades b precedentes
A
1
2
3
-
B
2
2
8
-
C
1
2
3
A
D
1
1,5
11
B
E
0,5
1
7,5
B
F
1
2,5
7
C,D
G
1
2
3
C,D
H
6
7
8
C,D,E
I
3
4
11
C,D,E
J
4
6
8
F,H
Esto se conoce como el Teorema del Límite Central 183
Primer paso: encontrar el tiempo medio esperado y la varianza de cada actividad: Actividad
Valor esperado
Varianza
A
2
0,11
B
3
1
C
2
0,11
D
3
2,78
E
2
1,36
F
3
1,00
G
2
0,11
H
7
0,11
I
5
1,78
J
6
0,44
Segundo paso: Encontrar el camino crítico. La red del proyecto es la siguiente:
Figura 7.11 Red Camino Crítico Y el CPM se presenta en la tabla siguiente: Actividad Duración
FIR
FFA
FFR
Margen
A
2
0
2
2
4
2
B
3
0
3
0
3
0
C
2
2
4
4
6
2
D
3
3
6
3
6
0
E
2
3
5
4
6
1
F
3
6
9
10
13
4
G
2
6
8
17
19
11
H
7
6
13
6
13
0
I
5
6
11
14
19
8
J
6
13
19
13
19
0
El camino crítico del proyecto es B varianza es igual a 4,33. 184
FIA
D
H
J y el tiempo medio esperado es de 19 semanas y su
Supongamos que queremos calcular la probabilidad de que el proyecto finalice en 20 días. Tendremos que:
Por lo tanto, y después de consultar una tabla Normal (0,1) hay una probabilidad de 68,44% de que el proyecto finalice en un periodo de 20 días. 7.6 Planificación de Recursos: Tiempo-Costo Como hemos visto hasta ahora, tanto el CPM como el PERT se dedican básicamente a gestionar el tiempo relacionado con la ejecución de cada una de las actividades que componen el proyecto. Sin embargo, a veces los tiempos de las actividades se ven afectados por la cantidad recursos que empleamos en su ejecución. Por lo tanto, existe un intercambio entre el tiempo de ejecución del proyecto y el costo de realizarlo. Aquí supondremos que esta relación es lineal, como muestra la figura siguiente:
Figura 7.12 Costos y Tiempos En este caso, la pregunta que intentamos resolver es la siguiente: ¿Qué tiempos de actividad conviene elegir para que se produzca el tiempo deseado de terminación del proyecto con un costo mínimo? Para poder responder a esta pregunta, necesitamos conocer la información siguiente de cada actividad: Tiempo de ejecución normal, Tn Costo de ejecución normal, Cn Tiempo de ejecución acelerada, Ta Costo de ejecución acelerada, Ca Tenemos que la relación [Ca – Cn]/[Ta - Tn] representa la pendiente de la recta del gráfico anterior. En otras palabras, en cuando se reduce el costo si incrementamos el tiempo de ejecución en una unidad. Es decir, el costo marginal del tiempo. Esta relación es muy útil conocerla para las actividades críticas. Esto es debido a que, como vimos anteriormente, las actividades críticas son las que determinan el tiempo mínimo de ejecución del proyecto. Un pequeño retraso en una de ellas provoca inexorablemente un aumento del tiempo de ejecución, y al contrario, si ponemos más recursos en las actividades críticas, su tiempo de ejecución puede reducirse y con ello se podría realizar el proyecto en un tiempo menor. En general, primero se realiza el CPM con los tiempos normales de las actividades para obtener el camino crítico, la duración mínima del proyecto y el costo total normal. Una vez se obtienen estos datos, se fija un objetivo de reducción del tiempo de ejecución del proyecto. Si existe un único camino crítico, se escoge la actividad del camino crítico que tiene el costo marginal más pequeño para acelerarla. Cuando hay más de un camino crítico, si queremos acelerar el proyecto, para cada camino reducimos la actividad con el menor costo marginal hasta conseguir el objetivo de reducción. Al realizar este proceso hay que ir con
185
cuidado ya que la reducción de la duración de una actividad puede crear la aparición de nuevos caminos críticos. A continuación ilustraremos el método tiempo-costo con un ejemplo. Supongamos el proyecto siguiente: Normal
Acelerado
(1,2)
8
100
6
200
50
(1,3)
4
150
2
350
100
(2,4)
2
50
1
90
40
(2,5)
10
100
5
400
60
(3,4)
5
100
1
200
25
(4,5)
3
80
1
100
10
Actividades
Coste Duración Costo Duración Costo Marginal
Suceso
Ej
Li
Fi
1
0
0
0
2
8
8
0
3
4
10
6
4
10
15
5
5
18
18
0
En condiciones normales, el proyecto tiene una duración de 18 días y un costo de 580. El camino crítico es (1,2),(2,5). Ahora aplicamos la regla de reducción de tiempos escogiendo las actividades críticas que tienen un costo marginal menor. Reducir la duración de la actividad (1,2) en 2 unidades: duración = 16 y costo = 680 Reducir la actividad (2,5) en 4 unidades: duración = 12 y costo =920 Debido a estas reducciones ha aparecido un camino crítico nuevo (1,3),(3,4),(4,5). Reducir la duración de las actividades (2,5) y (4,5) en una unidad: duración = 11 y costo = 990 En este punto ya no podemos realizar más reducciones, ya que todas las actividades de los caminos críticos han llegado a su límite de reducción. 7.7 Conclusiones En este capítulo hemos examinado varios métodos que nos ayudan a gestionar y planificar proyectos complejos. Los métodos PERT y CPM son relativamente sencillos de aplicar, pero permiten obtener mucha información importante para la planificación y control de grandes proyectos. Debido a su aplicación en situaciones reales, la gestión de proyectos es una de las áreas más importantes de los 186
métodos cuantitativos para la toma de decisiones en la industria, en los servicios y en la formación de profesionales. Una de las principales razones de su éxito es la facilidad de obtener diferentes escenarios de un proyecto y de actualizarlo a lo largo de su ejecución. Existen varios programas de ordenador dedicados a la gestión de proyectos. Entre ellos, destacan el Microsoft Project y el Superproject. 7.8 Actividades para el Aprendizaje Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Investigación de operaciones: http://www.investigacion-operaciones.com/contenido.htm Resolver los ejercicios al capitulo correspondiente: Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
187
188
INTRODUCCION AL MÉTODO DE SIMULACIÓN MONTE CARLO Objetivos del Capítulo • Introducir los conceptos e ideas clave de la simulación Monte Carlo. • Introducirse en las capacidades que ofrece Excel en los campos de modelado y simulación. • Conocer algunas aplicaciones de la simulación Monte Carlo. 8.0 Introducción Bajo el nombre de Método Monte Carlo o Simulación Monte Carlo se agrupan una serie de procedimientos que analizan distribuciones de variables aleatorias usando simulación de números aleatorios. El Método de Monte Carlo da solución a una gran variedad de problemas matemáticos haciendo experimentos con muestreos estadísticos en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinístico. Generalmente en estadística los modelos aleatorios se usan para simular fenómenos que poseen algún componente aleatorio. Pero en el método Monte Carlo, por otro lado, el objeto de la investigación es el objeto en sí mismo, un suceso aleatorio o pseudo-aleatorio se usa para estudiar el modelo. A veces la aplicación del método Monte Carlo se usa para analizar problemas que no tienen un componente aleatorio explícito; en estos casos un parámetro determinista del problema se expresa como una distribución aleatoria y se simula dicha distribución. Un ejemplo sería el famoso problema de las Agujas de Bufón. La simulación de Monte Carlo también fue creada para resolver integrales que no se pueden resolver por métodos analíticos, para solucionar estas integrales se usaron números aleatorios. Posteriormente se utilizó para cualquier esquema que emplee números aleatorios, usando variables aleatorias con distribuciones de probabilidad conocidas, el cual es usado para resolver ciertos problemas estocásticos y determinísticos, donde el tiempo no juega un papel importante. La simulación de Monte Carlo es una técnica que combina conceptos estadísticos (muestreo aleatorio) con la capacidad que tienen los ordenadores para generar números pseudo-aleatorios y automatizar cálculos. 8.1 Inicios del Método de Monte Carlo El método fue llamado así por el principado de Mónaco por ser ``la capital del juego de azar'', al tomar una ruleta como un generador simple de números aleatorios. El nombre y el desarrollo sistemático de los métodos de Monte Carlo datan aproximadamente de 1944 con el desarrollo de la computadora. Sin embargo hay varias instancias (aisladas y no desarrolladas) en muchas ocasiones anteriores a 1944. El uso real de los métodos de Monte Carlo como una herramienta de investigación, proviene del trabajo de la bomba atómica durante la Segunda Guerra Mundial. Este trabajo involucraba la simulación directa
189
de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutrones aleatorios en material de fusión. Aún en la primera etapa de estas investigaciones, John von Neumann y Stanislao Ulam refinaron esta curiosa ``Ruleta rusa'' y los métodos``de división''. Sin embargo, el desarrollo sistemático de estas ideas tuvo que esperar el trabajo de Harris y Herman Kahn en 1948. Aproximadamente en el mismo año, Fermi, Metropolos y Ulam obtuvieron estimadores para los valores característicos de la ecuación de Schrödinger para la captura de neutrones a nivel nuclear. Alrededor de 1970, los desarrollos teóricos en complejidad computacional comienzan a proveer mayor precisión y relación para el empleo del método Monte Carlo. La teoría identifica una clase de problemas para los cuales el tiempo necesario para evaluar la solución exacta al problema crece con la clase, al menos exponencialmente con M. La cuestión a ser resuelta era si MC pudiese o no estimar la solución al problema de tipo intratable con una adecuación estadística acotada a una complejidad temporal polinomial en M. Karp(1985) muestra esta propiedad para estimar en una red plana multiterminal con arcos fallidos aleatorios. Dyer(1989) utiliza MC para estimar el volumen de un convex body en el espacio Euclidiano M-dimensional. Broder(1986), Jerrum y Sinclair (1988) establecen la propiedad para estimar la persistencia de una matriz o en forma equivalente, el número de matching perfectos en un grafo bipartito. Los orígenes de esta técnica están ligados al trabajo desarrollado por Stan Ulam y John Von Neumann a finales de los 40 en el laboratorio de Los Alamos, cuando investigaban el movimiento aleatorio de los neutrones. En años posteriores, la simulación de Monte Carlo se ha venido aplicando a una infinidad de ámbitos como alternativa a los modelos matemáticos exactos o incluso como único medio de estimar soluciones para problemas complejos. Así, en la actualidad es posible encontrar modelos que hacen uso de simulación MC en las áreas informática, empresarial, económica, industrial e incluso social. En otras palabras, la simulación de Monte Carlo está presente en todos aquellos ámbitos en los que el comportamiento aleatorio o probabilístico desempeña un papel fundamental -precisamente, el nombre de Monte Carlo proviene de la famosa ciudad de Mónaco, donde abundan los casinos de juego y donde el azar, la probabilidad y el comportamiento aleatorio conforman todo un estilo de vida. Son muchos los autores que han apostado por utilizar hojas de cálculo para realizar simulación MC. La potencia de las hojas de cálculo reside en su universalidad, en su facilidad de uso, en su capacidad para recalcular valores y, sobre todo, en las posibilidades que ofrece con respecto al análisis de escenarios (“what-if analysis”). Las últimas versiones de Excel incorporan, además, un lenguaje de programación propio, el Visual Basic for Applications, con el cual es posible crear auténticas aplicaciones de simulación destinadas al usuario final. En el mercado existen de hecho varios complementos de Excel (Add-Ins) específicamente diseñados para realizar simulación MC, siendo los más conocidos: @Risk, Crystall Ball, Insight.xla, SimTools.xla, etc.. 8.2 Simulación: Método Monte Carlo Simulación: es el proceso de diseñar y desarrollar un modelo computarizado de un sistema o proceso y conducir experimentos con este modelo con el propósito de entender el comportamiento del sistema o evaluar varias estrategias con las cuales se puede operar el sistema. Modelo de simulación: conjunto de hipótesis acerca del funcionamiento del sistema expresado como relaciones matemáticas y/o lógicas entre los elementos del sistema. Proceso de simulación: ejecución del modelo a través del tiempo en un ordenador para generar muestras representativas del comportamiento. 8.2.1 Métodos de simulación Simulación estadística o Monte Carlo: Está basada en el muestreo sistemático de variables aleatorias.
190
Simulación continua: Los estados del sistema cambian continuamente su valor. Estas simulaciones se modelan generalmente con ecuaciones diferenciales. Simulación por eventos discretos: Se define el modelo cuyo comportamiento varía en instantes del tiempo dados. Los momentos en los que se producen los cambios son los que se identifican como los eventos del sistema o simulación. Simulación por autómatas celulares: Se aplica a casos complejos, en los que se divide al comportamiento del sistema en subsistemas más pequeños denominadas células. El resultado de la simulación está dado por la interacción de las diversas células. 8.2.2 Etapas del proceso de simulación Definición, descripción del problema. Plan. Formulación del modelo. Programación. Verificación y Validación del modelo. Diseño de experimentos y plan de corridas. Análisis de resultados 8.2.3 Diagrama de flujo del modelo de simulación
8.3 Algoritmos El algoritmo de Simulación Monte Carlo Crudo o Puro está fundamentado en la generación de números aleatorios por el método de Transformación Inversa, el cual se basa en las distribuciones acumuladas de frecuencias: Determinar la/s Variable Aleatoria y sus distribuciones acumuladas(F) Iterar tantas veces como muestras necesitamos o Generar un número aleatorio o Uniforme (0,1). o Determinar el valor de la V.A. para el número aleatorio generado de acuerdo a las clases que tengamos. Calcular media, desviación estándar error y realizar el histograma. Analizar resultados para distintos tamaños de muestra.
191
Otra opción para trabajar con Monte Carlo, cuando la variable aleatoria no es directamente el resultado de la simulación o tenemos relaciones entre variables es la siguiente: Diseñar el modelo lógico de decisión Especificar distribuciones de probabilidad para las variables aleatorias relevantes. Incluir posibles dependencias entre variables. Muestrear valores de las variables aleatorias. Calcular el resultado del modelo según los valores del muestreo (iteración) y registrar el resultado Repetir el proceso hasta tener una muestra estadísticamente representativa Obtener la distribución de frecuencias del resultado de las iteraciones Calcular media, desvío. Analizar los resultados Las principales características a tener en cuenta para la implementación o utilización del algoritmo son: El sistema debe ser descripto por 1 o más funciones de distribución de probabilidad (fdp) Generador de números aleatorios: como se generan los números aleatorios es importante para evitar que se produzca correlación entre los valores muestrales. Establecer límites y reglas de muestreo para las fdp: conocemos que valores pueden adoptar las variables. Definir Scoring: Cuando un valor aleatorio tiene o no sentido para el modelo a simular. Estimación Error: Con que error trabajamos, cuanto error podemos aceptar para que una corrida sea válida? Técnicas de reducción de varianza. Paralelización y vectorización: En aplicaciones con muchas variables se estudia trabajar con varios procesadores paralelos para realizar la simulación. Ejemplo Tenemos la siguiente distribución de probabilidades para una demanda aleatoria y queremos ver que sucede con el promedio de la demanda en varias iteraciones:
Utilizando la distribución acumulada(F(x) es la probabilidad que la variable aleatoria tome valores menores o iguales a x) podemos determinar cual es el valor obtenido de unidades cuando se genera un número aleatorio a partir de una distribución continua uniforme. Este método de generación de variable aleatoria se llama Transformación Inversa. Unidades
192
Frecuencia Frecuencia Acumulada
42
0.1
0.1
45
0.2
0.3
48
0.4
0.7
51
0.2
0.9
54
0.1
1
Generando los valores aleatorios vamos a ver como se obtiene el valor de la demanda para cada día, interesándonos en este caso como es el orden de aparición de los valores. Se busca el número aleatorio generado en la tabla de probabilidades acumuladas, una vez encontrado (si no es el valor exacto, éste debe se menor que el de la fila seleccionada pero mayor que el de la fila anterior), de esa fila tomada como solución se toma el valor de las unidades (Cuando trabajamos en Excel debemos tomar el límite inferior del intervalo para busca en las acumuladas, para poder emplear la función BUSCARV(), para 42 sería 0, para 43 0,100001 y así sucesivamente). Ejemplo: Supongamos que el número aleatorio generado sea 0,52, ¿a qué valor de unidades corresponde? Nos fijamos en la columna de frecuencias acumuladas, ese valor exacto no aparece, el siguiente mayor es 0,70 y corresponde a 48 unidades.
Se puede apreciar mejor en el gráfico, trazando una recta desde el eje de la frecuencia hasta que interseca con la línea de la función acumulada, luego se baja a la coordenada de unidades y se obtiene el valor correspondiente; en este caso 48. Cuando trabajamos con variables discretas la función acumulada tiene un intervalo o salto para cada variable (para casos prácticos hay que definir los intervalos y luego con una función de búsqueda hallar el valor). Para funciones continuas se puede hallar la inversa de la función acumulada. De esta forma logramos a partir de la distribución de densidad calcular los valores de la variable aleatoria dada. Número de Números Simulación aleatorios
Valor de la Demanda
1
0.92
54
2
0.71
51
3
0.85
51
...
...
...
n
0.46
48
En la siguiente tabla, vemos como a medida que aumenta el numero de simulaciones, el valor simulado se acerca al valor original de la media y desviación estándar, además de la disminución del error típico. Cantidad de simulaciones
Media
Desvío
Error
10
48.6
3.41
1.08
100
48.12
3.16
0.32 193
1000 10000 8.4 ¿Qué es la Simulación de Monte Carlo?
47.87
3.28
0.1
47.87
3.3
0.03
La simulación de Monte Carlo es una técnica cuantitativa que hace uso de la estadística y los ordenadores para imitar, mediante modelos matemáticos, el comportamiento aleatorio de sistemas reales no dinámicos (por lo general, cuando se trata de sistemas cuyo estado va cambiando con el paso del tiempo, se recurre bien a la simulación de eventos discretos o bien a la simulación de sistemas continuos). La clave de la simulación MC consiste en crear un modelo matemático del sistema, proceso o actividad que se quiere analizar, identificando aquellas variables (inputs del modelo) cuyo comportamiento aleatorio determina el comportamiento global del sistema. Una vez identificados dichos inputs o variables aleatorias, se lleva a cabo un experimento consistente en (1) generar – con ayuda del ordenadormuestras aleatorias (valores concretos) para dichos inputs, y (2) analizar el comportamiento del sistema ante los valores generados. Tras repetir n veces este experimento, dispondremos de n observaciones sobre el comportamiento del sistema, lo cual nos será de utilidad para entender el funcionamiento del mismo –obviamente, nuestro análisis será tanto más preciso cuanto mayor sea el número n de experimentos que llevemos a cabo. Veamos un ejemplo sencillo: En la imagen inferior se muestra un análisis histórico de 200 días sobre el número de consultas diarias realizadas a un sistema de información empresarial (EIS) residente en un servidor central. La tabla incluye el número de consultas diarias (0 a 5) junto con las frecuencias absolutas (número de días que se producen 0, 1, ..., 5 consultas), las frecuencias relativas (10/200 = 0,05, ...), y las frecuencias relativas acumuladas.
Podemos interpretar la frecuencia relativa como la probabilidad de que ocurra el suceso asociado, en este caso, la probabilidad de un determinado número de consultas (así, p.e., la probabilidad de que se den 3 consultas en un día sería de 0,30), por lo que la tabla anterior nos proporciona la distribución de probabilidad asociada a una variable aleatoria discreta (la variable aleatoria es el número de consultas al EIS, que sólo puede tomar valores enteros entre 0 y 5). Supongamos que queremos conocer el número esperado (o medio) de consultas por día. La respuesta a esta pregunta es fácil si recurrimos a la teoría de la probabilidad. Denotando por X a la variable aleatoria que representa el número diario de consultas al EIS, sabemos que:
194
Por otra parte, también podemos usar simulación de Monte Carlo para estimar el número esperado de consultas diarias (en este caso se ha podido obtener el valor exacto usando teoría de probabilidad, pero ello no siempre será factible). Veamos cómo: Cuando se conozca la distribución de probabilidad asociada a una variable aleatoria discreta, será posible usar la columna de frecuencias relativas acumuladas para obtener los llamados intervalos de números aleatorios asociados a cada suceso. En este caso, los intervalos obtenidos son: [0.00, 0.05) para el suceso 0 [0.05, 0.15) para el suceso 1 [0.15, 0.35) para el suceso 2 [0.35, 0.65) para el suceso 3 [0.65, 0.85) para el suceso 4 [0.85, 1.00) para el suceso 5 El gráfico siguiente nos muestra cada una de las probabilidades sobre el número de consultas. En él, se aprecia claramente la relación existente entre probabilidad de cada suceso y el área que éste ocupa.
Esto significa que, al generar un número pseudo-aleatorio con el ordenador (proveniente de una distribución uniforme entre 0 y 1), estaremos llevando a cabo un experimento cuyo resultado, obtenido de forma aleatoria y según la distribución de probabilidad anterior, estará asociado a un suceso. Así por ejemplo, si el ordenador nos proporciona el número pseudo-aleatorio 0,2567, podremos suponer que ese día se han producido 2 consultas al EIS. Asignamos pues la función ALEATORIO a una casilla (la G1 en el caso de la imagen):
Seleccionando la celda y “arrastrando” con el ratón desde el borde inferior derecho de la misma podemos obtener un listado completo de números pseudo-aleatorios: A continuación, podemos usar la función SI de Excel para asignar un suceso a cada uno de los números pseudo aleatorios generados (como veremos, otra forma de hacer esta asignación será usando la función BUSCARV):
195
Repitiendo el proceso de seleccionar y “arrastrar” obtendremos algo similar a:
Finalmente, usando la función PROMEDIO será posible calcular la media de los valores de la columna H:
En este caso, hemos obtenido un valor estimado que corresponde exactamente con el valor real anteriormente calculado vía la definición teórica de la media. Sin embargo, debido a la componente aleatoria intrínseca al modelo, normalmente obtendremos valores “cercanos” al valor real, siendo dichos valores diferentes unos de otros (cada simulación proporcionará sus propios resultados). Se puede comprobar este hecho pulsando repetidamente sobre la función F9 (cada vez que se pulsa dicha tecla, Excel genera nuevos valores aleatorios y, por tanto, nuevos valores para la columna H y la casilla I1). Si en lugar de usar una muestra aleatoria formada por 100 observaciones hubiésemos usado una formada por 10, los valores que obtendríamos al pulsar repetidamente F9 no serían estimaciones tan buenas al valor real. Por el contrario, es de esperar que si hubiésemos usado 1.000 (o mejor aún 10.000) observaciones, los valores que obtendríamos en la casilla I1 estarían todos muy cercanos al valor real. 8.4.1 Simulación MC con Variables Discretas Veamos un ejemplo algo más complejo del uso de Excel para construir modelos de simulación MC cuando las variables aleatorias sean discretas: Supongamos que trabajamos en un gran almacén informático, y que nos piden consejo para decidir sobre el número de licencias de un determinado sistema operativo que conviene adquirir – las licencias se suministrarán con los ordenadores que se vendan durante el próximo trimestre, y es lógico pensar que en pocos meses habrá un nuevo sistema operativo en el mercado de características superiores. Cada licencia de sistema operativo le cuesta al almacén un total de 75 dólares, mientras que el precio al que la vende es de 100 dólares. Cuando salga al mercado la nueva versión del sistema operativo, el almacén podrá devolver al distribuidor las licencias sobrantes, obteniendo a cambio un total del 25 dólares por cada una. 196
Basándose en los datos históricos de los últimos meses, los responsables del almacén han sido capaces de determinar la siguiente distribución de probabilidades por lo que a las ventas de licencias del nuevo sistema operativo se refiere:
Construimos nuestro modelo usando las fórmulas que se muestran en la figura inferior. En la casilla H2 usaremos la función ALEATORIO para generar el valor pseudo-aleatorio que determinará el suceso resultante; en la celda I2 usamos la función BUSCARV para determinar el suceso correspondiente asociado al valor pseudo-aleatorio obtenido –notar que usamos también la función MIN, ya que en ningún caso podremos vender más licencias que las disponibles. El resto de fórmulas son bastante claras:
En la imagen anterior se muestra cómo construir el modelo con una observación (iteración). A fin de generar nuevas observaciones, deberemos seleccionar el rango H2:N2 y "arrastrar" hacia abajo (tantas casillas como iteraciones deseemos realizar):
Finalmente, es posible estimar el valor esperado de la variable aleatoria que proporciona los beneficios sin más que hallar la media de las 100 observaciones que acabamos de realizar. Asimismo, usaremos las funciones DESVEST e INTERVALO.CONFIANZA para hallar, respectivamente, la desviación estándar de la muestra obtenida y el intervalo de confianza (a un nivel del 95%) para el valor esperado:
197
La apariencia final de nuestro modelo será:
A partir del modelo anterior es posible también realizar “what-if” análisis (análisis de escenarios o preguntas del tipo “¿qué pasaría si cambiamos tal o cual input?”). Para ello es suficiente con ir cambiando los valores de las celdas C11:C14 (inputs del modelo en este ejemplo). Asimismo, podemos ampliar fácilmente el número de iteraciones (observaciones muestrales) sin más que repetir los procesos de seleccionar y “arrastrar”. En el caso actual, hemos optado por tomar 1.000 iteraciones para cada una de los posibles inputs asociados a la cantidad de pedido (estos posibles inputs son: 100, 150, 200, 250, y 300). Si se realizase el experimento, se obtendrían unos resultados similares a los que se muestran a continuación (ya que 1.000 es un número ya bastante considerable para este ejemplo): Resultados para n=1000 iteraciones N° Licencias Benef.Medio
198
Desv.Est.
Intervalo confianza 95%
100
2500
0
2500
2500
150
2569
1743
0
3750
200
2079
3250
-2500
5000
250
333
4154
-5000
6250
300
-1868
4555
-7500
7500
A partir de los resultados, parece claro que la decisión óptima es hacer un pedido de 150 unidades, ya que con ello se consigue el beneficio máximo. 8.4.2 Generación de Números Aleatorios Provenientes de Otras Distribuciones Las últimas versiones de Excel incorporan un Add-In llamado Análisis de datos. Este complemento proporciona nuevas funcionalidades estadísticas a la hoja de cálculo. Entre ellas, nos interesa destacar la de Generación de números aleatorios:
Con esta opción, es posible generar fácilmente observaciones provenientes de diversas distribuciones de variable discreta (Bernoulli, Binomial, Poisson, Frecuencia relativa, y Discreta) o de variable continua (Uniforme y Normal). Independientemente del complemento Análisis de datos, es posible usar un resultado muy conocido de la teoría estadística, llamado método de la transformada inversa, para derivar las fórmulas que permiten obtener valores pseudo-aleatorios provenientes de distribuciones como la Weibull o la Lognormal. En la tabla siguiente se muestran algunas fórmulas que, implementadas en celdas de Excel, nos permiten obtener valores pseudo-aleatorios de algunas de las distribuciones continuas más usadas: 199
Distribución Exponencial Weibull Normal Lognormal Uniforme entre a y b
Parámetros
Formula Excel
Media = b
= -LN(ALEATORIO())*b
Escala = b Forma = a Media = Desv. Estandar = Media de Ln(X) = Desv. Estandar de Ln(X) = Extremo inferior = a Extremo superior = b
= b*(-LN(ALEATORIO())^(1/a) = DISTR.NORM.INV(ALEATORIO(), , ) = DISTR.LOG.INV(ALEATORIO(), , ) = a+(b-a)*ALEATORIO()
Añadir, finalmente, que es relativamente sencillo implementar funciones VBA que, haciendo uso del método de la transformada inversa o de otros métodos similares, permita la generación de valores provenientes de casi cualquier distribución teórica. 8.4.3 Simulación MC con Variables Continuas Como hemos comentado, es posible usar las fórmulas anteriores para generar, a partir de la función ALEATORIO(), valores pseudo-aleatorios provenientes de otras distribuciones continuas. En las páginas siguientes, veremos dos ejemplos de modelos que hacen uso de la distribución normal (la distribución estadística más importante y utilizada): Ejemplo: Tiempo de consultas a servidores en paralelo Supongamos que desde un ordenador cliente se realiza consultas SQL a bases de datos situadas en dos servidores distintos. Nuestro objetivo será estimar el tiempo esperado (tiempo medio) que deberemos esperar para recibir la respuesta de ambos servidores. Dada la complejidad de la consulta que queremos realizar, y basándonos en experiencias anteriores, se calcula que el tiempo necesario para que cada uno de los servidores responda a la misma sigue una distribución normal con los parámetros (media y desviación estándar, en minutos) que se indican a continuación:
Pediremos a Excel que genere valores pseudo-aleatorios provenientes de dichas distribuciones. Asimismo, usaremos la función MAX para obtener el tiempo de respuesta (que será el máximo de los tiempos de respuesta de cada servidor), y la función SI para determinar qué servidor ha sido el más rápido en responder:
Usaremos también las funciones CONTAR y CONTAR.SI para contar el número de iteraciones y el número de veces que un servidor es más rápido que el otro:
200
Finalmente, las funciones PROMEDIO, DESVEST, e INTERVALO.CONFIANZA nos servirán para obtener, respectivamente, el tiempo muestral medio (esperado) de respuesta, la desviación estándar de la muestra (observaciones que generaremos), y un intervalo de confianza, a un nivel del 95%, para el tiempo medio (este intervalo nos permitirá saber si nuestra estimación es buena o si, por el contrario, necesitaremos más iteraciones). Una vez introducidas las fórmulas anteriores, bastará con seleccionar y “arrastrar” hacia abajo el rango de celdas G3:J3, con lo que se generarán nuevas iteraciones. En la imagen siguiente se muestra el resultado obtenido al generar 2.077 iteraciones. Observar que el tiempo medio estimado de respuesta es de 22,98 minutos, y podemos asegurar, con un nivel de confianza del 95%, que dicho tiempo medio estará entre 22,88 y 23,08 minutos.
Finalmente, se observa también que el servidor 1 ha respondido más rápido que el servidor 2 en el 68% de las iteraciones. Ejemplo: Inversión inicial y flujo de caja Consideremos ahora un nuevo problema: supongamos que disponemos de un capital inicial de 250 dólares que deseamos invertir en una pequeña empresa. Supondremos también que los flujos de caja tanto los de entrada como los de salida- son aleatorios, siguiendo éstos una distribución normal.
Para el primer mes, el valor esperado del flujo de entrada es de 500 Euros, mientras que el valor esperado para el flujo de salida es de 400 Euros. En meses posteriores, el valor esperado será el valor obtenido para en el mes anterior. Por su parte, las desviaciones estándar valdrán, en todos los casos, un 25% del valor
201
medio (esperado) asociado. En base a lo anterior, podemos construir un modelo como se muestra en las siguientes imágenes:
Seleccionando y “arrastrando” hacia abajo el rango G3:O3, hemos obtenido los siguientes resultados para 5.859 iteraciones:
Observamos que el valor esperado para el capital final es de unos 543 dólares, y que podemos afirmar, con un nivel de confianza del 95%, que dicho valor estará entre 527 y 558 dólares. 8.5 Actividades para el Aprendizaje. Luego de visitar estas direcciones de páginas web, elaborar un resumen y/o desarrollar los ejercicios propuestos para el tema correspondiente: Una Aplicación del Método de Monte Carlo en el Análisis de Riesgo de Proyectos: Su automatización a través de una planilla de cálculo. http://www.abcbolsa.com/montecarlo_excel_cyta1.htm El método de Monte Carlo: http://www.monografias.com/trabajos12/carlo/carlo.shtml Simulación: Excel Avanzado, Macro, funciones. http://trucosexcel.blogspot.com/ Resolver los ejercicios al capitulo correspondiente: 202
Cátedra de Métodos Cuantitativos para los Negocios. http://www.unsa.edu.ar/mcneco/mcn_tps.html Programación Matemática http://www.uv.es/~sala/programacion.htm Bienvenidos a los cursos del Área de Operaciones – Descargar ejercicios: http://ucreanop.org/descarga_ejercicios.php
1. Alonso Sanz, Ramón. Problemas Tipos des Teoría de la Decisión. Universidad Politécnica de Madrid. 1997. 2. Caballero Fernandez, Rafael. Gonzales Pareja, Alfonso. Métodos Matemáticos para la Economía. Mc GrawHill. 1992. 3. Castillo, Enrique. Conejo, Antonio J. Pedregal, Pablo. García, Ricardo. Alguacil, Natalia. Formulación y Resolución de Modelos de Programación Matemática en Ingeniería y Ciencia. Universidad de Oviedo. 2002. 4. Chiang, Alpha C. Métodos Fundamentales de Economía Matemática. McGraw Hill. 3ra Edición. 1987. 5. Curso: Métodos Cuantitativos para la Administración – Notas de Cátedra. Facultad de Ciencias Económicas y Jurídica. Universidad Nacional de la Pampa. Argentina. 2007. 6. Delurgio, Stephen A. Pronósticos: Principios y Aplicaciones. Irwin McGraw Hill. 2007. 7. Departamento de Informática. Aprendizaje de Árboles de Decisión. Universidad Nacional de San Luis. Argentina. 2006. 8. Diebold, Francis. Elementos de Pronósticos. Thompson Editores. 1999. 9. Facultad de Ciencias Exactas. Simulación, Método Monte Carlo. Curso de Investigación Operativa I. Universidad Nacional del Centro de la Provincia de Buenos Aires. 2005. 10. Faulin, Javier. Juan, Angel A. Módulo: Simulación de Monte Carlo con Excel. Proyecto e-Math. www.uoc.edu. 11. Font Belaire, Begoña. Programación Matemática: Cuaderno de Teoría y Ejercicios. Departamento de Matemáticas. Universidad de Valencia. 2004. 12. Garcia Quiles, Sergio. Investigación Operativa. Notas de Clase. 13. Gupta, Vijay. Análisis Estadístico con Excel. Excel para Profesionales. VJ books. 2002. 14. Kikut Velarde, Ana Cecilia. Muñoz Salas, Evelyn. Quiros Solanoa, Juan Carlos. Aspectos Conceptuales Sobre Series de Tiempo – Nociones Básicas. Banco Central de Reserva Costa Rica. 2002. 15. Kosciuk, Nicolas H. Sistemas de Información Gerencial. Alfa Epsilon. Argentina. 2005. 16. Leroux, Rosa Maria Garcia de. El Conocimiento para la Toma de Decisiones. Gerentia. Año 8, n°8. Decanato de Investigación y Desarrollo. Universidad Fermin Toro. Venezuela. 2006.
203
17. Linares, Pedro. Ramos, Andrés. Sanchez, Pedro. Sarabia, Angel. Vitoriano, Begoña. Modelos Matemáticos de Optimización. Departamento de Organización Industrial. Universidad Comillas, Madrid. España. 2001. 18. Peña, Daniel. Alonso, Andres M. Sanchez, Ismael. Análisis de Series de Tiempo. Departamento de Estadística. Universidad Carlos III Madrid. España. 19. Pepió Viñals, Montserrat. Series Temporales. Aula Politécnica / ETSEIT. Centro de Recursos de Soporte a la Docencia. Universidad Politécnica de Catalunya. España. 2002. 20. Perez Gorostegui, E. Introducción a la Teoría de la Decisión. Departamento de Economía Financiera, Contabilidad y Dirección de Operaciones. Universidad de Huelva. 2007. 21. Quesada Ibargue, Victor Manuel. Vergara Schmalbach, Juan Carlos. Análisis Cuantitativo con WINQSB. Grupo de Métodos Cuantitativos de Gestión. Universidad de Cartagena. http://www.eumed.net/libros/2006c/216/index.htm 22. Serra de la Figueroa, Daniel. Métodos Cuantitativos para la Toma de Decisiones. Centre de Recerca en Economia i Salud (CRES). Universidad Pempeu Fabra. 2002. 23. Vergara Schamalbach, Juan Carlos. La Programación Lineal. Servicio de Optimización ON – LINE. www.optimos.usach.cl/PM.htm 24. Yu Chuen Tao, Luis. Aplicaciones Prácticas de PERT y CPM. Gestión Deustuo. 5ta. Reimpresión. 1980.
204