Herramientas para La Gestion - 2 Edic - Jorge Pilar PDF
Herramientas para La Gestion - 2 Edic - Jorge Pilar PDF
Herramientas para La Gestion - 2 Edic - Jorge Pilar PDF
~ 2012 ~
http://www.jorgepilar.com/assets/pdf/Herramientas-para-la-gestion_2-edic_Jorge-Pilar.pdf
Pilar, Jorge Víctor
Herramientas para la Gestión y la Toma de Decisiones
2ª ed. - Salta: Editorial Hanne, 2011.
160 p.; 20x20 cm.
ISBN 978-987-1578-80-1
1. Economía. 2. Administración. I. Título
CDD 658
Prólogo ...................................................................................................................................................................... 17
1 Introducción ....................................................................................................................................................... 19
Sobre las decisiones ........................................................................................................................................... 19
Sobre la gestión ................................................................................................................................................... 20
Sobre el presente libro y su organización ......................................................................................................... 22
14
Herramientas para la Gestión y la Toma de Decisiones
7 Planificación y Control de Proyectos: Método Pert-Cpm ....................................................................... 83
Un poco de historia ............................................................................................................................................. 83
Intentando solucionar esos conflictos: el diagrama de red ............................................................................ 85
Tiempos de inicio y de terminación más «próximos» .................................................................................... 87
Tiempos de inicio y de terminación más «lejanos» ........................................................................................ 88
Holgura y camino crítico ..................................................................................................................................... 89
El diagrama PERT-CPM como herramienta de negociación ........................................................................ 90
15
Jorge Víctor Pilar
Reflexiones sobre la planificación .................................................................................................................. 124
- Un ejemplo real .............................................................................................................................................. 124
Reflexiones sobre la acción ............................................................................................................................ 126
El riesgo en la gestión ...................................................................................................................................... 127
¿Se planifica utilizando métodos científicos? ............................................................................................... 128
Reflexiones sobre la comunicación ............................................................................................................... 130
- La comunicación interna ............................................................................................................................... 130
- La comunicación en situaciones de crisis .................................................................................................. 131
A modo de epílogo ............................................................................................................................................ 132
16
Herramientas para la Gestión y la Toma de Decisiones
PRÓLOGO
Me complace presentar a la sociedad de la región y especialmente a la comunidad de la Universidad Nacional del
Nordeste, este libro de autoría del actual Decano de la Facultad de Ingeniería, Dr. Ing. Jorge Pilar, que se suma a la
interesante producción literaria técnica y científica de nuestra Universidad.
Hoy, la temática de este libro ya se ha transformado en casi imprescindible para los jóvenes -y los no tan jóvenes-
que transitan una carrera ejecutiva, y aún para los que en cargos de gestión de importancia comprenden la
necesidad de seguir formándose, reconociendo que la formación académica resulta una constante de nuestro
tiempo.
Aunque el autor haya escrito en el primer capítulo que este libro no es ni pretende ser un manual de gestión, estoy
convencido que será un elemento de consulta para los tomadores de decisiones, ya sea para nutrirse de técnicas
y herramientas de apoyo a la decisión, o bien como material para contrastar sus propias experiencias.
La contracción al trabajo y al estudio de los diferentes y variados temas que presupone la gestión, y pese a la
incertidumbre de los diferentes caminos posibles de recorrer, y de cómo obran las circunstancias en cada momen-
to, existe una rara y compleja combinación que nos permite lograr nuestros objetivos con éxito.
Los que tenemos la responsabilidad de hacer gestión sabemos del equilibrio dinámico que implica esa tarea y la
necesidad de tomar decisiones permanentemente, tal cual lo describe Jorge Pilar en su texto.
Para sortear con perspectivas de éxito ese sinuoso camino, estimo que este libro constituye un valioso aporte y por
ello, en lo personal, celebro esta iniciativa, que a lo largo de once capítulos conjuga, en un equilibrio adecuado
(utilizando la propia terminología del libro), teorías científicas y experiencias personales de su autor en la siempre
compleja tarea de hacer gestión.
Ing. Eduardo E. del Valle
Rector de la UNNE
17
Jorge Víctor Pilar
18
Herramientas para la Gestión y la Toma de Decisiones
1. INTRODUCCIÓN
19
Jorge Víctor Pilar
No es poco común escuchar a personas encargadas de tomar decisiones justificar alguna acción que pretenden
encarar diciendo que la misma, “sin lugar a dudas”, traerá un beneficio máximo a la sociedad o a la empresa a la
que pertenecen. Algunos, inclusive, llegan a asegurar que tal o cual emprendimiento será “bueno, bonito y barato”.
Pero, siendo estrictamente realistas, jamás se encontrará algo que sea, simultáneamente, bueno, bonito y barato.
Entonces, antes de aceptar la realización de cualquier acción que, según se promete, producirá un beneficio
máximo, tal vez sea mejor evaluar también alternativas que hagan mínima la peor de las consecuencias posibles
en el caso que las cosas no salieran según lo planificado. Por lo menos, eso es lo que nos recomienda la moderna
Teoría de las Decisiones.
Arthur Rudolph, uno de los científicos que desarrolló el cohete Saturno 5 que llevó la primera misión Apolo a la Luna,
decía: “Usted proyecta una válvula que no tenga pérdidas. Pero en el mundo real sólo existen válvulas que pierden.
Entonces, es necesario determinar el grado de pérdida que está dispuesto a tolerar”.
Por todo ello, luego de ejecutar una actividad previamente planificada, es conveniente evaluar en qué grado fueron
alcanzados los objetivos previstos, sobre todo teniendo en cuenta que las personas somos naturalmente optimistas
a la hora de planificar. Ello constituye lo que se conoce como control de gestión, y es lo que permite hacer los
ajustes necesarios en los planes de acción para adecuarlos a las circunstancias reales.
Según la Teoría Prospectiva, de Kahneman y Tversky, dos psicólogos israelíes, y que le valiera el Premio Nobel de
Economía 2002 al primero de ellos, las personas reaccionamos de forma muy diferente ante una misma situación que
involucra riesgos, dependiendo de si dicha situación es formulada en términos de ganar, de dejar de ganar o de perder
(Eppen et al, 2000). Existiendo esta asimetría de comportamiento (o tal vez de percepción de la realidad), se debería
tener gran cuidado al juzgar el desempeño de otras personas si es que se busca que ese juicio sea ecuánime.
Algunos, ante un vaso por la mitad, harán un análisis muy simplista y dirán que está “medio vacío”. Otros, con igual
simplismo, argumentarán que, en realidad, el vaso está “medio lleno”. Pero, seguramente no muchos serán lo
suficientemente objetivos para darse cuenta que, tal vez, el vaso podría haber tenido la mitad del tamaño que tiene.
Estos conceptos que parecen como demasiado “técnicos”, o muy “académicos”, están presentes en la mayoría de
las situaciones cotidianas. En realidad, no son muy complicados de entender y algunos hasta parecen (cuasi)
intuitivos. Tal vez sea bueno (y provechoso) reflexionar sobre ellos, aunque sea en forma somera, lo que podría
redundar en tomar mejores decisiones.
Sobre la gestión
Existen palabras que por el uso cotidiano e indiscriminado van, paulatinamente, perdiendo su significado e impor-
tancia. Inclusive llegan a confundirse con otras con las que, originariamente, no tenían ninguna relación. Es, por
ejemplo, el caso de los términos gestión y gerenciamiento.
20
Herramientas para la Gestión y la Toma de Decisiones
La gestión es una actividad analítica y creativa, que tiene por meta la formulación de principios, directrices, normas
y, también, la estructuración de sistemas gerenciales y de toma de decisiones sobre el presente y futuro de “algo”
(una empresa, o una institución, los recursos naturales, la salud pública, etc.).
Como puede verse, la gestión abarca al gerenciamiento y no a la inversa. La gestión tiene una connotación más
amplia y general, mientras que el gerenciamiento se restringe a una actividad administrativa y cotidiana.
La gestión está constituida (o por lo menos debería estarlo) por los siguientes elementos (Lanna, 1998):
- Política: formada por un conjunto coherente de principios y doctrinas que reflejen los deseos y expectativas de
los individuos y grupos de personas a los que está destinada la acción de gestión.
- Plan Director: es un estudio prospectivo, orientado a definir prioridades en los pasos que se seguirán, además
de adecuar el uso y control de los recursos a invertir, a las expectativas de los individuos y grupos de personas
a los que está destinada la acción de gestión, expresadas formal o informalmente (explícita o implícitamente)
en la Política. La actividad de elaboración de estos planes se denomina, naturalmente, Planeamiento.
- Gerenciamiento: es el conjunto de acciones administrativas, normativas y cotidianas destinadas a regular y
reglamentar el uso de los recursos que se invierten e invertirán en la puesta en práctica del Plan Director.
G E S T I Ó N
P OL Í T I C A
PLANEAMIENTO
P L A N D I R E CT OR
ESTRATÉGICO
PLANEAMIENTO
GE R E N CI AM I E N T O
TÁCTICO
21
Jorge Víctor Pilar
El gerenciamiento es, en definitiva, una acción de gobierno (tanto de instituciones privadas, como de organismos
y dependencias estatales) y debería estar constituido por:
22
Herramientas para la Gestión y la Toma de Decisiones
¿Qué es la Estadística?
Cuando tenemos un conjunto de datos, la Estadística nos ayudará a clasificarlos, para luego analizarlos, y nos
ofrece formas de resumir sus características. En este caso estamos hablando de Estadística Descriptiva.
Si esos datos pertenecen a una población mucho mayor y son una muestra representativa de la misma, la Estadís-
tica nos permitirá hacer una estimativa de las características de la población con base en esos datos. Ahora,
estamos hablando de Inferencia Estadística.
Podríamos decir que la Estadística Descriptiva mira (y describe) el pasado, mientras que la Inferencia Estadís-
tica intenta vislumbrar el futuro, siempre desconocido, por cierto.
Nótese que hemos mencionado muy livianamente, casi como al pasar, que la muestra es representativa de la
población, como si ello fuese un dato meramente anecdótico.
23
Jorge Víctor Pilar
Sin embargo, es una cuestión central en la inferencia estadística, aunque –y es importante destacarlo– es muy
difícil probar y/o garantizar esa representatividad, entre otros motivos, porque no es posible que una muestra
consiga representar exactamente a la población ¡La incertidumbre estará siempre presente!
Y entonces, ¿qué se podría hacer?... Podría intentarse determinar el grado de acierto de la estimativa, o sea la
probabilidad de su ocurrencia.
Pero volviendo al tema de la representatividad de una muestra, para garantizarla sería necesario conocer la pobla-
ción. Por ejemplo, cuando alguien va al casino a jugar a (o, mejor dicho, contra la) ruleta, sabe que hay 37 números
con posibilidades de salir, incluido el cero (aunque ahora son 38, pues la ruleta hoy tiene 2 ceros).
Sin embargo, hay casos más complejos, como cuando se va a proyectar una importante obra de ingeniería, por
ejemplo una red de drenaje pluvial, o las defensas contra inundaciones de una ciudad, en cuyo caso hay que
pensar que las mismas deberán servir satisfactoriamente ante la ocurrencia de situaciones críticas de cierta
magnitud, inclusive en la contingencia que ocurriese un evento nunca observado ¿Cómo se podría abordar esto?
24
Herramientas para la Gestión y la Toma de Decisiones
Hay otra visión de las probabilidades, la bayesiana, según la cual se puede asignar probabilidades a cualquier
declaración, inclusive cuando ella no se refiere a un proceso aleatorio, como una manera de representar su
verosimilitud (subjetivamente, es claro).
En concordancia con esa interpretación, es común que la gente haga estimativas de las posibilidades de eventos
futuros (“Dios es argentino...”, o “estamos condenados al éxito...”, o “asociate conmigo, que hay un 85% de probabili-
dades que el negocio sea un éxito”, etc.). Esas estimativas son probabilidades subjetivas (puro “meparezómetro”).
El riesgo
Y, ¿cómo se relaciona todo esto con el riesgo? En el caso de los juegos de azar, si la probabilidad objetiva de acertar
un número es 1/(N° de eventos posibles), el riesgo de no acertar será (N° de eventos posibles – N° de eventos
favorables) / (N° de eventos posibles), o sea (N° de eventos desfavorables) / (N° de eventos posibles).
Pero, cuando no se conoce el número de eventos posibles, el abordaje basado en frecuencias no ayudará mucho...
¿Qué hacer entonces?
Planteemos esta misma pregunta de otra forma: sabemos objetivamente cuál es la probabilidad de ganar en la
ruleta (y, simultáneamente, el riesgo de no ganar), pues conocemos el número de eventos posibles. Pero, ¿cómo
calcular la probabilidad de ocurrencia de un evento crítico nunca registrado?
Continuando con las elucubraciones del comienzo del capítulo: ¿cómo podemos tener certeza de una identifica-
ción basada en probabilidades?... En realidad, sólo podremos tener una cuasi certeza.
Por ejemplo, muchas veces estamos “casi” seguros del sexo de una persona que cruzamos en la calle: los
hombres con frecuencia son más altos y robustos, tienen los pies más grandes (fenotipo y genotipo), usan el cabello
más corto, etc. Cada una de esas características tomadas aisladamente es poco confiable, pero el conjunto no
deja lugar a dudas razonables (Ruelle, 1993).
Acaso y caos
Entropía = k • log (N° de historias posibles) (2.1)
La ecuación (2.1), si bien es una fórmula, encierra un concepto interesante y podría ser una forma de caracterizar
el denominador de la Ley de Laplace.
En muchos casos, especialmente en los fenómenos naturales, existe una hipersensibilidad a las condiciones
iniciales: cambiando sólo un poco el estado inicial de un sistema, su nueva evolución puede divergir rápidamente
25
Jorge Víctor Pilar
(exponencialmente) de otra, hasta que desaparezca cualquier semejanza entre ambas evoluciones. En esas
situaciones se habla de caos.
La predicción del comportamiento futuro de un sistema caótico es severamente limitada (piense el lector en los
pronósticos meteorológicos, por ejemplo), aunque el sistema sea en sí determinístico. ¿Caótico, pero al mismo
tiempo determinístico?
Uno de los primeros ecologistas científicos, el físico australiano Robert May, planteó una vez la siguiente pregunta
(palabras más, palabras menos): “Dada una superficie de terreno y en ella hay una cierta cantidad de parejas de
conejos, ¿cuántos conejos podrían esperarse al cabo de un año?”
Para responder con cierta precisión su pregunta, que parecía casi una broma o una ingenuidad, aplicó un modelo
matemático simple, pero no lineal. Por ello, era posible obtener una enorme cantidad de soluciones cambiando
los parámetros (Mindlin, 2008).
El modelo expresaba, en tiempos discretos, la dinámica de la población, que era representada como una fracción
de la máxima carga de individuos que podía albergar la superficie de terreno en función de los alimentos en ella
disponibles (pasturas, agua, etc.). La población en un intervalo (yn) era igual a la población en el intervalo anterior
(yn-1), multiplicada por una tasa de reproducción “r” y también por un factor de decaimiento, que expresa que
cuando la población estuviera cercana al límite de sustentabilidad de ese terreno podría faltar comida y, por lo tanto,
o bien la población crecería poco, o bien comenzaría a decaer:
Ecuaciones como la (2.2) son denominadas recursivas y sirven para representar lo que algunos llaman caos
determinístico. La fig. 2.1 muestra la evolución de esa ecuación para diferentes condiciones iniciales y diferentes
tasas de reproducción.
Puede verse que con una población inicial muy por debajo de la capacidad de sustento de esa porción de terreno
y una tasa de reproducción relativamente baja (y0 = 0,1 y r = 2,5), la población tiene posibilidades de prosperar y
rápidamente se estabiliza en alrededor del 60% de la máxima capacidad de sustento del terreno. Sin embargo,
para una población inicial y0 = 0,95 y una tasa de reproducción mucho mayor, r = 3,7 , la dinámica de la población
sigue un comportamiento que muchos podrían caracterizar, a simple vista, como aleatorio.
Por ello, es imprescindible un análisis previo de los datos y de su dinámica para evitar caracterizar fenómenos
determinísticos, aunque caóticos, como simplemente aleatorios. En general, los fenómenos naturales dan lugar a
evoluciones temporales caóticas.
26
Herramientas para la Gestión y la Toma de Decisiones
1 1
0.8 0.8
Valores de y
Valores de y
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
Intervalos Intervalos
yo=0,95 r=3,7
1
Ecuación recursiva:
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30 35 40 45 50
Intervalos
Aunque un sistema presente el fenómeno de dependencia hipersensible a las condiciones iniciales, ello no impli-
ca que no se pueda predecir algo sobre el futuro del mismo. Para abordar este problema estamos limitados, a falta
de una mejor opción, al buen criterio.
La teoría habitual del caos trata de evoluciones temporales recurrentes, o sea, sistemas que retornan incansa-
blemente a estados próximos (semejantes) a otros ya ocurridos en el pasado.
Ese eterno retorno se da, en general, sólo en sistemas moderadamente complejos. (La evolución de los sistemas
muy complejos es típicamente sin repetición y, además, hay dependencia hipersensible a las condiciones iniciales.)
27
Jorge Víctor Pilar
ja. Por eso se dice que son procesos estocásticos: parcialmente predecibles en el espacio y el tiempo, y parcial-
mente aleatorios (Chow, Maidment y Mays, 1994).
En algunos casos, la variabilidad aleatoria es tan grande que se decide tratar al proceso como si fuese puramente
aleatorio y por ello se acepta que el valor de una observación (cantidad medida) no está correlacionado con los
valores de observaciones adyacentes (es decir, parecidas en la cantidad).
O sea, se está aceptando que, estadísticamente hablando, las observaciones de una (alguna) variable natural
tienen la misma importancia, es decir que esas observaciones son independientes.
Es importante tener siempre presente que los métodos estadísticos se focalizan en los valores y no en los procesos
físicos que producen esos valores. La Estadística no estudia causalidad.
Volvamos a la pregunta que todavía no respondimos: ¿cómo calcular la probabilidad de ocurrencia de un evento
nunca registrado?
Los métodos frecuencistas permitirán hacer estimativas probabilísticas dentro del rango de los valores observa-
dos (algo así como interpolaciones). Pero, por ejemplo, en el caso de estar proyectándose obras cuya falla involu-
cre la posibilidad de pérdidas de vidas humanas o de bienes materiales por montos importantes es preciso estar
preparados para eventos tal vez nunca registrados, pero posibles.
En esos casos, los registros históricos y el procesamiento estadístico de los mismos (con todo el rigor y purismo que
exigen estos métodos) permitirán hacer ajustes de distribuciones de probabilidades a esos registros, lo que, a su
vez, permitirá asignar un valor de probabilidades a eventos extremos nunca registrados.
Antes de avanzar, analicemos un ejemplo de ajuste de una distribución:
Ejemplo:
Supongamos que tenemos una caja con cuatro bolitas (población conocida en cantidad) y que sólo sabemos
que son blancas o negras, pero no sabemos en qué proporción.
Sea P(B) la proporción (desconocida) de blancas. Esta proporción puede ser:
0 1 2 3 4
P (B ) = , ó , ó , ó , ó
4 4 4 4 4
Supongamos que hacemos dos muestreos con devolución y que obtenemos 1 blanca y 1 negra ¿Cómo podría
estimarse la distribución a partir de esta muestra?
El método de la máxima verosimilitud consiste en admitir que la distribución de la población es la que daría la
máxima probabilidad al suceso (muestra) considerado.
28
Herramientas para la Gestión y la Toma de Decisiones
Podríamos hacer una tabla colocando las proporciones posibles de blancas y las correspondientes probabilida-
des de la muestra obtenida según estas presuntas proporciones de blancas:
La pregunta obligada parecería ser: ¿por qué no abrir la bolsa, mirar lo que hay adentro y asunto terminado?
Si no creemos mucho lo que acabamos de hacer –y eso que conocemos la cantidad de bolitas dentro de la bolsa–
¿por qué deberíamos creer cuando le atribuimos (calculamos) alguna probabilidad de ocurrencia muy baja a un
evento extremo observado?
Hay que ser muy objetivos y honestos al analizar los resultados de los análisis probabilísticos. Si consideramos que
la situación actual sería un “promedio entre lo que fue y lo que será”, luego, con “N” años de datos sólo podríamos
hacer predicciones razonablemente creíbles de eventos con una probabilidad no menor a 1/N.
¿Y, si según nuestro análisis, un evento observado presentara una probabilidad de, digamos, 1/1.000?... Si es que
no se cuenta con una serie de, por lo menos, 500 valores, lo máximo que se podría (debería) afirmar es que el
evento es poco probable. En ese caso sería lógico presuponer que, tal vez, se cuenta con un exceso de registros
de valores bajos y medios de la variable analizada.
29
Jorge Víctor Pilar
Los criterios modernos son más realistas, pues buscan:
- evaluar las consecuencias de una falla en vez de preocuparse por la ocurrencia o no de la propia falla;
- que el sistema sea seguro en la falla.
La sensibilidad popular se orienta más por un criterio minimax (minimizar el máximo daño posible,
es decir, lo mejor de lo peor) y no por maximizar garantías.
En vez de preocuparse por la ocurrencia de una falla, podría ser más pertinente (y conducente) hacerse las
siguientes preguntas:
- ¿Con qué frecuencia se produce la falla?
- ¿Cuál es la rapidez con que el sistema retorna al estado satisfactorio?
- ¿Son significativas las consecuencias de la falla?
Esas cuestiones de interés se corresponden con los conceptos de (Sahuquillo, 1993):
- Riesgo / Garantía.
- Resiliencia.
- Vulnerabilidad.
Por ejemplo, los cultivos necesitan de agua, en especial durante la época de floración. Son vulnerables a la falta de
agua. Hasta cierto punto, las plantas se recuperan una vez que el agua llega. Pero, pasado este límite, no se
recuperarán más, la marchitez es irreversible y la resiliencia desaparece.
Por eso, a la hora de planificar y tomar decisiones, es importante hacer un adecuado balance entre el riesgo, la
vulnerabilidad y la resiliencia.
30
Herramientas para la Gestión y la Toma de Decisiones
Aunque el riesgo de falla de una central atómica sea tan bajo como uno en muchos millones, difícilmente alguien
en su sano juicio comprará un lote de terreno al lado de una de esas usinas, por más barato que sea su precio, pues
las consecuencias de una falla son intolerables, a pesar de ser muy poco probable.
Continuando con este razonamiento, las probabilidades de ganar la lotería son muy bajas. De todas formas, las
consecuencias de no ganarla no pasan de perder los pocos pesos que costó el billete. Por ello, por lo menos los
fines de año, yo también me juego un numerito.
Las definiciones dadas arriba NO deben ser tomadas como una verdad absoluta; a lo sumo, son la verdad del autor.
?
EFICIENCIA
VULNERABILIDAD
En la Fig. 2.2 se intentó representar que la eficiencia y la vulnerabilidad crecen en el mismo sentido: a medida que
un sistema es más eficiente, al mismo tiempo es más vulnerable.
Por ejemplo, si se concentran todos los efluentes cloacales de una ciudad en una única planta de tratamiento, una
falla del sistema podría causar un verdadero desastre (en salud pública, ambiental, etc.). Siguiendo con los ejem-
plos, si invertimos todos nuestros ahorros en depósitos a plazo fijo de un banco que da intereses muy altos, la
eventualidad de la quiebra de ese banco nos haría perder todo nuestro dinero (los argentinos entendemos algo de
esto...).
Desde una óptica estrictamente matemática el riesgo de falla de, por ejemplo una obra, es la probabilidad que las
condiciones de diseño “X” sean superadas:
1
Riesgo de falla = Probab (X) = (2.3)
TR
31
Jorge Víctor Pilar
En la ecuación (2.3), TR es el tiempo de recurrencia, o sea, el tiempo que, en promedio debe transcurrir para que
un evento sea igualado o superado (se resalta en promedio). O sea, NO debe medirse con un almanaque, ni con un
reloj; es un valor promedio, de referencia.
Pero la adopción de eventos críticos de diseño con muy baja probabilidad, o, simultáneamente, tiempo de recu-
rrencia alto, nos pone frente a un dilema como el presentado renglones arriba. Si, por ejemplo, la cota de corona-
miento de una presa para defensas contra inundaciones fue definida teniendo en cuenta un evento con muchos
cientos de años de TR, una falla de la misma en oportunidad de una inundación provocará consecuencias muy
dramáticas para la población protegida.
Entonces, teniendo en cuenta lo recién expresado, una presa con un coronamiento “alto”, ¿disminuye el riesgo de
inundaciones?
Tal vez esa pregunta no sea pertinente ni conducente y correspondiera otro tipo de razonamiento. En todo caso, una
población protegida de inundaciones fluviales por una presa con un coronamiento “alto” tendría tiempo: tiempo
para tomar decisiones sin apresuramientos, como por ejemplo organizar la evacuación ordenada de la población
en caso de producirse una crecida similar a la provocada por el evento de diseño, en vez de ponerse a rezar para
que la presa no falle.
Pronósticos probabilísticos
¿Qué se entiende cuando el pronóstico meteorológico anuncia: “la probabilidad de lluvias para el próximo sábado
es 75%”?
- Si el sábado lloviera, ¿el pronóstico habrá acertado?... Sí.
- ¿Y si no lloviera?... ¡También habrá acertado! (pues está dentro del 25% de probabilidades de que no llueva).
¿Y entonces?... En principio, es importante resaltar:
Volviendo a la pregunta: ¿qué significa 75% de probabilidades de lluvia? ¿Que en el observatorio meteorológico
hay 4 observadores y 3 opinan que va a llover, mientras que el restante opina que no va a llover?...
Aunque parezca jocoso, lo expresado no está muy lejos de la realidad. Gran parte del conocimiento meteorológico
es sistematizado en un programa computacional de predicción meteorológica. Se lo carga con las condiciones y
32
Herramientas para la Gestión y la Toma de Decisiones
datos actuales y se lo hace trabajar, digamos, 1.000 veces. Entonces, el programa arroja 750 resultados “lluvia para
el sábado” y los restantes 250 resultados, “sin lluvia el sábado”.
Esta predicción en formato “riesgo”, en realidad está dando algo así como una cuantificación de nuestra incerti-
dumbre sobre la lluvia del próximo sábado (Ruelle, 1993), pues el sábado, o lloverá, o no lloverá; no existe el evento
“llovió 75%”.
Y entonces, ¿para qué sirven los pronósticos probabilísticos?... Para ponderar situaciones.
Pero, ¿cómo se hace para ponderar situaciones?1 Primero, hay que elaborar lo que se denomina matriz de
contingencias (Taha, 1995; Eppen et al, 2000):
75 % 25 %
Futuros SI NO
Llueve Llueve
Decisiones
Las matrices de contingencias reflejan cómo el decisor valora las situaciones, sea positiva o negativamente. La
matriz de la Fig. 2.3 fue llenada por el autor, según su percepción de la situación (arriba de los futuros posibles se
indica su respectiva probabilidad de ocurrencia). El razonamiento seguido para rellenarla fue el siguiente:
“El sábado en cuestión deberé asistir a una fiesta, que exige llevar traje. Entonces, si llevo paraguas y lloviera no
tendré consecuencias negativas; pero si no lloviera perderé el paraguas (por lo menos eso es lo que indica mi
experiencia) y su reposición me costará $ 25. A su vez, si no llevo paraguas y lloviera, deberé mandar el traje a
una tintorería, que me cobrará $ 40 por el servicio (la que yo utilizo es bastante barata, por cierto); y si no lloviera,
no pasaría nada”.
Evidentemente, la matriz se ha llenado con las consecuencias negativas (costos) de las diferentes decisiones que
podrían ser tomadas en casos como el planteado. O sea, las decisiones del autor están más influenciadas por las
consecuencias negativas que por las positivas, mientras que para otro tomador de decisiones la percepción del
problema podría ser una totalmente diferente.
1 Este tema será desarrollado en detalle más adelante, en el Capítulo 4, “Fundamentos sobre Teoría de la Decisión”.
33
Jorge Víctor Pilar
Como se conocen las probabilidades de ocurrencia de cada uno de los futuros posibles se podrá calcular el valor
esperado de las consecuencias de cada decisión, multiplicando la matriz de contingencias por el vector de las
probabilidades de los futuros posibles (Fig. 2.4):
75 % 25 %
Futuros SI NO
Llueve Llueve
Decisiones
Como la matriz de contingencias fue rellenada con las consecuencias negativas asociadas a cada decisión
posible, el último vector (el de la derecha) indicará los valores esperados de las consecuencias negativas de cada
decisión posible de ser tomada. Por lo tanto, si la matriz de contingencias reflejara razonablemente la percepción
sobre la situación del tomador de decisiones, en este caso el autor, le convendría adoptar la decisión 1, es decir,
llevar paraguas, que tiene el menor valor esperado de consecuencias negativas ($ 6,25 contra $ 30).
34
Herramientas para la Gestión y la Toma de Decisiones
La Investigación de Operaciones
La ciencia que estudia las decisiones y las herramientas para que las mismas sean, en algún sentido, las mejores,
es la Investigación de Operaciones. Ella estudia formalmente la mejor manera de asignar recursos escasos
entre actividades que compiten por ellos
Las primeras noticias que se tienen sobre aplicaciones de esta ciencia se remontan a la Antigua Grecia: cuenta una
historia que las autoridades de Siracusa pidieron a Arquímedes que estudiara la mejor forma de posicionar los barcos
de guerra de la ciudad para que estos pudieran hacerse a la mar lo más rápidamente posible en caso de un ataque.
El término Investigación de Operaciones se utilizó por primera vez durante la Segunda Guerra Mundial, cuando las
fuerzas armadas de los “aliados” formaron grupos especiales, constituidos por científicos de las más variadas
ramas del saber (físicos, matemáticos, ingenieros, biólogos, entre otros), que tenían por misión preparar proyectos
de decisiones para operaciones militares (Taha, 1995).
Los problemas típicos de la Investigación de Operaciones consisten en que, dadas ciertas condiciones que carac-
terizan una situación (disponibilidad de recursos, por ejemplo), se requiere tomar una decisión de forma tal que la
actividad que se está programando (operación) resulte ser la más beneficiosa desde algún punto de vista o criterio
(objetivo).
La Investigación de Operaciones trata de la aplicación de métodos matemáticos cuantitativos para argumentar
decisiones orientadas hacia alguna finalidad (Taha, 1995; Eppen et al 2000; Ventsel, 1983).
La necesidad de tomar decisiones es tan antigua como la humanidad. Hasta cierto punto, en cualquier esfera
práctica, las decisiones se toman sobre la base de la experiencia y del sentido común, sin efectuar cálculos
especiales. Pero existen situaciones que requieren tomar decisiones muy importantes y que pueden afectar las
vidas (o bienes) de muchas personas.
En esos casos, ¿sería admisible una decisión arbitraria o voluntarista? En realidad, ante casos así, también es
posible escoger una decisión de forma intuitiva, con base en la experiencia previa y el sentido común, tal como
sucede frecuentemente. Sin embargo, ¿no sería más razonable hacer algún tipo de cálculo matemático previo? Esos
cálculos podrían evitar largas y costosas búsquedas “a ciegas” de una buena solución (y la correspondiente decisión).
35
Jorge Víctor Pilar
En ese contexto, el aporte de la Investigación de Operaciones es una ponderación matemática previa de las
consecuencias futuras de las decisiones que podrían ser tomadas, lo que permitirá ahorrar tiempo, esfuerzos
personales y materiales, y/o evitar errores graves, los que a veces pueden ser irreversibles.
Insistir en basarse en la experiencia previa puede ser muy audaz y, tal vez, una negligencia, pues siempre quedará
la duda de si las decisiones anteriores fueron o no las mejores, o simplemente funcionaron bien (o no) por una
cuestión fortuita.
La tecnología avanza tan rápido que es imposible adquirir la experiencia previa necesaria a ese ritmo, sin contar
que, en la actualidad, es necesario tomar decisiones sobre actividades hasta el presente únicas en su género y que
no tienen precedentes.
En esos casos la experiencia no tendrá posibilidades de aportar gran cosa y el sentido común hasta podría jugar
una mala pasada y conducir a engaños si las decisiones no se apoyan en los debidos cálculos previos.
Nociones generales
Se define una operación como una actividad orientada hacia una determinada finalidad. Una decisión se consi-
dera óptima si es mejor que cualquiera de las decisiones factibles y según algún criterio de comparación.
La finalidad de la Investigación de Operaciones consiste en argumentar, previa y cuantitativamente, las decisiones
óptimas. La Investigación de Operaciones no incluye al proceso de adoptar soluciones (tomar decisiones), tarea
que le corresponde al decisor, que puede ser una persona o un grupo de personas. El decisor tiene la facultad de
aplicar las soluciones propuestas y es responsable de sus consecuencias.
Es importante destacar que el propio proceso de crear un modelo de apoyo a la decisión y la elección de las
variables y de los parámetros constituyen, también, decisiones muy importantes.
Los parámetros y variables que configuran una decisión se denominan elementos de decisión, y pueden ser
escalares, vectores, funciones, funcionales, índices físicos o económicos, “ratios”, etc.
Las situaciones problemas, además, suelen poseer condiciones preestablecidas y que no pueden ser alteradas ni
soslayadas. Éstas se denominan restricciones.
Las soluciones que satisfacen (todas) las restricciones conforman el conjunto de las soluciones viables. La
solución viable más eficiente se denomina solución óptima.
Para comparar las eficiencias de las soluciones viables es preciso utilizar algún criterio cuantitativo o índice de
eficiencia, o función finalidad, o función criterio, o función objetivo, término que será utilizado en este texto.
Muchas veces, la realización de una operación está asociada a factores aleatorios (lluvias, cambios en los precios,
cambios en la oferta-demanda, etc.). En esos casos es imposible pensar en optimizar alguna función de variables
aleatorias, por lo que se recurre a optimizar, por ejemplo, un valor esperado (esperanza matemática).
36
Herramientas para la Gestión y la Toma de Decisiones
La elección de la función objetivo es un punto central en la Investigación de Operaciones. Por eso es necesario,
ante todo, elegir algún índice natural de eficiencia a ser optimizado. Desgraciadamente, para la mayoría de los
problemas que tienen algún sentido práctico, no es sencilla la elección de este índice o función objetivo.
Peor aún, existen casos en los cuales no existe un único índice que refleje el espíritu de la operación (es el
conocido caso de la búsqueda de algo bueno, bonito y barato). Estos casos se conocen como problemas de
optimización multiobjetivo.
SISTEMA
MODELO
REAL
IDEALIZADO
En la Fig. 3.2 el sistema real aparece “nebuloso”, sin límites claros. Dentro de él se intenta delimitar, con una visión
sistémica, el problema a través de un modelo conceptual (el pentágono de la figura); posteriormente, aplicando
ecuaciones se transforma ese modelo conceptual en un modelo matemático (el rectángulo). Sin embargo, nótese
que en cada una de las dos transformaciones se perdió “algo” (el rectángulo es la expresión matemática del
pentágono, que a su vez es la representación del problema, que pertenece al mundo real, inconmensurable y difícil
de delimitar).
37
Jorge Víctor Pilar
Luego, aplicando algún método o técnica matemáticos se resuelve el modelo, pero ello no necesariamente
implica resolver el problema. Sólo se resolvió el modelo matemático, que tal vez refleje razonablemente el modelo
conceptual, que tal vez refleje razonablemente el problema real.
Entonces, al resolver un problema se está resolviendo una abstracción (el modelo) y no el problema real. Por tanto,
la solución será buena sólo si el modelo utilizado representa razonablemente el problema real.
Para elaborar los modelos no existen “recetas de cocina”, especialmente para realizar las abstracciones necesa-
rias. La reducción del total de las variables que controlan el sistema real a un número manejable tiene mucho de
ciencia, pero también de arte.
Sin embargo, es posible afirmar que para lograr un modelo “bastante” bueno, es necesario conjugar: 1) una
precisión razonablemente buena, y 2) la cantidad y confiabilidad de la información necesaria.
Es absolutamente ocioso (y a veces hasta resulta en errores groseros) utilizar modelos muy detallados cuando los
datos de entrada no son confiables o suficientes. Es el caso de aplicar modelos que requieren intervalos horarios
cuando sólo se cuenta con datos diarios.
En fin, en la construcción de modelos existen dos riesgos: 1) llenarse de detalles y 2) generalizar demasiado. Por
eso, siempre es bueno dudar de cualquier modelo y comparar los resultados de varios. Si los resultados no difieren
mucho, ello será un buen argumento a favor de la solución obtenida.
La elaboración del modelo matemático constituye la mitad de la parte más importante de la Investigación de
Operaciones. El mejor modelador es, normalmente un profesional que conoce muy bien el fenómeno o proceso
que está modelando y que ha perfeccionado su conocimiento de matemática. La otra mitad corresponde a saber
interpretar los resultados y con ellos elaborar recomendaciones para los tomadores de decisiones.
38
Herramientas para la Gestión y la Toma de Decisiones
En los modelos de simulación la relación entre entrada y salida del modelo no es explícita, dividiéndose al
problema en varios módulos interligados por relaciones lógicas del tipo “si..., entonces”.
En los modelos de optimización la relación entre la función objetivo y las restricciones del problema se expresan
como funciones de las variables de decisión.
Sin embargo, en algunos problemas, puede ocurrir que no sea posible una representación matemática adecuada
de esas relaciones, ya sea por existir demasiadas variables, o por existir demasiadas restricciones, etc. Para salvar
ello, a veces (y equivocadamente) se simplifica bastante el problema real, lo que lleva a que los modelos de
optimización tiendan a considerar al problema de una forma poco detallada, inclusive muy alejada de la realidad.
Además, aunque el problema pueda ser adecuadamente formulado, nada garantiza que él tenga solución. En los
casos en los que no tuviera, los modelos de simulación son más recomendables, por ofrecer mayor flexibilidad. Esa
facilidad radica en que esos modelos enfocan al problema desde un nivel básico elemental: en la simulación se
tiene la seguridad que siempre se encontrará una solución al problema (aunque a veces de forma muy demorada).
Pero entiéndase bien, si el problema consiste en encontrar la mejor solución, el camino es la optimización. Si se
recurriera a la simulación, el resultado obtenido será sólo el mejor de entre las pocas (o no tan pocas) alternativas
que fueron chequeadas.
Matemáticamente hablando, la optimización produce soluciones que revisten el carácter de óptimos globales,
mientras que la simulación sólo producirá soluciones que son óptimos locales, o subóptimos.
Para resolver los problemas de optimización existen dos formas de abordaje (Ventsel, 1983):
a) el indirecto, o analítico (que sigue la secuencia de lo que se enseña en Cálculo: el análisis de las derivadas
primeras, luego de las segundas, etc.);
b) el directo, o numérico, muy apropiado para aquellos casos en que se tienen cientos (o miles) de variables de
decisión y un número similar de restricciones.
39
Jorge Víctor Pilar
Sea el problema conocido como “problema del vendedor viajero”, en el cual un vendedor
debe recorrer 5 ciudades y finalizar en la que comenzó. ¿Cuál es el recorrido más corto?
5 3
1 6 3
3 7 8 6
4 2
5 1 4
40
Herramientas para la Gestión y la Toma de Decisiones
Tal vez, la mejor forma de encarar la solución de problemas reales y concretos sea la utilización combinada de
modelos de optimización, junto con modelos de simulación y/o heurísticos. P/ej., se podrían buscar las mejores
soluciones a través de la optimización y verificar si esas soluciones tienen o no algún sentido físico real a través de
la simulación.
- Meta: es una intención u objetivo muy genérico, atendible a través de objetivos más específicos.
- Atributos (o criterios, o aspectos): son los elementos que permiten cuantificar en qué medida son alcanza-
das las metas (o, eventualmente, los objetivos).
- Analista: es la persona que evalúa en profundidad los problemas y elaboran los modelos para representarlos.
- Decisor: es la persona (o grupo de personas) que directa o indirectamente define las restricciones de los
problemas y especifica los objetivos y los propósitos a ser alcanzados, además de aceptar aplicar o no las
propuestas de solución.
41
Jorge Víctor Pilar
42
Herramientas para la Gestión y la Toma de Decisiones
La validación consiste en verificar si la solución obtenida tiene o no sentido real. Es común utilizar modelos de
simulación para validar los resultados de los modelos de optimización. Otra forma de validación comúnmente
utilizada es aplicar el modelo a situaciones pasadas conocidas.
La fase de puesta en práctica de las soluciones consiste en traducir los resultados en recomendaciones para los
tomadores de decisiones.
Podría decirse, parafraseando a Thomas Saaty, que la Investigación de Operaciones es el arte de dar malas
recomendaciones, siendo que de cualquier otra forma éstas serían aun peores.
43
Jorge Víctor Pilar
44
Herramientas para la Gestión y la Toma de Decisiones
En estas situaciones triviales, las decisiones se toman con base en el sentido común, sin mucho análisis previo. Al
fin y al cabo, si la decisión es equivocada, las consecuencias no pasarán de un resfriado o un atraso al llegar al
trabajo.
Sin embargo, antes de tomar una decisión cuyas consecuencias afecten a personas o sus bienes (inclusive de
forma irreversible), sería importante detenerse un momento a reflexionar
¿Qué deberíamos entender por “detenerse a reflexionar”? Por supuesto que ello no debe ser asociado a paralizarse
por el pánico. Lo que haría cualquier ser racional es contrastar el abanico de las posibles decisiones que se
puedan tomar, contra las situaciones posibles de suceder en el futuro. Es decir, elaboraría una tabla o matriz de
contingencias (Tabla 4.1).
45
Jorge Víctor Pilar
En la matriz de la Tabla 4.1 “rij” es el resultado (costo o beneficio) de tomar la decisión “i” en caso que ocurriera el
futuro (posible) “j”.
Modelos de decisión
Existen, por lo menos, tres tipos de modelo de decisión, que difieren en el tipo de información disponible (Eppen et
al, 2000):
a. decisiones bajo certeza absoluta;
b. decisiones bajo riesgo y
c. decisiones bajo incertidumbre.
46
Herramientas para la Gestión y la Toma de Decisiones
Muchas veces, las probabilidades de que algo ocurra no están perfectamente cuantificadas pero, de todas formas,
suponemos que el conocimiento aproximado de este “algo” es mejor que nada e, igualmente, encaramos esta
situación como una decisión bajo riesgo.
Supongamos otra situación hipotética (que es una variante de un ejemplo presentado por Eppen et al, 2000): que
la empresa para la que trabajamos fabrica zapatos femeninos y existe la posibilidad de fabricar 1, 2 ó 3 lotes de
zapatos, o no fabricar ninguno (agotar el stock disponible), a un costo de $ 40 mil por lote, los que serán vendidos
a $ 60 mil cada uno. Supongamos, además, que no existe posibilidad que la demanda supere los 3 lotes (dato
arrojado por un reciente estudio de mercado) y que, en caso de no satisfacer una demanda, cada comercio
distribuidor insatisfecho pueda decidir comenzar a comercializar otra marca y que esta pérdida de “exclusividad”
ha sido evaluada en $ 45 mil por lote (el propietario ha observado que, en general, las mujeres, cuando deciden
comprar zapatos para ellas, también compran zapatos para el resto de la familia) ¿Qué decisión tomar?
Entonces, lo primero que debemos hacer es elaborar la matriz de contingencias (Tabla 4.2):
Demandas posibles
Decisión
(Fabricar...) 0 1 2 3
0 0 -45 -90 -135
1 -40 20 -25 -70
2 -80 -20 40 -5
3 -120 -60 0 60
La matriz de la Tabla 4.2 fue montada considerando los beneficios netos de cada decisión, en miles de pesos,
según cada una de las demandas posibles.
Por ejemplo el valor “r21” (resultado de fabricar dos lotes de zapatos, siendo que la demanda fue de tan sólo uno) fue
calculado como:
Es decir, 1 lote vendido a $ 60 mil, 2 fabricados, a $ 40 mil cada uno y ninguna demanda insatisfecha.
¿Y cómo se sigue? Supongamos que el antes mencionado estudio de mercado que hemos contratado indicó,
además, que las probabilidades de las distintas demandas son:
47
Jorge Víctor Pilar
P0 = Probabilidad (demanda=0) = 5% P2 = Probabilidad (demanda=2) = 40%
P1 = Probabilidad (demanda=1) = 35% P3 = Probabilidad (demanda=3) = 20%
Disponiendo de esa información, una buena forma de orientar una decisión (lo que no significa que la decisión
tomada sea la mejor) podría consistir en evaluar el valor esperado2 de los beneficios para cada decisión posible y
elegir la que maximice ese valor esperado:
Dado que el valor esperado de los beneficios es mayor para la decisión de fabricar dos lotes de zapatos (VE2), ésta
sería, según este criterio, la decisión a adoptar, de acuerdo a la óptica del tomador de decisiones que elaboró la
matriz de contingencias de la Tabla 4.2, en la suposición que esa matriz refleje adecuadamente su percepción y
parecer sobre el problema.
i) Criterio de Laplace:
Según este criterio, si nada se conoce respecto al futuro, todas las situaciones posibles tienen las mismas proba-
bilidades de ocurrir. O sea, se admite que la distribución de probabilidades de las demandas posibles es “uniforme”.
Entonces, al calcular el valor esperado de los beneficios asociados a cada decisión, el ponderador de cada uno de
los “j” “rij” posibles (donde “i” representa la decisión que se está analizando) será el mismo. O sea, el valor esperado
buscado se obtendrá tan sólo sumando cada uno de los “rij” de cada línea de la tabla de contingencias (Tabla 4.3).
2 Recuérdese que el valor esperado, o esperanza matemática (que se representa con el operador E[.]) se calcula como la sumatoria de las
“consecuencias” por sus probabilidades.
48
Herramientas para la Gestión y la Toma de Decisiones
Tabla 4.3 Criterio de Laplace
Siguiendo este criterio, la decisión que debería adoptarse sería fabricar dos lotes de zapatos, pues el valor esperado
(E[.]) de esa decisión es el “mejor” de todos, una pérdida de $ 65.
A modo de comentario es necesario decir que:
1°) NADIE trabaja a pérdida;
2°) no es razonable esperar que las demandas sean equiprobables (igualmente probables), a no ser que el
fabricante sea un productor “marginal”, según los conceptos económicos de David Ricardo.
ii) Criterio maximin:
Este es un criterio extremadamente conservador para tomar decisiones: se evalúa para cada decisión la peor de
las consecuencias (en el caso de nuestro ejemplo, el beneficio mínimo) y luego, de la lista de las peores conse-
cuencias, se elige la menos mala (el máximo de los mínimos). En la Tabla 4.4 se representa este análisis para el
caso de la fábrica de zapatos que estamos analizando.
Como dijimos antes, éste es un criterio muy pesimista, que aplicado sin un análisis profundo y objetivo puede
inducir a decisiones lamentables: considérese, por ejemplo, la tabla de contingencias mostrada en la Tabla 4.5,
que representa beneficios hipotéticos:
49
Jorge Víctor Pilar
Tabla 4.5 Limitaciones del criterio maximin
Evidentemente, la decisión “b” no es la más acertada, porque la “a” la supera en todos los estados futuros posibles,
excepto en el 2, donde la diferencia entre ambas decisiones posibles es muy pequeña.
2 40
3 60
De nuevo, este criterio aplicado sin un análisis profundo y objetivo puede inducir a decisiones lamentables.
Considérese, por ejemplo, la matriz de contingencias de la Tabla 4.7, rellenada con beneficios hipotéticos:
50
Herramientas para la Gestión y la Toma de Decisiones
Al igual que en el caso anterior, la aplicación estricta y no razonada del criterio maximax puede conducir a decisio-
nes equivocadas, pues, salvo la contingencia que produce el beneficio 101, la decisión “a” es mucho mejor que la
“b”, que es la que aconseja este criterio.
Como puede verse, si este es un criterio que se considera optimista, la elección de la decisión “b” no haría ninguna
gala de optimismo.
Según este criterio, se debería eligir la decisión que minimiza el arrepentimiento máximo, o sea fabricar dos lotes
de zapatos, correspondiente a un potencial arrepentimiento de $ 80.
51
Jorge Víctor Pilar
52
Herramientas para la Gestión y la Toma de Decisiones
donde F(.) y Gi(.) son funciones lineales. En particular, las restricciones son, generalmente, inecuaciones.
Si se representase en forma cartesiana uno de esos modelos lineales, asignando a cada variable de decisión un
eje coordenado, la región de las soluciones viables quedaría delimitada a un polígono, o a un poliedro, o a un
hiperpoliedro con un número de vértices igual a (Hillier & Lieberman, 2007):
n!
Nº de vértices = (5.1)
m! (n-m) !
De todas las soluciones viables, la mejor es la solución óptima. Si esa región que delimita las soluciones viables
es un espacio convexo4, la solución tendrá carácter de óptimo global.
3 Para no apartarse del objetivo de este libro se obviarán definiciones específicas de términos como “modelo lineal”. Para obtener definiciones
conceptual y matemáticamente estrictas de, en particular ese término, debería recurrirse a textos de, por ejemplo, Álgebra Lineal.
4 Un espacio es convexo cuando cualquier segmento que se pueda trazar en él se encuentre completamente dentro de ese espacio. (Por ejemplo, un
círculo es un espacio convexo, mientras que la circunferencia que lo delimita no, pues si se unieran dos puntos de ella se tendría una “cuerda”, ajena
a la circunferencia.)
53
Jorge Víctor Pilar
A X<B
ST:
Xi > 0
donde:
Z: Es una familia de rectas (donde el valor de “Z” actuaría como parámetro).
CT: matriz línea de los beneficios unitarios (de dimensión 1 x n).
X: vector (matriz columna) de las variables de decisión “xi” (de dimensión n x 1).
A: matriz tecnológica (de dimensión m x n).
B: vector (matriz columna) de recursos disponibles (de dimensión m x 1).
Un sistema de ecuaciones lineales tendrá solución y ella será única si el número de ecuaciones es igual al número
de incógnitas. Sin embargo, si el número de incógnitas es mayor que el de ecuaciones, el sistema, tendrá infinitas
soluciones. A su vez, si el número de ecuaciones “m” es mayor al número de incógnitas “n” y el sistema es
coherente, ello significa que hay “m – n” ecuaciones que son una combinación lineal de las otras, es decir, son
superfluas.
Para poder resolver el sistema de inecuaciones planteado será necesario transformarlo en un sistema de ecuaciones:
donde “Y” es un vector de variables de holgura (de dimensión m x 1). Esas variables de holgura son las que hacen
que, en las inecuaciones, los miembros de la izquierda sean menores que los de la derecha.
Entonces, el problema se transformó de un sistema de “m” ecuaciones y “n” incógnitas, en otro de “m” ecuaciones
y “(n + m)” incógnitas (“n” incógnitas “xi” y “m” incógnitas “yj”)
54
Herramientas para la Gestión y la Toma de Decisiones
Dist. al origen = C
(5.4)
A +B2
2
Entonces, por analogía, si se tiene una FO: Z = C1 • x1 + C2 • x2, su distancia al origen se calcularía de la siguiente
manera:
Dist. al origen = Z
C 21+ C 22 (5.5)
Siendo “C1” y “C2” constantes, maximizar una función Z (x1, x2, ..., xn) equivale, entonces, a maximizar su distancia
al origen (Fig. 5.1).
Supóngase, por ejemplo que, además de la FO Z (x1, x2), existiera una restricción g (x1, x2) £ C (o sea, n = 2 y m =
1). La Fig. 5.1 muestra el proceso de maximizar la distancia de “Z” al origen.
x2
ZA
Zi
x1
B ZB
g (x1, x2)
a) Métodos no algorítmicos:
- solución gráfica (limitado a problemas con sólo dos variables);
- solución por enumeración.
b) Métodos algorítmicos
- Algoritmo Diferencial Generalizado (desarrollado por Jacobi);
- Algoritmo Simplex (presentado por George Dantzig, en 1946);
- Algoritmo de los Puntos Interiores.
A continuación se explicarán, someramente, los métodos no algorítmicos y el algoritmo “Simplex”. Los otros dos
algoritmos pueden ser consultados en manuales de Investigación de Operaciones y de
Solución gráfica
Supóngase el siguiente problema lineal:
FO: maximizar
ST: 1) X 1 + 2 X 2 < 6
2) 2 X 1 + X 2 < 8
3) - X 1 + X 2 < 1
4) X2 < 2
56
Herramientas para la Gestión y la Toma de Decisiones
La representación gráfica del mismo es la mostrada en la Fig. 5.2.
x2
8
Óptimo:
7
2
x1 = 3,33
6 x 2 = 1,33
5
Z = 12,67
3
1
4
3
4
2
x1
0
1 2 3 4 5
57
Jorge Víctor Pilar
variables de decisión correspondientes al vértice mencionado, que para el caso del ejemplo son x1 = 3,33 y x2 =
1,33.
FO: maximizar Z = 3 • x1 + 2 • x2 + x3
X1 < 20 X1 + X4 = 20
X1 + 2 X 2 < 30 X1 + 2 X 2 + X = 30
ST: 5
X1 + 2 X 2 + 4 X3 < 40 X1 + 2 X 2 + 4 X 3 + X 6 = 40
Primeramente, hay que transformar las inecuaciones de las restricciones en ecuaciones, a través de la introduc-
ción de 3 variables de holgura: x4, x5 y x6.
Entonces, el sistema de restricciones original queda transformado en uno de 3 ecuaciones (m = 3), con 6 variables
(n = 6), que delimitará una región de soluciones viables con un número de vértices igual a:
n! 6!
N° de vértices = = = 20
m! (n-m) ! (6-3) !
¿Por qué la preocupación por los vértices? Porque, como ya se expresó algunos párrafos antes, la solución óptima
estará en uno de esos vértices.
En este método lo que se hace es listar exhaustivamente todos los vértices y chequear en cada uno de ellos la FO.
Como la cantidad de variables (en este caso 6) es superior al número de ecuaciones (3 en el ejemplo), en cada
vértice ocurrirá que (6 – 3) variables serán nulas (condición para la existencia de un vértice).
Para ello, se utilizará una tabla como la presentada a continuación (Tabla 5.1). Nótese que en la última columna de
la derecha aparece la pregunta sobre si la solución es coherente o no. Ella es pertinente porque, por ejemplo, en
la segunda línea, si simultáneamente x1, x2 y x4 son nulas, no es posible cumplir la primera de las restricciones.
58
Herramientas para la Gestión y la Toma de Decisiones
Tabla 5.1 Solución por enumeración
Nº Var. Nulas X1 X2 X3 X4 X5 X6 Z
1 X1 X2 X3 20 30 40 0 Si
2 X1 X2 X4 No
3 X1 X2 X5 No
4 X1 X2 X6 10 20 30 10 Si
5 X1 X3 X4 No
6 X1 X3 X5 15 20 10 30 Si
7 X1 X3 X6 No
8 X1 X4 X5 No
9 X1 X4 X6 No
10 X1 X5 X6 15 2,5 20 32,5 Si
11 X2 X3 X4 20 10 20 60 Si
12 X2 X3 X5 No
13 X2 X3 X6 No
14 X2 X4 X5 No
15 X2 X4 X6 20 5 10 65 Si
16 X2 X5 X6 No
17 X3 X4 X5 20 5 10 70 Si
18 X3 X4 X6 No
19 X3 X5 X6 No
20 X4 X5 X6 20 5 2,5 72,5 Si
Solución Óptima
Al ser un método no algorítmico es necesario chequear todos y cada uno de los vértices, cuyo número crece muy
rápidamente al aumentar el número de variables de decisión.
Nótese que en el ejemplo, la solución óptima recién apareció en el vértice que fue revisado por último.
59
Jorge Víctor Pilar
Algoritmo Simplex
Desde el punto de vista de la complejidad algorítmica, este algoritmo sería ineficiente, pues su tiempo de solución
es de tipo exponencial. Sin embargo, en los problemas prácticos, este tiempo es tolerable, especialmente con el
uso de computadoras.
Para explicarlo se utilizará el mismo modelo del método anterior:
FO: maximizar Z = 3 • X1 + 2 • X2 + X3
X1 < 20 X1 + X4 = 20
X1 + 2 X 2 < 30 X1 + 2 X 2 + X 5 = 30
ST:
X + 2 X 2 + 4 X3 < 40 X1 + 2 X2 + 4 X 3 + X 6 = 40
El algoritmo Simplex consiste en iniciar las iteraciones en el origen de coordenadas (lo que se conoce como
“solución trivial”) y luego saltar al vértice siguiente según una regla preestablecida (Ventsel, 1983; Taha, 1995;
Goldbarg & Luna, 2000; Eppen et al., 2000; Hillier & Lieberman, 2007).
La optimidad de la solución es garantizada por el concepto de convexidad explicado anteriormente en una nota al pie.
Entonces, la 1ª solución básica de partida es una solución con holgura en todas las restricciones (la solución trivial,
lo que representaría en el problema real “no hacer nada”). O sea, en la primera iteración sólo las variables de
holgura son distintas de cero.
Este algoritmo se resuelve a través de una tabla, la tabla Simplex (Tabla 5.2), que representa matricialmente al
conjunto de restricciones del modelo matemático (indicadas como líneas L1, L2 y L3 en la tabla), más una restric-
ción adicional (que denominaremos FO^).
Las primeras columnas corresponden a las variables de decisión y la tabla se rellena de la siguiente manera: cada
celda representa el coeficiente de la variable de decisión, a la que corresponde la columna, en la restricción a la
que corresponde la línea.
60
Herramientas para la Gestión y la Toma de Decisiones
Tabla 5.2 Tabla Simplex
X1 X2 X3 X4 X5 X6 Val
L1 1 1 20 20
L2 1 2 1 30 30
L3 1 2 4 1 40 40
FO^ -3 -2 1 0
L1 1 1 20 µ
L2 2 -1 1 10 5
L3 2 4 -1 1 20 10
FO^ -2 -1 3 60
L1 1 1 20 µ
L2 1 -1/2 1/2 5 µ
L3 4 -1 1 10 2,5
FO^ -1 2 1 70
L1 1 1 20
L2 1 -½ ½ 5
L3 1 -1/4 1/4 2,5
FO^ 2 3/4 1/4 72,5
La restricción adicional (la última línea de la tabla) corresponde a una ecuación conformada por la FO, menos la
propia FO en el punto óptimo, a la que llamaremos FO^. Por lo tanto, los valores consignados en la tabla son los
coeficientes de las variables de decisión en la FO, pero con signo cambiado.
La tabla consta de dos columnas adicionales, una que hemos denominado “Val” (valores), donde se escriben los
valores de los términos independientes de cada restricción, más otra columna, que servirá para indicar los resulta-
dos de cálculos propios del algoritmo.
61
Jorge Víctor Pilar
A continuación se explicará la lógica y los pasos del algoritmo, que se basa en la solución de sistemas de ecuacio-
nes lineales por el método de la triangulación de Gauss - Jordan:
1) Primero hay que elegir qué variable de decisión será mejorada (recuérdese que todas ellas comenzaron como
siendo nulas). Para ello, se analiza la línea de la tabla que denominamos FO^ y se escoge la variable cuya
variación representará el mayor crecimiento de la FO, o sea la que presenta el coeficiente “más negativo”. En
el caso del ejemplo, la variable “x1”.
2) Seguidamente, se dividen los valores de la columna “Val”, por los valores de la columna seleccionada en el
paso anterior (para nuestro ejemplo, la de “x1”). La lógica de esta operación es que las restricciones, que son
líneas rectas, cortan al eje “x1” a una distancia al origen igual a su término independiente (indicado en la col
“Val”), dividido por el coeficiente de la variable (esa intersección con el eje se denomina raíz). Los resultados de
las divisiones son consignados en la columna de la derecha de la tabla.
3) De todos los valores de esa columna de la derecha se escoge el menor de todos, porque lo que se está
buscando es un vértice de la región viable: cada restricción tendrá su raíz sobre el eje de la variable analizada
y la menor de ellas corresponderá al vértice buscado. En el caso del ejemplo, el correspondiente a la línea L1.
4) La celda localizada en la intersección de la línea identificada en el paso anterior y de la columna de la variable
analizada (L1 y X1 en el ejemplo) será la que servirá de pivote de la triangulación de Gauss - Jordan.
5) Luego, a través de combinaciones lineales y “pivoteando” sobre la celda identificada en el paso anterior, hay
que lograr que en la columna correspondiente a la variable sobre la que se está trabajando aparezca el valor “1”
en correspondencia con la línea identificada en el 3er paso, y valores “0” en el resto de la columna. Con ello
finaliza la primera iteración.
6) Se continúa con las iteraciones hasta que no existan más variables de decisión a ser mejoradas.
Observación: si en la línea correspondiente a la FO^ final hubiera una o más variables no básicas con coeficiente
cero, ello indicará que hay más de una solución óptima, o sea, hay infinitas soluciones óptimas (lo que corresponde
a los denominados “problemas degenerados”, o mal formulados).
Simplex bifásico
Hay casos en los que el origen de coordenadas (la solución trivial) no es parte de la región de soluciones viables.
Ello ocurre cuando hay, simultáneamente, restricciones de “≥” y de “£”. Simplemente para ilustrar, se presenta a
continuación un ejemplo de lo expresado:
FO: maximizar Z = 4 • X1 + X2
62
Herramientas para la Gestión y la Toma de Decisiones
3 X 1 + X2 = 3
ST: 4 X 1 + 3 X2 > 6
X1 + 2 X2 < 4
Para resolver esos casos se recurre a lo que se denomina “Simplex bifásico”: luego de la introducción de una serie
de variables “artificiales”, se resuelve un primer Simplex, optimizando una FO también “artificial”, a los efectos de
encontrar una primera solución básica viable.
A partir de esa solución se continuará, en una segunda fase, con otra aplicación el método Simplex, pero optimizando
la FO original.
Como el espíritu de este texto no es ser un manual de técnicas matemáticas de optimización, no se explicará en
detalle el “Simplex bifásico”, sugiriéndose a los interesados en profundizar el tema consultar un manual de
Investigación de Operaciones o de PL.
Siguiendo con el esquema de utilizar ejemplos para ilustrar los métodos, considérese el siguiente problema:
FO: maximizar Z = 5 • X1 + 4 • X2
X 1+ X 2 > 5
ST: 10 X 1 + 6 X2 > 45
X 1 y X2 positivos enteros ¡NOVEDAD!
La solución “relajada” de este problema, es decir sin considerar la restricción de solución con “enteros” es:
X 1 = 3,75
Z = 23,75
X 2 = 1,25
63
Jorge Víctor Pilar
Evidentemente, esta solución viola la restricción que exige que x1 y x2 sean enteros. Sin embargo, la solución
óptima no debería estar lejos de este punto (¿será ello cierto?).
Es posible percibir que la solución óptima deberá satisfacer las siguientes restricciones:
x1 £ 3 ó x1 ≥ 4
x2 £ 1 ó x2 ≥ 2
En el caso de incluirse el primer “par” de nuevas restricciones, el problema original se dividirá en dos subproble-
mas (la región viable será subdividida):
x2 X1 < 3 X1 < 4
0 1 2 3 4 5
Supongamos que escogemos aleatoriamente trabajar primero con el problema de la izquierda de la Fig. 5.3, en
cuyo caso su expresión formal será:
FO: maximizar Z = 5 • x1 + 4 • x2
x1 + x2 £ 5
10 • x 1 + 6 • x 2 £ 45
ST: x1 £ 3
x1 y x2 ≥ 0
64
Herramientas para la Gestión y la Toma de Decisiones
La solución de ese problema es:
X1= 3
X2= 2
Z = 23
que es una solución entera. Pero, ¿será la solución del problema original?
El valor obtenido, Z = 23, es un límite inferior del problema original. O sea, ZÓPTIMO ≥ 23. Pero, en la solución
relajada del problema, es decir sin las restricciones “enteras”, se obtuvo Z = 23,75, que deberá ser el límite superior
de la solución.
Por la propia formulación de la FO, que es una combinación lineal de variables enteras, multiplicadas por coefi-
cientes enteros, es posible imaginar que Z deberá ser también un entero. Entonces:
Z: entero
Z ≥ 23 Z = 23 es la solución óptima entera buscada
Z ≥ 23,75
Pero, ¿qué hubiese pasado en caso de haber elegido trabajar con el problema de la “derecha”? (Fig. 5.4)
65
Jorge Víctor Pilar
Solución inicial:
X1 = 3,75 ; X2 = 1,25 ; Z = 23,75 ¡INVIABLE!
X1 ≥ 4 X1 £ 3
X1 = 4 ; X2 = 0,83 ; Z = 23,33 X1 = 3 ; X2 = 2 ; Z = 23
Inviable Viable ÓPTIMA
X2 ≥ 1 X2 £ 0
Inviable
X1 ≥ 5
Solución X 1 = 4 ; X2 = 0 ; Z = 20
Viable
Figura 5.4 Algoritmo “branch-and-bound”
X1 = 3
X2 = 2 ÓPTIMA
Z = 23
Este algoritmo es conocido como “branch-and-bound” o, alternativamente, “branch-and-prune”, algo así como
“ramificación y corte” (Taha, 1995; Eppen et al., 2000; Hillier & Lieberman, 2007). Su solución puede ser muy
demorada, por lo menos en comparación a los modelos que no requieren soluciones enteras.
66
Herramientas para la Gestión y la Toma de Decisiones
x1 £ 20
ST: x1 + 2 • x2 £ 30
x1 + 2 • x2 + 4 • x3 £ 40
El mismo problema escrito en formato “MPS” (por lo menos una de las formas de escribirse) es el mostrado en la
Fig. 5.5:
name
rows
n funobj
l 1
l 2
l 3
columns
x1 funobj 3
x1 1 1
x1 2 1
x1 3 1
x2 funobj 2
x2 2 2
x2 3 2
x3 funobj 1
x3 3 4
rhs
rhs1 1 20
Columna 25
Columna 15
Columna 5
Columna 1
67
Jorge Víctor Pilar
Algunas observaciones:
1) Los archivos en formato “MPS” son de tipo ASCII (o sea, de texto puro), con entrada formateada (o sea, hay que
respetar las columnas).
2) No comenzar con una nueva variable de decisión antes de haber agotado totalmente la anterior.
Este formato, si bien fue pensado para introducir datos a través de tarjetas perforadas, es reconocido por todos los
programas computacionales de optimización disponibles y es muy útil para escribir modelos de grandes dimensio-
nes (por ejemplo, en su tesis de maestría, el autor, en caso de haber tenido que explicitar la FO de uno de los
modelos utilizados, hubiera necesitado 45 páginas de papel de tamaño A4).
FO: maximizar Z = 1 • x1 + 1 • x2 Z = C1 • x1 + C2
2 • x1 + 1 • x 2 £ 8 A11 • x1 + A12 • x2 £ B1
1 • x1 + 2 • x 2 £ 7 Algebraicamente A12 • x1 + A22 • x2 £ B2
ST:
x21 £ 3 A13 • x1 + A23 • x2 £ B3
Los valores C1 y C2 representan (en forma genérica) beneficios unitarios. Para entender qué pasaría si esos
coeficientes variaran analícese el gráfico de la Fig. 5.6.
68
Herramientas para la Gestión y la Toma de Decisiones
Salida del programa computacional GLP
6
: 2.0 X1 + 1.0 X2= 8.0
5
Aumentamos C1 (o disminuimos C2)
4 Payoff: 1.0 X1 + 1.0 X2 = 5.0
: 0.0 X1 + 1.0 X2 = 3.0
3
2
Aumentamos C2 (o disminuimos C1)
1 : 1.0 X1 + 2.0 X2 = 7.0
0
0 1 2 3 4 5 6 7 8 9 10 x1
En el análisis de sensibilidad mostrado en la Fig. 5.6 la recta que representa la FO oscila, modificando su pendien-
te, pero siempre apoyada en el vértice correspondiente al óptimo. La idea es analizar de hasta qué magnitud podría
ser esa oscilación sin que se modifique el óptimo. Los límites, para el caso del problema, son hasta superponerse,
o con la primera restricción, o bien con la segunda. (Al alcanzarse ambos casos límites el ejemplo se transformaría
en un “problema degenerado”, pues la FO sería paralela a una restricción activa.)
Otra verificación que se suele hacer es analizar y evaluar cuánto representaría una pequeña variación en los
coeficientes de la matriz de recursos (Fig. 5.7.):
69
Jorge Víctor Pilar
Salida del programa computacional GLP
6
: 2.0 X1 + 1.0 X2= 8.0
5
Payoff: 1.0 X1 + 1.0 X2 = 5.0
: 2.0 X1 + 1.0 X2 = 10.0 : 0.0 X1 + 1.0 X2 = 4.0
4
: 0.0 X1 + 1.0 X2 = 3.0
3
2
: 1.0 X1 + 2.0 X2 = 9.0
1
: 1.0 X1 + 2.0 X2 = 7.0
0
0 1 2 3 4 5 6 7 8 9 10 x1
También se debería analizar hasta qué punto serían admisibles variaciones en esos coeficientes sin que ello
transforme esas restricciones en superfluas. La Fig. 5.8 muestra esquemáticamente el análisis mencionado con-
siderando la segunda restricción.
Salida del programa computacional GLP
8 8
: 2.0 X1 + 1.0 X2= 8.0 Payoff: 1.0 X1 + 1.0 X2 = 6.6 : 2.0 X1 + 1.0 X2= 8.0 Payoff: 1.0 X1 + 1.0 X2 = 4.0
6 6
4 4
: 0.0 X1 + 1.0 X2 = 3.0 : 0.0 X1 + 1.0 X2 = 8.0
3 3
: 1.0 X1 + 2.0 X2 = 8.6
2 2
.
: 1.0 X1 + 2.0 X2 = 4.0
1 1
0 0
0 1 2 3 4 6 8 7 8 9 10 x1 0 1 2 3 4 6 8 7 8 9 10 x1
70
Herramientas para la Gestión y la Toma de Decisiones
71
Jorge Víctor Pilar
qi
X i1
....
etapas
x
Etapa i X ij Xi
....
X ij
resto
En la Fig. 6.1, que corresponde a un proceso de “N” etapas, el significado de los términos utilizados es el siguiente:
qi variable de estado en la etapa “i”, faltando todavía “N-i” etapas
xij uno de los “J+1” valores que puede adoptar la variable de decisión “xi” en la etapa “i”
72
Herramientas para la Gestión y la Toma de Decisiones
xi * decisión “óptima” en la etapa “i”.
Para explicar el procedimiento matemático de solución de un problema clásico de PD serán definidos los siguien-
tes términos:
Ri (xij) el resultado (costo o beneficio) de la decisión “j” para la variable “xi”, en la etapa “i”
fi (qi) el beneficio “óptimo” de las etapas i, i+1, ...., N, para el valor “q” de la variable de estado en la etapa “i”.
Entonces, la solución del problema en el paso “i” será:
f i ( q i ) = ÓPTIMO [R i ( x ij ) ≈ f i + 1 ( q i - x ij )] (6.1)
Âx
i =1
ij £ qi (6.2)
siendo “J” el grado de discretización de la variable de estado. En otras palabras, ello significa que la variable de
decisión puede adoptar un valor entre “J+1” valores posibles (son “J” valores discretos, más la opción de adoptar el
valor “cero”) sin sobrepasar el límite del recurso. Ese límite, en la etapa “i”, es definido por el valor de la variable de
estado. El símbolo “ ≈ ” indica una operación cualquiera, normalmente una suma o un producto.
Para resolver problemas de PD es preciso definir en cada etapa una ecuación de estado. Esta ecuación puede ser
expresada como:
Se introducirá otro término para ayudar en la formulación del algoritmo de solución de problemas de PD: “Ji (qi)”,
que es la decisión que produce “fi (qi)” (esa decisión es “xj* “, la mejor de todas las “xij”).
Teniendo en cuenta todo lo anterior, pueden ser realizadas dos observaciones:
1) la decisión “j” depende de “q” y de la etapa “i”; y
2) la solución total del problema es construida por etapas.
Del análisis de la ecuación (6.1) se puede concluir que, en la etapa “i” deben ser comparadas todas las combina-
ciones entre las “J+1” decisiones posibles para el estado “qi”, faltando todavía “N-i” etapas hasta el final. Ese
73
Jorge Víctor Pilar
número de combinaciones en cada etapa es igual a {[(J2 + 3 • J) / 2] + 1} y, si cada etapa fuese igualmente
discretizada, para las “N” etapas, serán necesarias N • {[(J2 + 3 • J) / 2] + 1} (Hall y Dracup, 1974).
El proceso completo de solución de problemas de PD puede ser esquematizado como lo mostrado en la Fig. 6.2:
X i-1 X i-1
q i-1 qi qi +1
i-1 i-1
Etapa “i”
Etapa “i - 1”
Pero, ¿cómo puede ser resuelto este problema en una etapa intermedia “i” si la decisión a ser tomada depende, a
su vez, de las decisiones tomadas en las etapas siguientes?
Aparentemente, el problema se presenta como indefinido. No obstante, existe una etapa en la cual el problema
queda totalmente definido. Esta etapa es la última, o sea la etapa “N”.
Entonces, resuelto el problema para “i = N”, será fácil resolverlo, sucesivamente, para “i = N-1”, hasta “i= 1”.
Esta técnica va generando su propio progreso. Por eso, a esta forma de resolución se la denomina “procedimiento
recursivo” o “algoritmo de recursión” y a las ecuaciones “fórmulas recursivas” (Barros, 1997; Bronson, 1996; Cifres,
1993; Hall y Dracup, 1974; Taha, 1995; Ventsel, 1982; Wagner, 1986). Evidentemente, resulta más fácil resolver
repetidamente un problema relativamente fácil que resolver de una sola vez un problema complejo (Ventsel, 1983).
Podría decirse que la resolución de problema de optimización dinámica constan de dos fases: 1) del final hacia el
inicio, reconociendo las mejores decisiones para cada etapa, y 2) del inicio hasta el final, leyendo las recomenda-
ciones óptimas surgidas de la fase anterior.
Es necesario hacer una aclaración: algunos autores afirman que existen casos en los que la primera fase mencio-
nada anteriormente podría ser realizarla desde el principio hasta el final. Ello es verdadero sólo para algunos casos,
en los cuales el inicio y el fin son “intercambiables”, como en el caso de una ruta: para quien “va” el punto de partida
será el inicio, pero para quien “viene” será el final. Otra situación donde esto es válido es cuando cada etapa
74
Herramientas para la Gestión y la Toma de Decisiones
corresponde a un proyecto diferente, en cuyo caso es indiferente escoger cualquiera de ellos como el primero, o el
segundo, etc. (Taha, 1995).
Parece un poco complicado, ¿no? Ciertamente, la formulación matemática es un tanto complicada. Sin embargo,
el fondo conceptual no lo es tanto.
75
Jorge Víctor Pilar
Tabla 6.1 Problema de la planta de producción de agua
3
Capacidad Final (hm /a)
20 30 40
10 3,8 5,9 7,5
0 0
40
1,5 1,5
30 0
7,5 2,3
1,3
5,9
20
3,8
10 Años
Año 0 Año 4 Año 8 Año 12
76
Herramientas para la Gestión y la Toma de Decisiones
Primeramente, vamos a numerar los nudos viables en orden creciente (en el caso del ejemplo, los nudos son siete).
Esos nudos estarán unidos por arcos, que representan los costos para cambiar de estado (Fig. 6.4).
3
Producción (hm /a)
40 4 0 6 0 7
30 3 0 5
7,5
1,3
5,9
20 2
3,8
10 1 Años
Año 0 Año 4 Año 8 Año 12
Figura 6.4 Numeración de los nudos viables
1) Matriz de control:
La primera matriz que se montará es la que denominaremos “matriz de control”. Ella servirá solamente para mostrar
visual y en forma rápida las combinaciones viables de nudos origen y nudos destino.
En esa matriz se indicarán los arcos viables: un “1” indicará viabilidad y un “0” inviabilidad. La columna final indicará
las etapas que todavía faltan para llegar hasta el final. La matriz de control del ejemplo es presentada en la Tabla 6.2.
77
Jorge Víctor Pilar
Tabla 6.2 Matriz de control
Destino Etapas
7 (N) 6 5 4 3 2 Faltantes
6 (N-1) 1 0 0 0 0 0 1
5 1 0 0 0 0 0 1
Origen
4 0 1 0 0 0 0 2
3 0 1 1 0 0 0 2
2 0 1 1 0 0 0 2
1 0 0 0 1 1 1 3
Esa matriz tiene “N-1” líneas, siendo “N” el número de nudos viables (o sea, 7). La línea superior corresponde al
nudo “N-1” y la última al nudo “1”. La primera columna corresponde al nudo “N” y la última al nudo “2”.
Destino
7 (N) 6 5 4 3 2
6 (N-1) 0,0
5 1,5
0,0
Origen
4
3 1,5 0,0
2 2,3 1,3
1 7,5 5,9 3,8
78
Herramientas para la Gestión y la Toma de Decisiones
3) Matriz de los cálculos dinámicos:
Esa matriz también contará con “N” líneas y “N+1” columnas. Las dos últimas columnas corresponden,
respectivamente, a la decisión óptima para cambiar de estado, que es denominada “J” (según la notación del inicio
de este capítulo), mientras que la contribución asociada con la FO, es llamada “f” (tabla 6.4).
La matriz mostrada en la Tabla 6.4 se rellena “dinámicamente”, iniciando en la primera línea, que corresponde a
uno de los nudos de la última etapa donde debe ser tomada una decisión. Por lo tanto, faltando solamente una
etapa por delante, ésta deberá ser, necesariamente, el nudo “N”.
La columna “j” debe ser rellenada con el valor de “N” y la columna “f” con el costo asociado para ir desde el nudo
“N-1” al nudo “N”.
Para el ejemplo, el primer par origen-destino será el “6-7” y los valores de “j” y “f”, “7” y “0” respectivamente.
El mismo proceso debe ser repetido para todas las líneas que representan los nudos de la última etapa (en el
ejemplo, el nudo “5”).
Seguidamente, deben ser analizados los nudos correspondientes a la penúltima etapa (cuando faltan todavía dos
decisiones a ser tomadas). Para explicar cómo funciona el procedimiento será analizado el nudo “2” del ejemplo.
Los destinos viables para él son los nudos “6” y “5”. El costo para ir desde “2” hasta “5” es 1,30 y el valor de “f” para
el nudo “5” como origen es 1,50. Por lo tanto, el valor de “f” en el nudo “2”, en el caso de “j = 5” será 1,30 + 1,50 = 2,80.
A su vez, el costo para hacer la secuencia “2-6” es 2,30 y el valor de “f” para el nudo “6” como origen es cero, o sea
que el valor de “f” en “2” para “j = 6” será de 2,30 + 0 = 2,30.
Como el problema es de minimización, el valor de “f” asociado al nudo “2” deberá ser el menor valor entre 2,80 y
2,30. O sea, es 2,30, que corresponde a la decisión “ir al nudo 6”.
Este cálculo dinámico prosigue hasta el nudo “1”. En este punto el valor de “f” será el valor de la FO.
79
Jorge Víctor Pilar
El camino óptimo se encuentra leyendo ordenadamente los valores de “j” desde la etapa “1” hasta la última: se lee
primero cuál es la mejor decisión para el nudo “1”; seguidamente se entra en la matriz de los cálculos dinámicos
con ese valor de “j” como origen y se lee el próximo “j”. Se continúa así hasta completar todas las etapas.
Para el caso del ejemplo, la mejor decisión para el nudo “1” es ir al nudo “2” (ampliación de 10 a 20 hm3/año al cabo
de los primeros 4 años); luego, desde el nudo “2”, ir al “6” (ampliación de 20 a 30 hm3/año, con lo que se completaría
la expansión total buscada) y, finalmente, desde el “6”, ir al nudo “7”. O sea, la mejor secuencia de decisiones es la
1-2-6-7 (indicada en la Tabla 6.4 con casillas sombreadas), siendo el valor de la FO obtenido 6,10 (el costo de la
expansión total, en millones de unidades monetarias).
b. Solución gráfica
El esquema de solución que se explicará a continuación está basado en las ideas presentadas en el libro de Elena
Ventsel (1983). Una vez más, para explicarlo se utilizará un ejemplo.
La Fig. 6.8 que representa esquemáticamente algunas calles de un barrio. Los puntos A y B son, respectivamente,
el origen y el final de un trayecto de interés (por ejemplo, ir de la casa al trabajo) y los valores indicados en los arcos
(que representan las calles) los tiempos aproximados (impedancia), en segundos para recorrerlos.
El problema consiste en encontrar el camino que demore el menor tiempo para ir desde A hasta B, avanzando
siempre de izquierda a derecha, sin retroceder.
Éste es un problema típico de PD, pues la decisión a ser tomada en un punto intermedio cualquiera (una esquina
del barrio, por ejemplo) mantiene relación estrecha con las decisiones siguientes.
Existen dos puntos en los que el problema está claramente definido: los puntos O y P, en los cuales las únicas
decisiones posibles son “ir al punto B”, gastando un tiempo de 8 y 9 segundos, respectivamente.
Esas decisiones óptimas serán indicadas con flechas en el diagrama de calles y los tiempos mínimos para ir desde
O y P hasta B serán colocados dentro de círculos (Fig. 6.9). Esos círculos y las flechas sintetizan todo el proceso
para escoger el camino óptimo desde esos puntos hasta el final.
80
Herramientas para la Gestión y la Toma de Decisiones
H
8 9
E L
9 11 8 12
C I O
7 10 9 11 8 8
A F M B
9 7 12 10
9
8
J
D P
8 10
7 12
G N
8 9
K
12
O
8
M 8
11 8
B
10 9
12
9
N P
12
Figura 6.9 Detalle de los trechos finales del recorrido desde A hasta B
Siguiendo este razonamiento podrían ser evaluadas las mejores decisiones a ser tomadas en los puntos L, M y N.
En el punto L la mejor decisión a ser tomada es única (pues no está permitido retroceder): ir para el punto O. Luego,
el menor tiempo para ir desde el punto L hasta el final será el tiempo para ir de L hasta O, más el menor tiempo para
ir desde O hasta el final, ya evaluado y mostrado en la Fig. 6.9 en el círculo. Un razonamiento similar podría ser
hecho en el punto N.
81
Jorge Víctor Pilar
En el punto M hay dos alternativas de solución: ir al punto O, o ir al punto P. Los menores tiempos para ir desde O
y P hasta el final son ya conocidos y están indicados en círculos en la Fig. 6.9. Por lo tanto, la mejor decisión en M
corresponderá al camino que proporciones el menor resultado entre los tiempos para ir de M hasta O, más el
tiempo mínimo para ir desde O hasta el final, en este caso 8 + 8 = 16, y el tiempo para ir de M hasta P, más el tiempo
mínimo para ir desde P hasta el final, o sea, 10 + 9 = 19. Por lo tanto, la mejor decisión en M será ir hacia el punto
O. En la Fig. 6.10 son presentados estos últimos resultados.
9 L
20
11
I 8 12
O
8
M 8 8
9 11
16 B
7 12 10 9
J
9
12
N
8 10 P
21
9
K
Figura 6.10 Nuevo detalle de los trechos finales del recorrido desde A hasta B
Siguiendo el razonamiento explicado se llegará hasta el punto A de inicio. Todo el procedimiento desarrollado es
lo que, anteriormente, en este capítulo, caracterizamos como procedimiento recursivo. Al final de todo el procedi-
miento cada vértice contará con un círculo y una flecha: el número indicado en el círculo representará el menor
tiempo desde ese vértice hasta el final, y la flecha la dirección óptima a seguir en ese vértice. Luego, todo se reduce
a “seguir las flechas”.
En la Fig. 6.11 se muestra en trazos más gruesos el camino que demanda el menor tiempo para ir de A hasta B.
82
Herramientas para la Gestión y la Toma de Decisiones
H 29
8 9
E 37 L
20
9 11 8 12
O
C 45 I 27 8
7 10 M 8
9 11 8
A 51 F 35 16 B
8 10
9
9 7 12
D 43 J 28 9
7 N
8 10 12 P
G 36 21
8 9
30
K
Figura 6.11 Camino que demanda el menor tiempo para ir desde A hasta B
Ventajas características de la PD
Para cerrar este capítulo mencionaremos algunas características de la PD, que la hacen atractiva para problemas
en los que se busca una decisión secuencial. Esas características son (Cifres, 1993):
a) no es necesario ningún requisito de linealidad, ni en la FO, ni en las restricciones, lo que sí es necesario en los
problemas de programación lineal, por ejemplo;
b) la FO ni siquiera precisa se tal, pudiendo, inclusive, estar compuesta por valores discretos;
c) comúnmente, la solución de los problemas no resulta en una única política óptima, sino en un conjunto de
soluciones óptimas en función del estado del sistema, lo que es especialmente atractivo para resolver proble-
mas de recursos hídricos en tiempo real.
83
Jorge Víctor Pilar
84
Herramientas para la Gestión y la Toma de Decisiones
Un poco de historia
Los relatos ancestrales están llenos de historias que cuentan que tal o cual gran emprendimiento no pudo concre-
tarse porque algún dios (o dioses) molesto, o enojado, o celoso, intervino e impidió la empresa... Parecería que es
una costumbre muy arraigada echarle la culpa a los designios divinos por los fracasos humanos en la planificación
y concreción de proyectos.
Los proyectos modernos suelen ser extremadamente grandes, complejos y costosos, y por ello se requiere una
gran cantidad de años de uso satisfactorio para amortizar la inversión. Terminarlos en los plazos establecidos y
dentro de los presupuestos no es tarea fácil. Las actividades involucradas son interdependientes, al punto que es
imposible realizar algunas de ellas antes de haber acabado otras (lo que se conoce como relaciones de precedencia).
Una de las primeras herramientas utilizadas para la planificación fue el diagrama de barras, en el que se utiliza una
barra para representar cada actividad y se indica en la misma el momento de inicio y de finalización. A veces, se
colocaba sobre esas barras las cantidades de recursos que demandaría cada actividad. Ese tipo de diagramas es
conocido como gráficos de Gantt (desarrollados por Henry Gantt en 1918).
En la programación de actividades complejas, esa herramienta tiene una gran limitación: no refleja las interrelacio-
nes mencionadas ni las relaciones de precedencia.
Entre 1956 y 1958 se desarrollaron dos nuevos métodos de planificación, que hoy se conocen como PERT
(Program Evaluation Review Technique) y CPM (Critical Path Method). A pesar de lo similar de ambos métodos, sus
respectivos desarrollos fueron totalmente independientes y, si hoy existen diferencias entre ambos, éstas son
apenas históricas (Eppen et al, 2000; Taha, 1994; Hillier & Lieberman, 2007).
85
Jorge Víctor Pilar
Para explicar el método utilizaremos, una vez más, un ejemplo. Se trata de una empresa hipotética de consultoría
comercial, que desea instalarse en la ciudad de Resistencia y decidió planificar el proyecto aplicando la metodo-
logía PERT-CPM.
Los encargados de la tarea detectan ocho actividades importantes para completar el proyecto. Ellas son:
1) elaboración del organigrama;
2) selección del local;
3) definición del personal necesario;
4) diseño arquitectónico de las instalaciones;
5) remodelación propiamente dicha (incluida la instalación del equipamiento);
6) selección y contratación del personal;
7) capacitación de ese personal; y
8) realización de acuerdos financieros.
Varias de estas actividades requerirán que otras estén concluidas para poder iniciarse (es lo que hemos definido
como relaciones de precedencia).
En la Tabla 7.1 se presentan las actividades, las relaciones de precedencia y las duraciones esperadas de esas
tareas.
86
Herramientas para la Gestión y la Toma de Decisiones
Tabla 7.1 Listado de actividades para concretar el proyecto
Si elaborásemos el gráfico de Gantt de este proyecto se tendría algo semejante a lo mostrado en la Fig. 7.1.
Tiempo (semanas)
0 5 10 15 20 25
C
Actividades
Al observar el gráfico de la Fig. 7.1 podríamos imaginarnos que, tanto las actividades E, F y H, recién podrían
comenzar una vez finalizada la D, siendo que solamente la E tiene a esa actividad como relación de precedencia.
87
Jorge Víctor Pilar
nodo. La palabra evento es utilizada para indicar la terminación de las actividades que llegan a un nodo. Con esos
arcos y nodos se esquematiza la concatenación de actividades, obteniéndose un diagrama de red.
El método PERT-CPM podría ser considerado como una evolución de la programación dinámica (PD). Siendo así,
habría que tratar de organizar el diagrama de red como una secuencia de etapas (algo parecido a lo que se hace
en PD en un espacio etapas-estados).
El diagrama de red para este problema, ordenado en etapas, es el mostrado en la Fig. 7.2.
B=3
F=3
H=4
5
88
Herramientas para la Gestión y la Toma de Decisiones
16 3
B=3
23 16 12 5
1 A=4 2 C=3 4 D=4 6 E=7 7 G=5 8
F=3
H=4
5
Habrá actividades cuyo inicio podría adelantarse, o bien diferirse en el tiempo, sin que ello implique un retraso en
la concreción del proyecto. Entonces, a continuación analizaremos los tiempos más próximos y más lejanos (del
inicio) para iniciar y finalizar cada actividad.
El TIP para una actividad que sale de un nodo es el mayor de los TTP
de todas las actividades que llegan (entran) a ese nodo.
89
Jorge Víctor Pilar
El último enunciado es un verdadero teorema, pero no vamos a demostrarlo.
¿Cómo se calculan los TIPs y los TTPs? Una forma sería hacer la resolución gráfica de los problemas de PD, pero
comenzando desde el inicio y yendo hacia el final (a la inversa de lo que hacíamos en PD). Sobre cada arco,
teniendo en cuenta la (10.1) y el teorema presentado, escribiremos un par de valores que representarán: (TIP, TTP).
Para el problema que estamos analizando el diagrama resultante es mostrado en la Fig. 7.4
(0,3) (3,3)
(7,10) (10,10)
H=4
5
(4,8)
90
Herramientas para la Gestión y la Toma de Decisiones
El TTL para una actividad que entra a un nodo es el menor de los TIL
de todas las actividades que salen de ese nodo.
(4,7) (7,7)
(15,18) (18,18)
H=4
5
(19,23)
Sin embargo, las actividades que integran el camino crítico no podrán, ni adelantarse, ni posponerse, pues cual-
quier variación afectará la duración del proyecto. Se puede comprobar matemáticamente que la holgura se hace
91
Jorge Víctor Pilar
nula para las actividades ubicadas sobre el camino crítico. En la Fig. 7.6 se indica, sobre el diagrama de red del
problema las holguras de cada una de las actividades, según lo indicado en la ecuación (7.2).
(H:4) (H:4)
92
Herramientas para la Gestión y la Toma de Decisiones
Las estrategias
Una estrategia pura es un plan previamente determinado, que establece la secuencia de movimientos y contra-
movimientos que un jugador realizará durante el juego completo.
Para ejemplificar esto consideremos un juego en el que los jugadores muestran simultáneamente 1, 2 ó 3 dedos,
uno al otro. Si la suma de los dedos es par, el jugador B pagará al A ese valor en pesos (o en cervezas, o lo que sea),
mientras que si es impar, el A pagará esta suma al B. La matriz de las consecuencias de dicho juego y desde la
óptica del jugador A (siempre será ese jugador el que estamos asesorando, al que de ahora en más denominare-
mos “nuestro jugador”) es la mostrada en la Tabla 8.1:
93
Jorge Víctor Pilar
Tabla 8.1 Matriz de las consecuencias del juego de mostrar dedos
Jugador B
1 2 3
1 2 -3 4
Jugador A
2 -3 4 -5
3 4 -5 6
En este juego, las estrategias puras (jugadas) para cada jugador están identificadas como 1, 2 y 3.
Entonces, si el jugador A muestra siempre 3 dedos, el jugador B podrá vencer esta estrategia mostrando siempre
dos dedos. Si el A utiliza la secuencia fija de estrategias 3-3-2-3, el B podrá vencerla utilizando la secuencia 2-2-3-2.
Juegos estables
Imaginemos otro juego cualquiera, cuya matriz de consecuencias es mostrada en la Tabla 8.2. En esa matriz se
agregaron una línea, denominada “Max”, y una columna, denominada “Min”.
Jugador B
1 2 3 Mín.
1 6 5 8 5
Jugador A
2 7 6 8 6
3 2 4 3 2
Máx. 7 6 8
En la línea “Máx” se consignarán los valores máximos de sus posibles ganancias de nuestro jugador para cada una
de las tres jugadas posibles jugadas del contrincante.
A su vez, en la columna “Mín”, indicaremos los valores mínimos de los resultados de nuestro jugador para cada una
de las jugadas que puede realizar, lo que representa, entonces, las consecuencias menos malas para el contrin-
cante.
94
Herramientas para la Gestión y la Toma de Decisiones
A continuación vamos a identificar dos valores:
• mA valor máximo de la ganancia mínima del jugador A (valor maximin)
• mB valor mínimo de la pérdida máxima del jugador B (valor minimax)
El jugador A, adoptando la estrategia que da mA ganará, como mínimo este valor mA, mientras que si el B adoptase
la que da mB, su pérdida no superará dicho valor.
Se puede demostrar (pues es un teorema) que mA £ mB, para cualquier juego matricial.
En caso que mA = mB, como es el caso del juego de la Tabla 8.2, el jugador A sólo empeoraría su situación al
apartarse de la estrategia maximin, lo mismo que el B si se apartase de la estrategia minimax.
En ese caso, se dice que estamos ante un juego estable y las estrategias maximin y minimax son estrategias
óptimas, mientras que el valor G^ = mA = mB se denomina valor del juego (valor que pagará el jugador B al A
cuando ambos hayan empleado estrategias óptimas).
Ejemplo1:
Para mostrar la potencial trascendencia práctica de la Teoría de Juegos utilizaremos un ejemplo, que es una
variante del presentado por Bronson (1996).
Imaginemos que las cadenas de supermercados Sol y Luna han decidido instalarse en una ciudad del NEA y han
fijado su atención en los tres barrios de mayor poder adquisitivo de esa ciudad: Amistad (A), Bella Vista (B) y Centro
(C). El A concentra 50% de la población total de los tres (o sea, del mercado potencial de esos tres barrios), el B el
35% y el C el 15%.
La cadena Sol, que ha requerido nuestros servicios, es la más grande, la más antigua y con un prestigio ganado,
por lo que, a igual distancia, la gente la escogerá en mayor medida.
Cada empresa contrató su propio análisis de mercado, pero los resultados de ambos fueron similares:
• Si ambas se ubican en un mismo barrio (o equidistante de él), la cadena Sol controlará 60% de los negocios
del barrio.
• Si Sol está más cerca de un barrio que Luna, controlará 80% de los negocios del barrio.
• Aunque Sol se localice más lejos de un barrio que Luna, de todas formas atraerá 35% de los compradores de
ese barrio.
Por una política de Sol, nunca se instalan en barrios pequeños, como el C.
95
Jorge Víctor Pilar
Por todo ello, la cadena Sol nos requirió un análisis y una sugerencia de cuál sería la mejor localización para su
nueva sucursal.
La posición relativa entre los barrios es la mostrada en la Fig. 8.1.
30 cuadras
A 30 cuadras
25 cuadras
En este caso, los supermercados SOL tienen dos posibilidades de estrategias puras:
En estas circunstancias, y desde la óptica de Sol, las consecuencias del juego serán (rmn es el resultado, desde
la óptica de Sol, en caso de instalarse esa cadena en m y Luna en n):
96
Herramientas para la Gestión y la Toma de Decisiones
Para explicar cómo se calcularon los valores recién presentados analizaremos el valor rac, que es el resultado para
Sol de instalarse en el barrio A, en caso que Luna se instale en el barrio C:
Como Sol se instalaría en el barrio A, captaría el 80% de los clientes de ese barrio, que concentra a 50% de la
población total. A su vez, quedaría más cerca del barrio B que Luna, por lo que capturaría a 80% de sus clientes
del barrio, que representan el 35% del total. Con respecto al barrio C, que concentra al 15% de la población, los
supermercados Sol atraerían a 35% de los clientes de ese barrio.
Como el cálculo de los valores rnm se realizó sumando consecuencias por sus probabilidades de ocurrir, ello
implica que representan valores esperados, o esperanzas matemáticas de los resultados.
La matriz de esta situación de juego es la mostrada en la Tabla 8. 3:
Sol
LA LB LC Mín.
SA 60 61,25 73,25 60
Sol
Como el minimax = maximin, ello significa que estamos ante la presencia de una situación de juego matricial
estable, es decir con un óptimo que permite la aplicación de estrategias puras: para ambas cadenas de super-
mercados, lo más beneficioso sería instalarse en el barrio Amistad.
97
Jorge Víctor Pilar
Jugador B
1 2 3 4 Mín.
1 5 -10 9 0 -10
Jugador A
2 6 7 8 1 1
3 8 7 15 2 2
4 3 4 -1 4 -1
Máx. 8 7 15 4
Como el minimax > maximin, ello implica que no se obtendrá un óptimo aplicando estrategias puras. Entonces, se
dice que el juego es inestable.
En esos casos es recomendable utilizar estrategias mixtas: los jugadores aplicarán sus conjuntos de estrategias
de acuerdo a un criterio probabilístico.
Para entender esto vamos a definir lo siguiente:
xi: frecuencia relativa de la jugada de la fila i
yj: frecuencia relativa de la jugada de la columna j
m n
siendo: Xi = 1 y yi = 1
i=1 j=1
Entonces, la matriz del juego quedará expresada como se muestra en la tabla de la Tabla 8.4:
98
Herramientas para la Gestión y la Toma de Decisiones
Tabla 8.5 Uso de estrategias probabilísticas
Jugador B
y1 y2 ... yn
x1 a 11 a 12 ... a 1n
Jugador A
x2 a 21 a 22 ... a 2n
... ... ... ... ...
xm a m1 a m2 ... a mn
En esa tabla, el término amn es la consecuencia del juego (según la óptica del jugador A) cuando el A hace la
jugada m y el B la jugada n.
Entonces, el jugador A escogerá xi de tal forma que:
Ï Ê m m m
ˆ¸
max ÌmínÁ  a i1 ◊ x i ; Âa i2 ◊ x i ; ... ;  a in ◊ x i ; ˜˝ (8.1)
Xi
Ó Ë i =1 i=1 i=1 ¯˛
ÏÔ Ê n n n ˆ¸Ô
minÌmaxÁÁ  a1j ◊ y j ;  a 2j ◊ y j ; ... ;  a mj ◊ y j ; ˜˜˝ (8.2)
yj Ô
Ó Ë j =1 j =1 j =1 ¯Ô˛
Estos valores se denominan pagos maximin y minimax esperados, respec-ti-vamente. En este caso también se
verifica que:
Cuando xi e yj corresponden a la solución óptima se verifica la igualdad y el valor resultante es el valor esperado
óptimo del juego.
Si xi* e yj* son los óptimos, cada elemento de pago aij estará asociado a la probabilidad (xi* ; yj*). Entonces, el valor
esperado óptimo del juego será:
99
Jorge Víctor Pilar
m n
v * = ÂÂ a ij ◊ x *i ◊ y *j (8.4)
i=1 j =1
Ï Ê m m m
ˆ¸
max ÌmínÁ  a i1 ◊ x i ;  a i2 ◊ x i ; ... ;  a in ◊ x i ˜˝ (8.5)
xi
Ó Ë i =1 i =1 i =1 ¯˛
siendo:
Ê m m m ˆ
v = mínÁÁ  a i1 ◊ x i ;  a i2 ◊ x i ; ... ;  a in ◊ x i ˜˜ (8.7)
Ë j =1 j =1 j =1 ¯
ST:
Âa
i =1
ij ◊ xi ≥ v con j = 1 ; 2 ;....; n [ n restricciones ]
(8.8)
m
Âx
i=1
i =1 [ 1 restricción ]
100
Herramientas para la Gestión y la Toma de Decisiones
Si dividimos las n+1 restricciones por v tendremos:
x1 x x
a11 ◊ + a21 ◊ 2 + ... + am1 ◊ m ≥ 1
v v v
x1 x x
a12 ◊ + a 22 ◊ 2 + ... + am 2 ◊ m ≥ 1
v v v
(8.9)
.......... .......... .......... .......... .......... .....
x x x
a1n ◊ 1 + a 2 n ◊ 2 + ... + amn ◊ m ≥ 1
v v v
x1 x 2 x 1
+ + ... + m =
v v v v
xi
Haremos, a continuación, el siguiente cambio de variables: X i = , siendo i=1,2,...,m
v
1
fi max v ∫ min = min{X 1 + X 2 + ... + X m } (8.10)
v
Entonces, el problema, desde la óptica del jugador A, queda como:
ST:
101
Jorge Víctor Pilar
Por su parte, desde la óptica del jugador B , el problema quedaría planteado de la siguiente manera:
1 yj
W= y Yj = (j=1,2,...,n)
v v
Ejemplo 2:
Para ilustrar lo recién visto sobre juegos inestables y estrategias mixtas, considérese el juego que se presenta a
continuación. En una tarde lluviosa y aburrida, dos amigos, Aníbal (A) y Beto (B), deciden jugar una especie de
“desconfío”. Como no tienen naipes colocan en una bolsa oscura igual cantidad de bolitas rojas y azules.
Comienza Aníbal (A), que saca una bolita (que luego devolverá a la bolsa) y sin mostrársela a B anuncia en voz alta
su color. Si es roja y A dice que es roja, A le cobra a B $ 1. En cambio, si es azul y dice que es azul, A le paga a B $ 1.
Cada vez que A afirma haber sacado una bolita roja, B podrá pagar el peso sin chistar, o bien desconfiar y
desafiarlo. Si en realidad es roja, B le deberá pagar a A $ 2 (el $ 1 original, más una multa de $ 1), mientras que si
no lo es, será A quien deberá pagar a B los $ 2.
¿Cuál debería ser el abordaje estratégico de ambos jugadores?
Aníbal (A) sólo tiene dos estrategias puras5:
102
Herramientas para la Gestión y la Toma de Decisiones
Por su parte, Beto (B) también tiene sólo dos estrategias puras:
B1: creerle a A
B2: creerle a A cuando declara que es azul y desafiarlo si A dice que es roja.
Como, en promedio, la mitad de las veces saldrá una bolita azul, mientras que la otra mitad de las veces aparecerá
una roja, la matriz de las consecuencias del juego (las posibles ganancias que obtendría A, que es el jugador al que
estamos asesorando) será:
1 1 ¸
g11 = ◊ (1) + ◊ (-1) = 0 Ô
2 2
Ô
Ô
1 1 Ô
g12 = ◊ (-1) + ◊ (2) = 0,50Ô
2 2 ÔÔ B1 B2
˝fi A1 0 0,50
1 1 Ô
g21 = ◊ (1) + ◊ (1) = 1 Ô A2 1 0
2 2 Ô
Ô
Ô
1 1
g22 = ◊ (2) + ◊ ( -2) = 0 Ô
2 2 Ô˛
Si aplicamos el esquema de cálculo deducido antes, el modelo lineal que solucionará el problema desde la óptica
de A será:
MINIMIZAR Z = X1 + X2
ST:
0 ◊ Y1 + 0,50 ◊ Y2 £ 1
1◊ Y1 + 0 ◊ Y2 £ 1
103
Jorge Víctor Pilar
Al resolver el modelo obtenemos:
Z = 3 , X1 = 2 , X2 = 1
1 1 2 1
Como v = fiv= , x 1 = X1◊ v = , x 2 = X 2 ◊ v =
Z 3 3 3
MAXIMIZAR: {W = Y1 + Y2}
ST:
0◊ X1 + 1◊ X 2 ≥ 1
0,50 ◊ X1 + 0 ◊ X 2 ≥ 1
W = 3 , Y1 = 1 , Y2 = 2
1 1 1 2
Como v = fiv= , y 1 = Y1◊ v = , y 2 = Y2 ◊ v =
W 3 3 3
¿Cómo se debe interpretar el resultado? Aníbal (A) debería decir la verdad 2/3 de las veces y mentir el tercio restante
(y que no se malentienda: no debería considerarse a esta sugerencia una apología de la mentira pues, recordemos
que se trata de un simple juego). Por su parte, Beto (B) debería creerle a Aníbal (A) 1/3 de las veces y deberá
desafiarlo los 2/3 restantes. Por lo menos, esas estrategias serán las que maximicen el valor esperado de las
respectivas ganancias de ambos jugadores.
104
Herramientas para la Gestión y la Toma de Decisiones
9. FUNDAMENTOS DE OPTIMIZACIÓN
MULTIOBJETIVO / MULTICRITERIO
Presentación
Supongamos que queremos comprar un equipo de computación (una PC, por ejemplo). Tenemos para escoger
tres alternativas comparables entre sí. Sin embargo, existen diferencias notables en el precio, la velocidad de
procesamiento, la capacidad de almacenamiento y el servicio posventa o garantía. ¿Cómo hacemos para escoger
el equipo?
Elegir una sola opción entre varias posibles y teniendo en cuenta varios criterios simultáneamente puede transfor-
marse en una tarea complicada, además de una fuente de potenciales conflictos. Según las circunstancias y las
consecuencias futuras, el proceso decisorio puede llegar a ser sumamente difícil.
Este tipo de situaciones, a veces denominadas jocosamente como la búsqueda de lo simultáneamente “bueno,
bonito y barato” (“las tres B”), viene siendo estudiado desde el último cuarto del siglo XX por la Investigación de
Operaciones, que desarrolló técnicas para abordar estos problemas de optimización multiobjetivo/ multicriterio.
Ellas son una importante herramienta de apoyo a la decisión, en especial en problemas de interés público (Barbo-
sa, 1997; Cohon, 1978; Eppen et al, 2000).
105
Jorge Víctor Pilar
Los conceptos y definiciones asociados a la optimización multiobjetivo, acertados o equivocados, buscan objetivar
de alguna manera el subjetivo proceso de decisión, rompiendo con el mito de la decisión óptima en el más puro y
abstracto sentido matemático. Algunos autores definen a estos métodos como una tercera alternativa a la eterna
dicotomía entre el pragmatismo y el purismo académico (Barredo Cano, 1996).
Diferentemente de la optimización tradicional, con una única función objetivo a maximizar o minimizar, en la
multiobjetivo se debe optimizar un vector y ello es imposible en teoría: en realidad, no existe una única solución
óptima, sino un conjunto de soluciones que satisfacen en grado y forma diferentes los objetivos escogidos (Andreu
Álvarez, 1993b).
Éste es el principio de los óptimos “paretianos”. Para definirlos es necesario presentar las soluciones viables en un
espacio de decisión diferente, en el cual cada dimensión es caracterizada por uno de los objetivos. Ello permitirá
visualizar las soluciones denominadas dominantes (o no dominadas) y las que no lo son, conocidas como domi-
nadas.
Se dice que una solución es dominante cuando, para mejorarla según alguno de los objetivos, se la empeora
según alguno de los otros (Braga e Gobetti, 1997; Cohon, 1978; Zionts, 1994?; Duckstein e Szidarovski, 1994).
Um problema de optimización multiobjetivo puede ser expresado formalmente de la siguiente manera (Barbosa,
1997):
ÏMax F(y)
Ô
ÌST : (9.1)
Ôy Œ Y
Ó
donde:
Y: es el conjunto de alternativas de solución;
y: es una alternativa particular;
F: es la función (o funcional) que refleja las preferencias de los decisores.
El analista investiga el conjunto “Y”, mientras el decisor se manifiesta o pronuncia sobre la función “F”.
En síntesis, los objetivos reflejan las aspiraciones de los decisiores en relación a alcanzar alguna meta (ver Capítulo
3). Los atributos serán los elementos que permitan evaluar en qué medida están siendo alcanzados los objetivos, o
sea, son las variables cuantitativas que caracterizan una decisión.
106
Herramientas para la Gestión y la Toma de Decisiones
Ocurre que, la mayoría de las veces, los decisores reales son personas ajenas al ambiente académico y no poseen
conocimientos profundos de matemática, lo que origina cierto rechazo por este tipo de abordaje. ¿Qué se podría
hacer para amenizar esta situación?
A pesar de las críticas que pudieran hacérseles, los modelos y técnicas de decisión multiobjetivo/multicriterio
ofrecen la oportunidad de realizar un análisis equilibrado de todas las facetas de un problema de planeamiento,
especialmente de las intangibles, como las sociales o ambientales (Nijkamp y Van Delft, apud Barredo Cano, 1996).
b) técnicas que incorporan las preferencias a priori de los decisores (no interactivas):
- técnicas que utilizan funciones de utilidad multiatributo;
- técnicas que atribuyen pesos o ponderaciones a priori;
- los métodos Electre (1 a 3 y las variantes 4 a 6);
- el método Promethee;
- el método del Valor Sustitutivo de Intercambio;
- el método del Análisis Jerárquico;
- el método Macbeth;
c) técnicas que utilizan una articulación progresiva de preferencias: podría decirse que se basan en un procedi-
miento de prueba y error para alcanzar la solución de mejor compromiso. Pertenecen a este grupo los métodos
que utilizan trade-offs. Requieren una interacción permanente entre analista y decisor.
107
Jorge Víctor Pilar
Según la opinión del autor (Pilar, 2003), podría incorporarse una cuarta categoría:
108
Herramientas para la Gestión y la Toma de Decisiones
En la matriz “A” de la figura anterior, “a12” representa la importancia relativa entre la alternativa “1” y la “2”. Por lo tanto,
esa matriz “A” será recíproca, o sea que los valores que están por arriba de la diagonal principal será recíprocos de
los que están por debajo de ella. Además, esa diagonal principal, estará integrada por “unos”.
Para expresar esas importancias relativas, Thomas Saaty, el autor del método, recomienda la utilización de una
escala de puntuación que varía entre 1 y 9, según la siguiente valoración subjetiva (Saaty, 1991):
- puntuación 1: es lo mismo;
- puntuación 3: es un poco más importante;
- puntuación 5: es mucho más importante;
- puntuación 7: es fuertemente más importante;
- puntuación 9: es absolutamente más importante;
pudiendo ser utilizadas puntuaciones intermedias.
109
Jorge Víctor Pilar
Si reemplazamos cada elemento “aij” de la matriz “A” por lo que representa, es decir la relación entre el peso (la
importancia) de la alternativa “i” sobre el peso de la alternativa “j”, se obtendrá una nueva expresión de la matriz “A”,
tal como lo mostrado en la Fig. 9.2.
È w1 w1 w1 ˘
Íw .....
w2 wn ˙
Í 1 ˙
Í w2 w2
.....
w2 ˙
A = Í w1 w2 wn ˙
Í ..... ..... ..... ..... ˙
Í wn wn wn ˙
Í ..... ˙
Î w1 w2 wn ˚
Nadie en sus cabales esperará que un ecuacionamiento semejante se realice cada vez que alguien vaya a tomar
una decisión. Sin embargo, si se espera que el juicio sea ecuánime, el proceso de decisión no debería apartarse
mucho de ese esquema.
Continuando con el razonamiento, consideremos la línea “i” de la matriz “A”: ai1; ai2; .... ; aij; .... ; ain. En el caso ideal
y utópico, si se multiplicara el primer elemento de la línea por “w1”, el segundo por “w2”, y así en más, se tendrá:
wi wi w w
◊ w1 = w i ◊ w 2 = w i ....... i ◊ w j = w i ....... i ◊ w n = w i (9.2)
w1 w2 wj wn
Si eso mismo se hiciera con los juicios reales (ya no con los ideales), se obtendría una línea (vector línea) cuyos
elementos representarían la dispersión estadística del juicio elaborado sobre el valor de “wi”. Luego, parecería
válido utilizar como estimativa del peso “wi” de la alternativa “i” al promedio de estos valores (Saaty, 1991).
1 n
Caso más real: w i = ◊ Â ai j ◊ w j (9.4)
n j =1
110
Herramientas para la Gestión y la Toma de Decisiones
Entonces, suponiendo que se tiene una matriz “A”, que consiste en juicios “precisos” y otra matriz “A´”, que sea una
estimativa aproximada de “A”, se podrá escribir lo siguiente:
Se podría demostrar que, en el caso de que la “A´” sea una matriz consistente (con juicios o ponderaciones
coherentes), la ecuación anterior tiene solución única y en ella “lMÁX” es el mayor autovalor de “A´”, mientras que
“w” es su autovector. Este autovector será el “vector de prioridades” de las alternativas que se están analizando,
según el criterio utilizado en la elaboración de las comparaciones.
Matemáticamente hablando, cuanto más parecido sea “lMÁX” al número de alternativas que están siendo compa-
radas (n), más consistente será el juicio de valor que se elaboró.
El autor del método, Thomas Saaty, definió un “índice de consistencia” para verificar, justamente, la consistencia de
la matriz de comparaciones paritarias (Saaty, 1991; Romero, 1996), que no será explicado.
Por su parte, el autor de este libro, en su tesis de doctorado presentó una metodología bastante simple para elaborar
matrices de comparaciones paritarias que sean estrictamente consistentes (Pilar, 2003). Además, presentó una
propuesta de relajamiento difuso de las puntuaciones adoptadas (el concepto de relajamiento difuso será presen-
tado en el capítulo siguiente de este libro).
Ejemplo 1:
Simplemente para ejemplificar el método, volvamos al problema de selección del equipo de computación con el
que comenzamos el capítulo.
Supongamos que en el comercio nos ofrecen 3 tipos de PCs, comparables entre sí, pero que difieren en precio
(aspecto “P”), velocidad de procesamiento (aspecto “V”), capacidad de almacenamiento (aspecto “C”) y garantía
(aspecto “G”), siendo estos 4 aspectos los que, según nuestro parecer, influirán en la elección que hagamos (los
aspectos relevantes deben ser listados en forma exhaustiva, pero evitando las repeticiones).
Lo primero que debemos preguntarnos es: ¿qué importancia le damos a cada uno de estos aspectos? Para dar
una respuesta a esta cuestión es necesario elaborar una matriz en la que compararemos los aspectos relevantes
de a pares (Tabla 9.1):
111
Jorge Víctor Pilar
Tabla 9.1 Matriz de comparaciones paritarias entre los aspectos relevantes
Analicemos la primera línea, es decir las comparaciones del aspecto “precio” con los otros tres: para los responsa-
bles de tomar esta decisión, es decir nosotros, el precio es “mucho” más importante que la velocidad de procesa-
miento (puntaje 5), un “poco” más importante que la capacidad de almacenamiento (puntaje 3) y algo más impor-
tante que la garantía (puntaje 4). A su vez, la comparación de estos tres aspectos con el precio están indicados en
la primera columna de la matriz y los valores allí consignados son, lógicamente, recíprocos de la primera línea, es
decir 1/5, 1/3 y 1/4, respectivamente.
Las últimas 3 líneas de la matriz de arriba representan el cálculo aproximado -pero con suficiente precisión- del
autovector (el asociado al mayor autovalor) de la matriz de comparaciones paritarias, denominado “K normalizado”.
¿Qué significa ese autovector? Que si la matriz de la Tabla 9.1 refleja razonablemente nuestra percepción del
problema, el precio influiría 56% en nuestra decisión, la velocidad 11%, la capacidad 20% y la garantía 13%
(0,56+0,11+0,20+0,13=1).
A continuación, es necesario elaborar otras 4 matrices, en las que compararemos entre sí los tres equipos de
computación que nos ofrecen, según cada uno de los aspectos mencionados.
112
Herramientas para la Gestión y la Toma de Decisiones
Tabla 9.2 Matriz de comparaciones paritarias de las PCs según el precio
La última línea de la Tabla 9.2, que es el autovector de la matriz, nos indica que, considerando sólo el precio, la PC-
1 se lleva el 11% de nuestra atención, la PC-2 el 30%, mientras que la PC-3 el 59%.
Del análisis de la primera línea de la matriz de la Tabla 9.3 se puede deducir que la PC-1 tiene más velocidad de
procesamiento que la PC-2, que a su vez tiene mayor velocidad que la PC-3.
113
Jorge Víctor Pilar
Tabla 9.4 Matriz de comparaciones paritarias de las PCs según la capacidad
114
Herramientas para la Gestión y la Toma de Decisiones
Podemos ver que, según nuestro análisis, la PC-2 es menos preferible que la 1 y la 3. Sin embargo, las puntuacio-
nes de estas dos últimas difieren muy poco -en el orden del 5%-, lo que podría considerarse un “empate técnico”.
No es raro que ocurran situaciones de empate como la que se dio en este caso. De todas maneras, la aplicación
del método permitió descartar una opción, la PC-2, que aparece en nuestro análisis como claramente menos
preferible que las otras dos, lo que, según la situación analizada, puede transformarse en un importante avance en
el proceso decisorio.
Para completar el ejemplo, correspondería la verificación de las consistencias de las matrices. Sin embargo, como
no hemos explicado la metodología de esa verificación, el paso será obviado. (Se aclara que las matrices del
ejemplo superaron la verificación.)
La Programación de Compromiso
El método, desarrollado por Zeleny, en 1973, se basa en que existiría una alternativa ideal, comúnmente inalcanza-
ble, que conjugaría los mejores resultados según los objetivos planteados.
Si ella fuese alcanzable sería la solución óptima. Sin embargo, como normalmente no lo es, la solución de “mejor
compromiso” (la más eficiente) será aquella que se localice a menor distancia del punto ideal, lo que es conocido
como axioma de Zeleny (Romero, 1996).
Entonces, para cada objetivo es necesario calcular la distancia al punto ideal:
*
d j = [ f j - f j ( x)] (9.6)
La diferencia encerrada entre corchetes en la última ecuación indica el grado de proximidad entre el objetivo j-
*
ésimo (fj (x) ), para un vector “ x ” de las variables de decisión, y su valor ideal fj *, siendo f j = Máx f j ( x) .
Dependiendo de las variabilidades que pudieran existir entre las diferentes funciones objetivo, las diferencias
calculadas aplicando la ecuación anterior deberían ser “normalizadas”, por ejemplo dividiéndolas por la diferencia
entre el valor ideal (fj *) y el antiideal (f*j ).
115
Jorge Víctor Pilar
[ f j* - f j ( x )]
dj = (9.7)
[ f j* - f* j ]
Si se denomina “wj” a la importancia que el decisor atribuye al objetivo j-ésimo, la solución de mejor compromiso
surgirá del siguiente problema de optimización (Romero, 1996):
1
È n Ê [ f j * - f j ( x )] ˆ ˘
p p
Mín x p = ÍÂ w j ◊ Á * ˜ ˙
p
Í j =1 Á [ f j - f* j ] ˜ ˙ (9.8)
Î Ë ¯ ˚
El parámetro “p” establece la métrica que define la familia de funciones de distancia, o sea, para cada valor de “p”
se tendrá una distancia (además de un “tipo” de distancia). La distancia tradicional euclidiana es un caso particular
de la ecuación anterior, en la cual p = 2.
En caso que los pesos “wj” fuesen iguales, el espacio de decisión sería un cuadrado, o un cubo, o un hipercubo,
según la cantidad de aspectos (dimensiones) considerados como relevantes.
Pero, si esos pesos fuesen diferentes entre sí, esas figuras o cuerpos regulares se deformarían, transformándose en
un rectángulo, un poliedro, o un hiperpoliedro, respectivamente. La Fig. 9.4 muestra esa deformación para un
espacio de decisión de tres dimensiones.
Aspecto 3 (10,10,10) Aspecto 3
10
(w1.10, w2.10, w3.10)
Aspecto 2 w3.10
Aspecto 2
10
w 2.10
Aspecto 1 Aspecto 1
(1,1,1) 10 (w1.1, w2.1, w3.1) w1.10
116
Herramientas para la Gestión y la Toma de Decisiones
Hasta ahora sólo hemos mencionado que el método consistía en minimizar la distancia al punto ideal. Sin embar-
go, vale la pena aclarar, que podría también considerarse la maximización de la distancia al punto antiideal.
Y aquí sería importante hacer una aclaración: es común suponer que los conceptos “estar cerca del punto ideal” y
“estar lejos del punto antiideal” son complementarios y equivalentes y que, por lo tanto, deberían producir resultados
compatibles y semejantes. Sin embargo, ello no es así, lo que será explicado a continuación con un ejemplo muy
simple.
En la Fig. 9.5 se presenta un espacio de decisión hipotético, con sólo dos aspectos relevantes e igualmente
importantes (w1 = w2).
En ese espacio existen dos puntos de interés: el caracterizado por las coordenadas (10,10), que representa el más
deseable o punto ideal, y el que posee las coordenadas (1,1), el punto antiideal, del cual sería deseable apartarse
lo más posible. En esa figura, los arcos de circunferencia mostrados representan curvas de equidistancia (igual
distancia) a esos puntos.
Aspecto 2
(10,10)
10
A
B
1
(1,1)
Aspecto 1
1 10
Figura 9.5 Diferencia entre los conceptos “estar cerca de” y “estar lejos de”
Los puntos “A”, “B” y “C” de la Fig. 9.5 están a la misma distancia del punto antiideal (1,1), pero, sin embargo, el “B”
está más cerca del ideal (10,10). Entonces, el punto “B” tiene mejores cualidades que el “A” y el “C” y, por lo tanto,
debería ser preferido antes que los otros.
117
Jorge Víctor Pilar
118
Herramientas para la Gestión y la Toma de Decisiones
Introducción
La clasificación de cosas o elementos siempre genera sensaciones de duda, sobre todo cuando estamos en
cercanías de los límites de esas clasificaciones. Ello ocurre porque, según la lógica booleana, sobre la que se basa
la Teoría de Conjuntos que nos enseñan en los cursos elementales de Álgebra, un elemento, o bien pertenece a un
conjunto, o bien no pertenece a él.
Esta definición “binaria” presenta algunas complicaciones en la vida cotidiana. Por ejemplo, una vez, durante una
clase, le pedí a una alumna que me definiera “un hombre alto”. Ella me respondió con bastante rapidez que, según
su parecer, un hombre es alto si mide 1,80m o más.
Le comenté a esa alumna que, según la lógica booleana y como consecuencia de la definición que ella había
dado, si un hombre midiese 1,79m sería “bajo”... ¡No!, me respondió inmediatamente.
Para tratar de amenizar la situación de confusión y perplejidad que se había suscitado le pedí, entonces, que
definiera “un hombre bajo”. Dubitativamente me respondió que, si tuviese que definir un límite, sería 1,60m: todo
hombre de 1,60m de estatura o menos sería, para ella, bajo.
Entonces, según su parecer, con 1,80 m de estatura, o más, la pertenencia de un hombre al conjunto de los
hombres altos sería total, mientras que con una altura de 1,60 m o menos, la pertenencia sería nula. Entre ambos
límites, habrá una situación de pertenencia parcial, con una variación gradual, que podría seguir cualquier ley, por
ejemplo lineal. ¡Qué interesante idea!
En la figura 10.1 se muestra un esquema que grafica la clasificación difusa, con pertenencia parcial, recién
discutido.
Un conjunto difuso tiene una particularidad que lo hace diferente de un conjunto clásico: sus elementos pueden
tener una pertenencia parcial.
El grado de pertenencia es la certeza que se tiene respecto a que un elemento pertenezca a ese conjunto difuso.
Es definido como un número real, que varía entre 0 y 1: cuando existe certeza de pertenencia total se usa el “1”; en
119
Jorge Víctor Pilar
el otro extremo, cuando se tiene la certeza de que un elemento no pertenece al conjunto, entonces se usa el “0”
(Pedrollo, 2000, Galvão, 1999, Vieira, 1996, Sakawa, 1993).
0
Altura
Las bases teóricas de la lógica difusa fueron enunciadas en 1965 por el profesor de Ingeniería Eléctrica de la
Universidad de California en Berkeley, Lotfi A. Zadeh, quien más tarde presentó la teoría básica de los controladores
borrosos, en 1973. Como toda nueva teoría, al principio tuvo una aceptación muy tibia, casi fría, pero luego,
gradualmente, comenzaron a desarrollarse trabajos de investigación y aplicaciones prácticas, hasta llegar a la
época actual, en la que la gran cantidad de procesos de control (incluidos los de las lavadoras de ropas, o de vajilla)
se basan en estos conceptos (Martín del Brío & Sanz Molina, 2007).
Estas características de los conjuntos difusos los vuelven especialmente aptos para describir expresiones que
representan situaciones o condiciones comunes y que mal podrían ser definidas con una variable numérica. Estas
expresiones son comúnmente denominadas variables lingüísticas (o imprecisas).
A continuación serán presentados algunos conceptos muy básicos (según Vieira, 1996) de la lógica difusa:
- Conjunto difuso: Si “X” es una colección de elementos “x”, la definición matemáticamente formal de un
~ ” es la siguiente:
conjunto difuso “ A
~ = { [x, µ ~ ( x)] ( x Œ X ) }
A (10.1)
A
120
Herramientas para la Gestión y la Toma de Decisiones
~ ”, que normalmente tiene como límite
En la ecuación (10.1), “ µ A~ ( x ) ” es la función de pertenencia de “x” en “ A
inferior “0”, y como límite superior “1”. Con estos límites, el conjunto es denominado normalizado o normal.
121
Jorge Víctor Pilar
“calificación adecuada”
Grado de pertenencia a
Calificación
7 8 9
Reflexiones finales
Si profundizáramos más en este tipo de abordaje nos estaríamos escapando al espíritu del libro. Vale la pena
aclarar que, en la actualidad, hay mucha y buena literatura sobre lógica difusa, que podría ser consultada por los
lectores interesados en el tema.
Sin embargo, a modo de reflexión final, se podría decir que la utilización de este tipo de lógica es un abordaje
alternativo, según el cual se realiza un relajamiento difuso de calificaciones y valores que, al ser parámetros que
caracterizan una situación problema, en el abordaje tradicional, basado en la lógica booleana, adoptan un valor
único, rígido e inamovible. Por eso, en el abordaje tradicional es importante realizar el análisis posóptimo, o análisis
de sensibilidad.
Entonces, el relajamiento difuso podría ser considerado como el análisis de sensibilidad incluido en el propio
proceso de optimización y es posible aplicarlo a todas las técnicas de optimización antes vistas, desde la
Programación Lineal, hasta la Programación Multiobjetivo/Multicriterio. Además, como ya dijimos antes, la lógica
difusa está presente en gran cantidad de procesos de control, desde los que regulan fábricas muy complejas, hasta
los utilizados en las lavadoras de ropas y de vajilla modernas.
122
Herramientas para la Gestión y la Toma de Decisiones
123
Jorge Víctor Pilar
escribió la siguiente frase: “El peor enemigo de la humanidad no parece ser el holocausto nuclear sino la ignoran-
cia; la ignorancia de algunos de nosotros, que fuimos educados y presumimos de conocer. Este es un extraño tipo
de ignorancia, resultante, tal vez, de un exceso de información”.
Hay una gran diferencia entre saber y estar informado. Saber implica una tarea intelectual de procesamiento y
asimilación, mientras que para estar informado sólo hace falta tener acceso a la información. La abundancia de
esta última nos apabulla. Aparece y fluye a una velocidad que supera nuestra capacidad para procesarla, lo que nos
lleva, a veces, a creernos verdaderos conocedores cuando tal vez ni siquiera alcanzamos la calidad de bien
informados.
124
Herramientas para la Gestión y la Toma de Decisiones
situaciones de decisión en las que puedan ventilarse; soluciones en busca de cuestiones para las cuales podrían
ser una respuesta, y tomadores de decisiones en busca de trabajo”.
Pero existen, además, otros modelos:
- “Primero ver”: La secuencia sería:
1) preparación (conocimiento profundo);
2) incubación (reflexión);
3) iluminación (efecto “¡Eureka!”) y
4) verificación de resultados (reflexión lógica a posteriori).
Una frase atribuida a Luis Pasteur dice así: “El azar sólo favorece a la mente preparada”.
- “Primero actuar”:
1) representación (análisis profundo y objetivo de la situación);
2) selección de alternativas de acción, y
3) retención (probar varias opciones, determinar cuál funciona, tratar de entender el por qué y luego repetir
el comportamiento exitoso).
125
Jorge Víctor Pilar
En síntesis, el modelo “primero pensar” sería aplicable a la gestión planificada, el “primero ver” a la gestión de la
innovación e invención, mientras que el “primero actuar” es el que debería utilizarse en situaciones de crisis.
“Esperamos que ocurra lo mejor, pero también estamos preparados por si ocurriese lo peor” podría ser un buen
lema de los responsables de hacer gestión.
- Un ejemplo real:
Para ejemplificar lo antes expresado, permítaseme contar un hecho que sucedió durante la época que me tocó
administrar los recursos hídricos de la Provincia del Chaco.
Cierto día, leí en uno de los diarios que el intendente de una localidad del interior, perteneciente a un partido político
diferente del gobierno provincial que yo integraba, cuestionaba muy duramente la ejecución de una obra reclama-
da desde hacía tiempo. Entonces, lo llamé, coordinamos un encuentro, en el que le planteé los potenciales
beneficios de esa obra. Me pareció que al final de la reunión nos habíamos puesto de acuerdo. Sería difícil para mí
explicar el asombro que me provocó cuando leí al día siguiente, en el mismo diario, otra vez las críticas.
126
Herramientas para la Gestión y la Toma de Decisiones
Yo, que estaba “prestado” de la Universidad en el Gobierno, no conocía los “códigos” de la política, pero sí la Teoría
de Juegos No Cooperativos de Nash (el personaje de la famosa película “Una mente brillante”). Así que decidí
analizar la situación suscitada a través de esa teoría, por lo que intenté montar la matriz de esta suerte de juego, y lo
que surgió es lo mostrado en la Tabla 11.1.
Mi “adversario”
Estrategias Atacar No atacar
Atacar R- ; R- B;M
Yo
No atacar M;B R+ ; R+
En esa matriz, que representa simplemente un juego, “atacar” debe ser entendido como expresar críticas a través
de los medios. A su vez, mi “adversario” sería el intendente (que, dicho sea de paso, hoy es un gran amigo personal).
Los cuatro pares de valores allí mostrados deben ser entendidos de la siguiente manera: el valor de la izquierda
representa el resultado que yo obtendría, mientras que el de la derecha, el resultado que obtendría mi adversario.
Los posibles resultados de ese juego serían:
- si yo atacaba y mi adversario también, a ambos nos iría regular “menos” ante la opinión pública (R- ; R-);
- si él atacaba y yo no respondía, a mí me iría mal y a él bien (M ; B);
- recíprocamente, si yo atacaba y él no respondía, a mí me iría bien y a él mal (B ; M);
- y si ninguno de los dos nos atacábamos y nos dedicábamos cada uno a sus tareas, a ambos nos iría, digamos,
regular “más” (R+; R+).
Analicemos ahora las opciones:
- si mi adversario eligiese atacarme, sus opciones de resultado serían “B” o “R-”; como yo tendría por opciones
de resultado “R-” o “M”, mi respuesta sería la asociada con la mejor de ellas, “R-”, o sea atacar;
- si en cambio él decidiese no atacarme, sus opciones de resultado serían “R+” o “M”, mientras que las mías “B”
o “R+”, por lo que mi respuesta sería, nuevamente, atacar;
Por lo tanto, se ve que este juego tiene un punto de equilibrio estable, (R- ; R-), correspondiente a la decisión
(estrategia) de atacar por parte de los dos jugadores: parecería que, en cuestiones políticas, el nombre del juego es,
entonces, atacar.
127
Jorge Víctor Pilar
Sin embargo, ese punto de equilibrio estable es subóptimo, pues existe un resultado mejor para ambos, (R+ ; R+),
que corresponde a las decisiones simultáneas de no atacar. Pero mientras no existiese confianza ni vocación de
colaboración mutua, ese punto verdaderamente óptimo, no será un punto de equilibrio estable7.
Entonces, a partir de habernos dado cuenta que existía un resultado mejor para ambos, comenzamos a trabajar
más cooperativamente con ese intendente, al punto de entablar una relación de amistad que perdura en la actualidad.
¿Actuar? ¿Qué hacer? ¿Cómo hacerlo? ¿Cuándo hacerlo? Son preguntas pertinentes y conducentes en la vida
diaria de los responsables de hacer gestión.
Muchos de nosotros conocemos ambientes de trabajo en los que casi siempre es posible esperar hasta mañana
para tomar una decisión o ejecutar algo… Como conclusión, todo (o casi todo) espera hasta mañana.
7 Ese punto de equilibrio estable, pero subóptimo, se denomina “equilibrio de Nash”.
128
Herramientas para la Gestión y la Toma de Decisiones
Sin embargo, en otros ámbitos, por ejemplo los relacionados al manejo de recursos hídricos, si a las 6 de la
mañana aparece un problema, si no se ensayó una solución para las 9, el problema puede transformarse en un
desastre.
Para encarar los desafíos del presente y del futuro no hay que temer a las crisis, ni protestar contra ellas y, sobre todo,
no inventarlas. El miedo a enfrentar una crisis puede transformarla en una verdadera catástrofe.
En términos generales, el responsable de hacer gestión deberá tomar decisiones permanentemente. Sin embargo,
habrá situaciones que no ameriten su intervención, y en esos casos será importante que no intervenga: por ejemplo,
no es sensato que el presidente de una compañía decida la marca de café que se tomará en la misma; no delegar
esos menesteres intrascendentes y ocupar su tiempo valioso en esas decisiones menores provocará que desatien-
da cuestiones realmente importantes.
El riesgo en la gestión
Sería deseable seguir la secuencia mostrada en la Fig. 11.1 para pasar a la acción:
Los datos se obtienen de mediciones (en lo posible sistemáticas); son sólo números con sus unidades. La informa-
ción resulta de procesar los datos (verificación de consistencia, correlaciones, tendencias, etc.).
En la Fig. 11.1 las flechas representan la necesidad de incorporación de materia gris (o inteligencia) para pasar de
un estadio al siguiente, y su tamaño refleja la cantidad requerida de este insumo indispensable (aunque no siempre
abundante). Sin embargo, en la práctica de la gestión, puede ocurrir que exista gran presión para pasar sin escalas
a la acción…, “y que la suerte te acompañe”.
129
Jorge Víctor Pilar
La gestión del riesgo es verdaderamente controversial. “El riesgo es una opción, no un destino” es una frase que
escribió Peter Berstein en su libro “Desafio aos deuses: a fascinante história do risco” (Desafío a los dioses: la
fascinante historia del riesgo). Significa que no existe el riesgo intrínseco; sólo hay riesgo cuando se toma una
decisión.
En el Capítulo 2 se discutió sobre el riesgo, y se comentó que ese concepto se relaciona con la Estadística y las
Probabilidades. Sin embargo, mientras académicamente la Estadística es muy respetada y ocupa un lugar desta-
cado, la sociedad es un tanto escéptica y descreída (¿por qué debería creer y confiar en algo tan complicado de
calcular?), por lo que es bastante común percibir la existencia de una brecha entre el riesgo y la percepción social
del riesgo. (Lo de la percepción social del riesgo tendría relación con el concepto “bayesiano” de probabilidad,
también discutido en el Capítulo 2.)
130
Herramientas para la Gestión y la Toma de Decisiones
El problema que se planteó fue que ninguna de las trazas propuestas se mostró, ni absolutamente mejor, ni
absolutamente peor que las otras. Utilizando la terminología definida en este libro, ninguna constituyó una solución
dominante ni dominada: por ejemplo, una de esas alternativas aparecía como más eficiente en términos de
bombeo, pues poseía un mayor reservorio; sin embargo, se mostraba muy vulnerable a una ocupación de ese
cuenco. La selección de la traza que finalmente se construiría se presentaba como una tarea difícil y conflictiva
para las autoridades de la Administración Provincial del Agua del Chaco - APA.
Para resolver la localización de la obra se realizó un abordaje de optimización multiobjetivo, basado en el Método
del Análisis Jerárquico – MAJ, presentado en el Capítulo 9, estableciéndose que eran seis los aspectos relevantes
a ser considerados. Solamente para ilustrar, esos aspectos fueron:
a) geotécnicos;
b) grado de exposición al río Paraná;
c) vulnerabilidad ante la ocupación del reservorio;
d) vulnerabilidad ante el corte del servicio eléctrico;
e) costo;
f) impacto ambiental.
De la aplicación del modelo montado al efecto, y según las ponderaciones efectuadas por los decisores (las
autoridades de la APA), resultó que dos de las alternativas aparecieron en un mismo nivel de preferencia (una
diferencia de puntuación de 5% entre ambas, que podría considerarse dentro de los errores y tolerancias del
método), mientras que la restante se mostró bastante menos preferible que las anteriores. Luego, a través de un
análisis posterior más detallado, se escogió la alternativa que finalmente se proyectó y ejecutó.
Vale la pena destacar que la aplicación del MAJ, que tiene una sólida base matemática y lógica, fue fácilmente
entendida por los encargados de tomar esta difícil decisión, lo que permitió su utilización para dirimir el problema.
El ejemplo mostrado no fue el único, por lo que se puede inferir que deben existir muchos más. La suerte de
encuesta realizada no fue diseñada ni diagramada como tal (por ejemplo, no se puede afirmar que la muestra sea
representativa del universo al que pertenece) y lo que se estaba buscando (por mero “tanteo a ciegas”) era,
simplemente, experiencias del uso de métodos científicos aplicado a la planificación y a la gestión real.
131
Jorge Víctor Pilar
- La comunicación interna:
Para ilustrar la importancia de la comunicación interna considérese el siguiente ejemplo. Cuenta una vieja historia
que, una vez, un viajero vio un hombre que con martillo y cincel golpeaba rocas hasta dejarlas muy regulares. El
viajero le preguntó qué estaba haciendo. La respuesta del picapedrero no se hizo esperar: “Estoy construyendo una
catedral”, dijo muy orgulloso de su trabajo.
Ese humilde trabajador estaba perfectamente conciente del objetivo de su labor; se sabía y sentía un eslabón muy
importante en una organización muy compleja, que tenía como meta ejecutar algo realmente ambicioso.
La comunicación bien utilizada es un gran estimulador, dado que permite construir un buen ambiente laboral. En
general, la gente que trabaja cómoda, respetada e informada produce más, pues sabe qué está haciendo y por ello
desarrolla un sentimiento de compromiso con los objetivos de la institución. Es lo que vulgarmente se define con la
frase “Tiene bien puesta la camiseta de la organización…”.
Además, los integrantes de una organización en la que se practica una adecuada comunicación interna se trans-
forman en responsables y garantes de los objetivos institucionales; dejan de ser meros e indiferentes vendedores de
tiempo para transformarse en reales actores de esa institución.
Hoy estamos viviendo una revolución de las comunicaciones. Como consecuencia de las facilidades que ofrecen
las TICs (tecnologías de la información y la comunicación) la comunicación es algo que se realiza en tiempo real
y para ello contribuyeron la Internet, la telefonía celular, las redes sociales, entre otros.
Las modalidades de comunicación no deberían competir entre ellas; más bien, deben complementarse. Hay
cosas que se pueden escribir y otras que deben manejarse en forma más reservada, verbalmente, por ejemplo. Hay
situaciones que podrían resolverse con una simple llamada telefónica y para las cuales la circulación de notas
escritas y memorandos podría ser inconveniente y hasta contraproducente.
Así como es importante elegir la o las modalidades de comunicación más adecuadas, también es importante
manejar la oportunidad, tanto en lo referido al momento, como al lugar.
132
Herramientas para la Gestión y la Toma de Decisiones
En el tema de comunicación también hay que realizar un control de gestión: verificar que se haya cerrado el círculo
esperado de la comunicación. La comunicación también es responsabilidad indelegable del encargado de reali-
zar gestión.
133
Jorge Víctor Pilar
A modo de epílogo
Se podría afirmar que, hasta ahora, las investigaciones académicas y científicas sobre gestión se enfocaron a
desarrollar algoritmos y/o heurísticas para abordar y auxiliar en cuestiones sobre decisiones, utilizando problemas
más o menos reales para ilustrar su aplicabilidad (deductivismo). Tal vez ya sea tiempo de comenzar con investiga-
ciones orientadas a problemas reales y concretos.
Parafraseando al Profesor Eduardo Lanna (UFRGS – Brasil), parecería que las investigaciones buscan desarrollar
remedios genéricos, para después buscar las enfermedades que sean curadas con esos remedios; ya sería hora
de apostar un poco más fuerte al desarrollo de remedios a la medida de enfermedades reales.
Mientras tanto, y como recomendación:
- medir es necesario (para tener datos);
- estudiar es necesario (para conocer métodos y alternativas);
- tomar decisiones adecuadas y oportunas es necesario;
- hacer un control de gestión es necesario (para hacer cambios de rumbo oportunamente); y
- comunicar adecuadamente es necesario.
Jawarharlal Nehru dijo una vez, “La vida es como un juego de cartas. La mano que te ha tocado representa el
determinismo; la forma en que tú la juegas es tu libre albedrío”. Fue el anhelo del autor (mi anhelo) al comenzar la
redacción de este libro aportar ideas y experiencias a los responsables de hacer gestión y tomar decisiones para
que utilicen su libre albedrío para hacer jugadas magistrales con las “cartas” que les toca en suerte.
134
Herramientas para la Gestión y la Toma de Decisiones
REFERENCIAS BIBLIOGRÁFICAS
ANDREU ÁLVAREZ, J. 1993. Análisis multiobjetivo. In: Conceptos y métodos para la planificación hidrológica.
Barcelona: Centro Internacional de Métodos Numéricos en Ingeniería. p.239-248.
BARBOSA, P.S.F. 1997. O emprego da análise multiobjetivo no gerenciamento dos recursos hídricos. A água em
revista, Belo Horizonte, v.5, n.8, p.42-46.
BARREDO CANO, J.I. 1996. Sistemas de información geográfica y evaluación multicriterio. Madrid: RA-MA.
264p.
BARROS, M.T.L. 1997. A programação dinâmica aplicada à engenharia de recursos hídricos. In: TÉCNICAS
quantitativas para gerenciamento de recursos hídricos. Porto Alegre: Ed. da Universidade/UFRGS: ABRH. p.239-
277.
BERNSTEIN, P.L. 1997. Desafio aos deuses: a fascinante história do risco. Rio de Janeiro: Campus. 389p.
BRAGA JÚNIOR, B.; GOBETTI, L. 1997. Análise multiobjetivo. In: TÉCNICAS quantitativas para o gerenciamento de
recursos hídricos. Porto Alegre: Ed. da Universidade/UFRGS:ABRH. p.361-420.
CHOW, V.T.; MAIDMENT, D.; MAYS, L. 1994. Hidrología aplicada. Bogotá: McGraw-Hill. 584p.
CIFRES GIMÉNEZ, E. 1993. Programación dinámica y aplicaciones. In: ANDREU ALVAREZ, J. (Ed.). Conceptos y
métodos para la planificación-hidrológica. Barcelona: Centro Internacional de Métodos Numéricos en
Ingeniería. p.227-238.
COHON, J.; MARKS, D.H. 1975. A review and evaluation of multiobjective programming techniques. Water Resources
Research, Washington, v.11, n.2, p.208-220.
COHON, J.L. 1978. Multiobjective programming and planning. New York: Academic Press. 333p.
COLLISCHONN, W.; PILAR, J.V. 2000. A direction dependent least-cost-path algorithm for roads and canals.
International Journal of Geographical Information Science, London, v.14, n.4, p.397-406.
DUCKSTEIN, L.; SZIDAROVSZKI, F. 1994. Distance based techniques in multicriterion decision making. In: BOGARDI,
J.J., NACHTNEBEL, H.P. Multicriteria decision analysis in water resources management. Wageningen:
Unesco. p.86-112.
135
Jorge Víctor Pilar
EPPEN, G.D.; GOULD, F.J.; SCHMIDT, C.P.; MOORE, J.H.; WEATHERFORD, L.R. 2000. Investigación de
operaciones en la ciencia administrativa. México: Prentice-Hall. 792p.
GALVÃO, C.O. 1999. Introdução à teoria dos conjuntos difusos. In: GALVÃO, C.O.; VALENÇA, M.J.S. (Org.). Sistemas
inteligentes: aplicações a recursos hídricos e ciências ambientais. Porto Alegre: Ed. da Universidade/UFRGS,
ABRH. cap.5, p.167-191.
GOLDBARG, M.C.; LUNA, H.P. 2000. Otimização combinatória e programação linear: modelos e algoritmos. Rio
de Janeiro. Editora Campus. 649p.
HALL, W., DRACUP, J. 1974. Ingeniería de sistemas en los recursos hidráulicos. México. Mc Graw-Hill. 436 p.
HILLIER, F.S.; LIEBERMAN, G.J. 2007. Introducción a la investigación de operaciones. México. McGraw-Hill
Interamericana. 1061p.
JACQUET-LAGRÈZE, E. [1994?]. Conceitos básicos para suporte de decisão multi-critério. In: BANNA E COSTA, C.
Métodos de decisão multicritérios e aplicações. Florianopolis: UFSC. p.6-14.
LANNA, A.E.L. 1998. Gestão dos Recursos Hídrico: Texto de referência da disciplina HIDP-78. Porto Alegre: Programa
de Pós-Graduação em Recursos Hídricos e Saneamento Ambiental, Instituto de Pesquisas Hidráulicas / UFRGS.
LOPES, P. A. 2000. Probabilidades e Estatística. Rio de Janeiro. Reichmann & Affonso Editores. 174p.
MARTÍN DEL BRÍO, B.; SANZ MOLINA, A. 2007. Redes neuronales y sistemas borrosos. 3ed. Madrid: RA-MA. 436p.
MINDLIN, G. 2008. Causas y azares: la historia del caos y los sistemas complejos. 1.ed. Buenos Aires. Sigo XXI
Editores. 124p.
NEOS Guide. 1996. [Argone: Optimization Technology Center]. Disponible en: <http://www-c.mcs.anl.gov/home/otc/
Guide>.
NIJKAMP, P.; VOOGD, H. [1994?]. Uma introdução informal à avaliação multi-critérios. In: BANNA E COSTA, C.
Métodos de decisão multicritérios e aplicações. Florianopolis: UFSC. p.36-49.
PEDROLLO, O.C. 2000. Previsão em tempo atual de cheias com uso de sistema especialista difuso. Tese
(Doutorado) - Programa de Pós-Graduação em Engenharia de Recursos Hídricos e Saneamento Ambiental,
UFRGS, Porto Alegre.
PILAR, J.V. 1999. Programación Dinámica aplicada a los recursos hídricos. Revista del Centro Universitario
Rosario de Investigaciones Hidroambientales – CURIHAM, v.5, n.2., pp. 36-50.
PILAR, J.V.;ROHRMANN, H.R.; VARGAS, R.; BURGOS, J.C. 2002. Modelo de apoyo a la decisión multiobjetivo para
la elección de la traza de una defensa para el Gran Resistencia. In: CONGRESO NACIONAL DEL AGUA, 19., Villa
Carlos Paz, Córdoba. Anales.
136
Herramientas para la Gestión y la Toma de Decisiones
PILAR, J.V. 2003. Utilización de un modelo de apoyo a la decisión con relajación “difusa” para la elección de la traza
de una defensa para el Gran Resistencia. In: ENCUENTRO NACIONAL DE DOCENTES DE INVESTIGACIÓN
OPERATIVA, 16., [e] ESCUELA DE PERFECCIONAMIENTO EM INVESTIGACIÓN OPERATIVA, 14., La Plata.
Anales.
ROMERO, C. 1996. Análisis de las decisiones multicriterio. Madrid: Algorán 115p.
RUELLE, D. 1993. Acaso e caos. São Paulo. Editora da Universidade Estadual Paulista. 225p.
SAATY, T. 1991. Método de análise hierárquica. São Paulo: Makron. 367p.
SAHUQUILLO HERRAIZ, A. 1993. Reflexiones sobre la planificación hidrológica. In: ANDREU ÁLVAREZ, J. (Ed.)
Conceptos y métodos para la planificación hidrológica. Barcelona: Centro Internacional de Métodos
Numéricos en Ingeniería. p.1-14.
SAKAWA, M. 1993. Fuzzy sets and interactive multiojective optimization. New York: Plenum Press. 309p.
TAHA, H.A. 1995. Investigación de operaciones. 5.ed. México. Alfaomega. 960p.
TRIOLA, M.F. 2009. Estadística. 10.ed. México. Pearson Eduacación. 904p.
VENTSEL, E.S. 1983. Investigación de operaciones: problemas, principios, metodología. Moscú: MIR. 280 p.
VIEIRA, V.P.P.B. 1996. Teoria dos conjuntos difusos e sua aplicação a projetos de recursos hídricos. RBRH: Revista
Brasileira de Recursos Hídricos, São Paulo, v.1, n.1, p.110-123.
WAGNER, H.M. 1986. Pesquisa operacional. 2.ed. Rio de Janeiro: Prentice-Hall. 851 p.
ZIONTS, S. [1994?]. Programação matemática múltiplos critérios: uma visão geral e diversas abordagens. In: BANNA
E COSTA, C. Métodos de decisão multicritérios e aplicações. Florianopolis: UFSC. p.49-63.
137
Esta segunda edición se terminó de imprimir
en el mes de mayo de 2012