Bienvenida

Amigo/a.
Este es un blog dedicado a ver la vida que nos rodea de otra forma. Vivimos en una realidad totalmente interrelacioneda entre los miles, millones de elementos que la conforman. Y lo hacen en agregaciones sucesivas e integradas denominadas "sistemas".
En un lenguaje razonablemente asequible, pretendo dar herramientas mentales para poder intuir la complejidad de un mundo condicionado por una variable, el tiempo, que inexorablemente nos conduce a un objetivo final, tanto como individuos y como especie.

La página principal contiene las entradas que iré escribiendo, bien de mi pluma, bien referencias de terceros autores sobre temas que están relacionados con la visión holística, sistémica de la vida.

El menú de páginas laterales se basan en los capítulos del libro que escribí hace ya algunos años "Análisis sistémico, su aplicación a las comunidades humanas". Constituyen las bases del pensamiento sistémico que voy a desplegar en este blog.

La página "Indice y referencias" contiene el contenido de las sucesivas páginas sobre sistémica.

La página "Visión general", contiene los principios fundamentales para entender, a modo introductorio el pensamiento sistémico.

Las páginas de la 1 a la 9, despliega cada uno de los contenidos fundamentales del libro que escribí. Su lectura es muy importante para comprender el razonamiento que se irá exponiendo en las sucesivas entradas en la página principal.

Buena suerte. El pensamiento sistémico te cambia la visión de la realidad, abriéndote un escenario hasta entonces desconocido.
Con la visión sistémica del mundo, uno puede ver más allá de lo que perciben los sentidos y la mente convencional es capaz de comprender.

De nada hablaré como maestro, aunque de todo hablaré como entusiasta, como decía Ortega y Gasset, porque pongo por delante que lo que pueda plasmar en este blog no es fruto de ninguna cultura enciclopédica. No soy especialista de casi nada. Pero sí soy generalista, es decir, un profesional (en este caso de la Sanidad y de la Medicina) que aplica el método sistémico a lo que ven mis ojos.

Invito a quien quiera atreverse, a que se embarque en esta forma de pensar. Los resultados pueden ser sorprendentes.





4- Simulación de modelos

CONTENIDO DE ESTE CAPÍTULO
Conceptos de simulación

1.- Desarrollo histórico de las técnicas de simulación

1.1.- Antecedentes.
1.2.- Simulación
1.3.- Simulación vs técnicas de Investigación Operativa
1.4.- Análisis y diseño de sistemas
1.5.- Conclusión

2.- Bases de la simulación, los modelos formales

2.1.- Criterios de clasificación de las técnicas de modelización
2.2.- Clasificación según la técnica empleada
2.3.- Clasificación según la técnica matemática
2.4.- Clasificacion según el proceso de diseño
2.5.- Clasificación según su aplicación práctica
1.-Modelos Físicos
2.-Modelos Biológicos
3.-Modelos Sociológicos
4.-Modelos económicos
3.- Técnicas de simulación
3.1.- Simulación de sistemas continuos
3.2.- Simulación de Sistemas discretos
Diagramas de flujo
Redes de Petri

3.3.- Simulación estocástica

Método Montecarlo
Generación de números aleatorios
Generación de variables aleatorias no uniformes
4.- Ventajas y limitaciones de las técnicas de simulación
5.- Conclusión

Simulación dinámica

Examen más específico de la técnica de Forrester “Systems Dynamic”

1.- Dinámica de Sistemas
1.1.- Origen de la técnicas de dinámica de sistemas
1.2. Orientación básica de la técnica "ds"
1.3.- Elementos de los modelos d.s.
     1- Variables de nivel o estado.
     2- Variables de flujo o transferencia.
     3- Variables auxiliares.
     4- Retardos
1.4.- Métodos de desarrollo
     1- Fase de conceptualización
      -Descripción verbal (modelo mental)
      -Diseño del diagrama causal.
     2- Fase de formulación
      -Diseño del diagrama DYNAMO o de Forrester.
      -Diseño del modelo matemático
      -Elaboración del programa informático
     3- Fase de evaluación
      -Pruebas de simulación
      -Pruebas de calibrado
      -Validación
      -Análisis de resultados
1.5.- Estructuras elementales
1.6.- Atractores
1.7.- Areas de aplicacion de la tecnica "ds"
2.- Complejidad de detalle: diseño de procesos
2.1.- Del nivel estratégico al nivel táctico
2.2.- Metodología IDEF


CONCEPTOS DE SIMULACIÓN 

 

1.1.- Desarrollo histórico de las técnicas de simulación




1.1.1.-Antecedentes.

Como hemos visto en el capítulo anterior, el deseo de todo investigador cuando estudia un fenómeno real se reduce a cuatro objetivos; el primero "describir" adecuadamente qué esta viendo, de modo que lo pueda transmitir a los demás correctamente; con este paso, consigue “conocer” el sistema real. . El segundo objetivo es poder "explicar" por qué suceden las cosas de una determinada manera y no de otra; con este caso, consigue “comprender” el por qué del comportamiento del sistema real.  El tercer objetivo es poder "inferir", es decir, generalizar sus conclusiones extraídas de la observación del fenómeno en un o varios entornos determinados, a todos los entornos posibles donde ese fenómeno se pueda producir. Y el cuarto objetivo es poder "predecir" cómo se puede desarrollar el fenómeno observado en el futuro, en función de las circunstancias actuales y futuras. (Hanson 1985)

Para lograr estos objetivos, desde Galileo la Ciencia ha utilizado los modelos formales que representan en forma de ecuaciones los fenómenos reales. Las aportaciones sucesivas de Neper, con los logaritmos naturales, Oresme y Descartes con el desarrollo de la geometría analítica, y Newton y Leibnitz con el cálculo integral, las Matemáticas permitieron a la Ciencia alcanzar ese “espíritu de consolidación”, que facilitó a las grandes inteligencias de los siglos XVIII y XIX afianzar el saber científico adquirido (Samuells, 1965). Con estos recursos, la ciencias, las Matemáticas y en particular la Física pareció llegar a una plenitud definitiva.

En este afán de conocer y de comprender, las Matemáticas han sido las mejores aliadas de los científicos. El cálculo integral, que surgió para dar solución a nuevos problemas de Mecánica y viejos problemas de Geometría como la determinación de la tangente a una curva en un punto, o el cálculo de áreas y volúmenes, y el cálculo diferencial, que  arranca de la resolución del problema de averiguar la velocidad cuando se conoce la distancia recorrida en un tiempo dado, lo cual se resuelve con la derivación, han sido, hasta el advenimiento de la computación, la más poderosa herramienta para la comprensión formal del mundo que nos rodea.(Aleksandrov 1985)

Añadamos a esto, la disponibilidad de las técnicas Matemáticas, estadísticas y las bases teóricas de sistemas, de los servomecanismos y la Informática como tecnología que permitía un uso cada vez más eficaz del ordenador digital, y tenemos, como hasta ahora hemos explicado, el conjunto de técnicas de cálculo numérico francamente espectaculares, que han permitido alcanzar el apasionante mundo de la “simulación”.  

1.1.2.- Simulación

La Real Academia define simular como la acción de fingir algo que no es. Tiene esta definición una connotación considerablemente despectiva, pues viene a ser un sinónimo de engaño, de hacer creer a alguien algo falso,  que no es, en definitiva, mentir, engañar. Los médicos llamamos simuladores a las personas que “fingen” estar enfermas y se hacen los malos porque no quieren acudir al trabajo, o para recibir atenciones y compasión, etc.

Sin embargo, el mundo de la tecnología y de la gestión tiene otra definición para este término. Una definición a tener en cuenta es la que califica de simulación a la “representación de un sistema o proceso mediante un modelo estadístico en términos simplificados, para tratar con el modelo “como si” se tratase de la realidad, observando el comportamiento del sistema en función de los resultados que pueden alcanzarse en cada una de las alternativas consideradas. (Olm Font  2000). De otra forma parecida, Shannon define la simulación como el proceso de diseñar un modelo de un sistema real y llevar a cabo experiencias con la finalidad de aprender su comportamiento o evaluar diversas estrategias para un mejor funcionamiento del sistema real (Shannon 1975)

En este sentido, el término "simulación" comenzó a emplearse en 1949 con el método Montecarlo diseñado por Von Neumann y Stanislav Ulam.

Los modelos formales diseñados para la simulación no se resuelven, tal y como se hace con los demás modelos matemáticos, sino que se les hace funcionar. Esto es importante.  Su diseño no está tan basado en el análisis teórico sino en el experimental. El objetivo de un modelo de simulación es examinar su comportamiento como si fuese la realidad misma (con todas las restricciones de todo modelo, por definición reduccionista).

La simulación va implícitamente ligada a los procesos estocásticos, donde tiene su mejor aplicación. También es aplicable a procesos deterministas.

En los procesos estocásticos las simulaciones tienen dos componentes, el modelo formal en sí que establece las relaciones entre las diferentes variables, y los algoritmos de generación de números aleatorios. Sucesivas pasadas del modelo proporcionan por unidad de tiempo valores de cada variable en torno a una media y una desviación estándar. Una vez efectuada la simulación en varias pasadas (20 a 50 por ejemplo) se puede examinar los valores, y someterlos a test de correlación, de sensibilidad, de elasticidad de arco, de contraste, validación, etc para comprender su funcionamiento, y someterlo a situaciones que en realidad serían difíciles, costosas o peligrosas.

Las técnicas de simulación se han desarrollado de forma explosiva en todos los entornos, sobre todo el industrial, en el cual se han convertido en un elemento imprescindible de cualquier diseño de proceso fabril, prototipo de vehículo etc.

"Before they build a serious system, they build a serious simulation"  rezaba la propaganda del CSIM, producto de la Creative C3 Corp. a propósito del proyecto del bombardero invisible B2.

Una inversión de miles de millones de dólares no se puede hacer solamente pasando de unos planos a un prototipo, ha de estar avalada por resultados óptimos en los simuladores. De esta forma se comporta la industria en prácticamente todos sus campos. Y no solamente la industria fabril, sino también la industria del ocio. Estamos llenos de simuladores, la realidad virtual se basa en simuladores de la realidad, los juegos de ordenados, los sistemas que generan efectos especiales para la industria del cine, te hacen ver lo que no existe ni existirá jamás.

Como técnicas de simulación cabe destacar las de simulación y control de procesos industriales basadas fundamentalmente en las Transformadas de Laplace, la Dinámica de Sistemas, inicialmente orientada también a procesos industriales y después generalizada al entorno socio-económico, las Redes de Petri ideadas para modelizar sistemas discretos y la simulación de eventos discretos basada en los diagramas de flujo.



1.1.3.- Simulación versus técnicas de Investigación Operativa

De pasada nos hemos referido en el capítulo anterior a algunas técnicas de investigación operativa, tales como la teoría de colas o los diagramas PERT.

Entendamos que aunque todas estas técnicas están en sí mismas relacionadas, y coadyuvan al final para la toma de decisiones, sin embargo, la metodología es diferente, y la información que aportan también. Las técnicas de Investigación operativa utilizan métodos matemáticos basados en el álgebra matricial, cálculo diferencial, probabilistico y la  Teoría de grafos; y su objetivo es “resolver” problemas de asignación de recursos en función de un determinado número de restricciones. Los simuladores, y los hay de muchos tipos,  no resuelven un problema arrojando un resultado, simplemente “funcionan”, reproducen la realidad bajo determinados parámetros, y el operador lo que observa son sus “comportamientos”. Luego, posteriormente, con el volcado de las cifras simuladas se pueden aplicar técnicas de análisis de datos, de series temporales, de análisis multivariante, de programación lineal, de colas, etc. Pero en principio unos y otras son técnicas diferentes.

  

1.1.4.- Análisis y diseño de sistemas

Por último, las técnicas informáticas han desarrollado el apasionante mundo del diseño y el análisis de sistemas de información. Absolutamente toda la informática de gestión actual se basa en el empleo de diferentes técnicas cuyo objetivo común es identificar los elementos y canales de transmisión de información. Cabe destacar a modo de ejemplo las técnicas de Barnier, Juordon, Ghane & Sarson, las herramientas CASE, etc (Ghane 1990)

Estas técnicas, orientadas al diseño de aplicaciones de gestión, no manejan estrictamente modelos matemáticos ni efectúan simulaciones, pero sí han de tenerse en cuenta sobre todo en el análisis de sistemas de organizaciones humanas complejas, pues permiten identificar sus elementos relevantes así como sus relaciones.

  

1.1.5.- Conclusión

Tras esta breve hojeada de la evolución histórica de este apasionante campo de la Ciencia aplicada, puede verse las inmensas posibilidades que se nos ofrece, pero también el comprensible desconcierto que puede suscitar en los directivos empresariales no especializados hacia esta área, al verse ante un sin fin de técnicas, todas ellas con un grado nada despreciable de dificultad en su comprensión y dominio.

  

La utilización práctica de la mayoría de ellas (con varias décadas ya de antigüedad) en problemas de gestión es limitada, y casi siempre circunscrita a los técnicos especializados.



1.2.- Bases de la simulación, los modelos formales


Recordemos la definición de modelo como la representación formal de un sistema.

Simulación es la técnica que permite, una vez diseñado el modelo, someterle a ensayo y observar los resultados que ofrece el cálculo repetitivo de las variables que intervienen en dicho modelo.

La simulación lleva implícita el concepto de sistema dinámico, aquel cuyas variables experimentan variaciones en sus valores debido a la interacción de éstas entre sí, y del paso del tiempo; siendo el tiempo una variable determinante en el modelo.

Según el tipo de modelo al que se haga referencia, las posibilidades de "simulación" serán distintas. Los simuladores orientados al estudio cuantitativo de los sistemas vivos permiten analizar tanto la estructura como el proceso, y en algunos casos, hasta predecir la naturaleza de los cambios bajo determinadas circunstancias. Por todo ello, es importante, primero tener un esquema claro de los tipos de modelos formales que se suelen manejar en los diferentes entornos de científicos que utilizan técnicas de simulación.

1.2.1.- Criterios de clasificación de las técnicas de modelización

Ciertamente no es tarea fácil lograr un esquema tal que permita contemplar las múltiples técnicas de construcción de modelos formales que en la actualidad están a disposición de los profesionales. Las clasificaciones que se puedan hacer podrán ser tantas como criterios se utilicen. Por tanto, primeramente definamos criterios de clasificación.

Los criterios por los que se pueden definir las diferentes técnicas de modelización son:

     -Por la técnica  empleada.

     -Por el procedimiento matemático.

     -Por el procedimiento de diseño.

     -Por la aplicación práctica.

Un modelo no puede representar nunca un sistema en su totalidad; siempre es una aproximación. Primero porque no es posible entender todo un sistema real en el entorno de la biología y de las organizaciones humanas perfectamente; segundo porque tantas variables y datos a introducir para alimentar al modelo supondrían un coste tan alto, y acaso tan innecesario, que no sería coste oportuno para ninguna organización.

En general, la ley de Pareto del 80/20 suele funcionar en estos casos. La vida es de tal modo que en realidad no más del 10 al 20 por ciento de las variables pueden llegar a justificar el 80 a 90% del comportamiento de los sistemas. Pero además, la ley de rendimientos decrecientes, por la que a medida que nos exigimos rendimientos mayores, el coste para obtenerlo se incrementa hasta tender al infinito, indica que llega un momento en que un modelo (y el coste que conlleva en tiempo y dinero diseñarlo) reproduce suficientemente un sistema real y el margen de error es lo suficientemente pequeño, como para no ser coste efectivo seguir perfeccionándolo.

    

1.2.2.- Clasificación según la técnica empleada

Según este criterio, los modelos pueden ser:

 -Plásticos. Son maquetas a escala del sistema real. Ejemplo lo constituyen los aviones a escala sometidos a pruebas en el túnel aerodinámico. O maquetas a escala de un escenario concreto, como por ejemplo en los modelos de Teatros de Operaciones Militares.

-Representaciones vivas con grupos humanos. Como puede ser la técnica del Roll Playing. Esta técnica se basa en la representación de situaciones de ficción, simuladas, en las que los protagonistas representan un papel, como en una obra de teatro. Se plantea un problema, por ejemplo de relaciones en una empresa, y los participantes tienen que meterse en el papel, sin tener un libreto prescrito. Viven la situación “como si fuese real”, reaccionan, responden, se enzarzan en discusiones, defienden posturas, negocian, pero todo es ficticio. El resultado que arroja este juego de roll es saber cómo se comportarían las personas ante determinadas situaciones, y como corregir fallos, antes de vérselas en la vida real. Es un buen ejercicio de simulación práctica, donde las variables del modelo, sus elementos son las propias personas.

-Modelos conceptuales, expresados en lenguaje natural y gráfico, tipo simulación de escenarios y “straw models”. En estos casos, la simulación es mental. Un grupo de expertos se reúnen y se imaginan diferentes situaciones y alternativas, básicamente orientada a la planificación estratégica. En la simulación de escenarios, los expertos responden a la pregunta “que pasaría si”... sucediera tal cosa. Es un poco como funciona un jugador de ajedrez cuando se plantea qué movimiento realizar en un momento determinado y especialmente complicado de una partida. Los más avanzados se pueden imaginar diferentes “escenarios”, y saber qué movimientos previsiblemente se van a producir, hasta el punto que entre maestros, a veces la partida se termina a cuatro, siete, diez o más movimientos antes del mate, porque el que se rinde ya sabe que el escenario final, con el contrincante que tiene en frente, es inexorablemente la derrota, y para qué seguir. Un ejemplo paradigmático de simulación de escenarios es el que (acaso sin saberlo) tuvieron que hacer gala el presidente Kennedy y sus asesores (y también Kruschev y los suyos) durante la crisis de los misiles de octubre de 1962, a cada nueva situación creada por el despliegue de misiles soviéticos en Cuba, tenían que pensar muy bien cuál debía ser el próximo movimiento propio en esa infernal partida de ajedrez, en la que la humanidad estuvo al borde de la tercera y definitiva guerra mundial (ver la figura11.7). En el fondo todos utilizamos este tipo de simulación mental. Ante una nueva perspectiva de actuación, nos imaginamos diferentes alternativas, y elegimos aquella en la que el escenario futuro que nuestra imaginación describe es supuestamente el que más se acerca a nuestros deseos.

Los “straw models”, o modelos de paja son una variante de estos últimos. Lo normal en los procesos de innovación en las empresas es, primero detectar los problemas con técnicas tipo DAFO/CAME, análisis estadístico, etc; en función de estos resultados, se plantean proyectos y priorizaciones que aborden la solución de los diferentes problemas detectados, resultando de ello un escenario final, que lógicamente se intuye al diseñar y desarrollar los diferentes proyectos. En el “straw model”, una vez detectados los problemas, el ejercicio mental consiste en imaginarse un escenario final considerado como óptimo, sea como sea, y suponga lo que suponga; lo importante es que en ese escenario final, el modelo “simule” mentalmente una situación donde los problemas detectados, bien se han erradicado, bien se han minimizado lo suficiente como para considerar el modelo de paja como la mejor solución (Antares 2001). Y es ese modelo ideal el que condiciona el diseño de los diferentes proyectos, con la gran cualidad de que genera en la organización lo que Senge denomina una visión compartida (Senge 1999).

-Modelos numéricos, expresados mediante algoritmos matemáticos. Estos modelos numéricos para poder ser simulados necesitan inevitablemente el uso del ordenador digital. La cantidad de operaciones por segundo que pueden realizar determinados simuladores numéricos puede superar el millón. Esto sería imposible sin el apoyo del ordenador.

De los cuatro tipos de modelos, los que interesan a efectos de apoyo al pensamiento sistémico son estos últimos, los numéricos, aunque en las fases previas de elaboración, se participe de los modelos conceptuales, mentales y gráficos.



1.2.3.-Clasificación según la técnica matemática

 Las técnicas de modelado suele asociarse con técnicas matemáticas. Y así sucede en la mayoría de los casos; sin embargo, con la ayuda de los ordenadores, se ha producido una integración matemático-lógica, de modo tal que no sólo se construyen modelos formales con el empleo de ecuaciones, sino también con el empleo de algoritmos.

 Así pues, distinguimos, primero entre modelos matemáticos y lógicos.

 Modelos matemáticos

 Spain (Spain 1982), en su obra dedicada a los modelos biológicos clasifica según los recursos matemáticos empleados, los modelos en los siguientes tipos.

     1.-Modelos simples (una ecuación).

     1.1.-Modelos analíticos basados en ecuaciones diferenciales.

     1.2.-Modelos analíticos basados en la asunción de estados de

          equilibrio o estacionario.

     1.3.-Modelos de regresión: ecuaciones basadas en ajuste  experimental.

     2.-Modelos multiecuacionales.

     2.1.-Modelos cinéticos.

     2.2.-Modelos dinámicos.

     2.3.-Modelos basados en bucles feed back.

     3.-Modelos probabilísticos.

     3.1.-Simulación por el método Monte Carlo.

     3.2.-Simulación por distribuciones teóricas de probabilidad.

     3.3.-Simulación de modelos "Random-Walk" (camino aleatorio)

     3.4.-Cadenas de Markov.

     3.5.-Simulación de colas.

    

Desde otro enfoque totalmente distinto, la Econometría, Pulido (Pulido 1-1993) en su obra divide los modelos matemáticos aplicados a la investigación económica en los siguientes tipos:

     1.-Modelos simples (una ecuación)

     1.1.-Modelos básicos de regresión lineal.

     1.2.-Modelos de regresión no lineal.

     2.-Modelos multiecuacionales.

     3.-Modelos dinámicos

     3.1.-Dinámica de Sistemas.

     3.2.-Series temporales.

     3.3.-Modelos multivariantes de series temporales.

     Se puede concluir que desde el punto de vista metodológico, los modelos matemáticos pueden tomar forma uniecuacional o multiecuacional, determinista o estocástica y simular un proceso estático y/o dinámico.

    

Modelos lógicos

Existen, además de los modelos basados en técnicas matemáticas, otros basados en algoritmos lógicos. Son aquellos que están basados en tablas de verdad y en reglas de decisión. La metodología de construcción de este tipo de modelos se basa en los diagramas de flujo, y permiten en el posterior proceso de simulación, simular fenómenos discretos en los que la aparición de un "evento" está condicionada por la de otro más una decisión del tipo "si... entonces". (Gordon 1969)

Otros modelos de simulación de eventos discretos están basados en la Teoría de Grafos más el empleo de matrices, como es el caso de las Redes de Petri.

A partir de estos tipos principales, se han desarrollado gran cantidad de técnicas, todas ellas fuertemente basadas en  lenguajes de programación "ad hoc".

Estos modelos relacionados, se vienen utilizando en el sector empresarial y de Defensa desde mediados de los años 60. Utilizan variables fundamentalmente económicas y de producción y venta. Pocos modelos no conceptuales expresados en lenguaje natural tratan las variables de comportamiento tipo motivación, satisfacción, clima laboral, efectividad, relaciones interpersonales. Y esto es así porque son variables muy difíciles de cuantificar. Pero son esenciales en la dinámica de los sistemas. No contemplar estas variables supone reducir a los seres humanos a un comportamiento cibernético exento de criterios propios y de funciones psíquicas superiores, lo cual es rigurosamente falso. Según Churchman es una idiotez pretender crear un modelo de simulación de organizaciones humanas que no contemple estas variables.

    

1.2.4.- Clasificación según el proceso de diseño

Cuando se analiza un sistema complejo, el proceso de diseño puede ser de dos tipos, de arriba hacia abajo (top-down) o de abajo hacia arriba (botton-up). (Miller 3-1978)

El proceso "top-down" es gerencial; contempla la organización desde una perspectiva general, y se pretende crear un modelo que resuma en muy pocas variables pero muy representativas, "casi" la totalidad del sistema. Las variables que se definen soportan el máximo de agregación posible, y por consiguiente muestran muy poco detalle. El modelo es altamente abstracto. Son relativamente fáciles de hacer y de poner en funcionamiento, pero son muy difíciles de validar, dado que se basan más en la apreciación subjetiva de las cosas, más que en los fenómenos reales en sí.

El proceso "botton-up" es operacional; se centra en el aparato productivo, en los procesos reales cuantificables y detallados. Permite la simulación de procesos concretos, son más realistas y verificables objetivamente. Son tremendamente laboriosos de hacer. Requieren mucho tiempo y grandes inversiones de dinero, pues atacan a la base de los sistemas, recabando ingente cantidades de datos para alimentar las grandes cantidades de variables que intervienen. Van mucho más al detalle. Su finalidad es diferente de los modelos "top down"

    

1.2.5.-Clasificación según su aplicación práctica

La aplicación práctica de los modelos formales es tan amplia como las áreas del conocimiento en el que el abordaje cuantitativo es posible.

Los modelos formales se pueden aplicar a prácticamente todos los campos de conocimiento donde se puede abordar e pensamiento sistémico, y es posible proceder a algún tipo de cuantificación de las variables. Ejemplos los tenemos en la Medicina, Sociología, Economía, Industria, Biología, Meteorología, Ingeniería, Defensa, Mercado, etc.

    

1.-Modelos Físicos

 La Física se fundamenta en modelos. Avanza gracias al desarrollo de teorías que quedan plasmadas de alguna forma en ecuaciones o sistemas de ecuaciones. Introducirlas dentro de un programa informático e introducir iteraciones que simulen el avance del tiempo en milésimas de segundos, o en millones de años, es solo una cuestión de diseño del simulador.

En el entorno físico nos encontramos todo tipo de simuladores, desde sencillas funciones que simulen el comportamiento cinético de un móvil, hasta los extremadamente complejos meteorológicos, que requieren ordenadores vectoriales.

Por otra parte, para la Ingeniería este campo de aplicación es imprescindible para simular las condiciones diversas en las que operar los nuevos diseños. Así tenemos simuladores aerodinámicos, túneles de viento, canales hidrodinámicos, etc.

En el extremo, prácticamente cualquier escenario físico conocido puede llegar a ser simulado. Como mucho se requieren ordenadores altamente sofisticados y con muy elevada capacidad de cómputo.

    

2.-Modelos Biológicos

En Biología esta disciplina se ha desarrollado con más lentitud que en el ámbito de la Física, empezando por las razones que aludíamos en el capítulo segundo. Elaborar modelos matemáticos en el ámbito biológico no es ni de lejos tan fácil como en la Física. Aún así, se está avanzando extraordinariamente en los últimos años en todo un nuevo y apasionante campo que es la denominada “vida artificial” (Horgan 1995), del que el instituto Tecnológico de Santa Fe es un claro exponente, como apuntábamos en el capítulo segundo.

Pero aquí es importante hacer una reflexión, aplicable también al apartado de modelos físicos. Hay dos tipos de modelos de simulación, los que se basan en técnicas que podríamos denominar “fácilmente explicables” de aquellos cuya comprensión exige una muy alta especialización. Por poner un ejemplo sencillo. No es difícil entender los modelos matemáticos que expresan el comportamiento aerodinámico de un avión, donde intervienen variables como la velocidad, presiones, temperaturas, peso, rozamientos, incluso turbulencias, el número de Reynold, densidad del aire, etc. Pero otra cosa es explicar en todos sus detalles el programa “Flight Simulator” de Microsoft®, o cualquier otro programa de simulación de vuelo, o los que soportan los simuladores profesionales que utilizan las compañías aéreas para el entrenamiento de sus pilotos. De la misma forma no es lo mismo comprender los modelos de simulación de sistemas biológicos que aparecen en libros sobre la materia, donde el modelo más complicado no supera las diez variables de estado, que los complicados programas de vida artificial que utiliza Santa Fe o cualesquiera otro de los laboratorios que se dedican a escudriñar en las entrañas de los fenómenos biológicos.

Sea como sea, hablemos de sencillos modelos como de complicados programas, el avance en esta materia está siendo asombroso, de modo que en la actualidad es posible simular prácticamente la totalidad de las funciones fisiológicas del organismo con asombrosa verosimilitud, aunque la comprensión de estos programas no esté al alcance  de todos los profesionales, sino tan sólo de un personal altamente especializado en la materia. Aparte de que su conocimiento constituye el “know how” de las empresas que diseñan y comercializan estos programas, muchos de ellos destinados a la enseñanza.

    

3.-Modelos Sociológicos

En Sociología los simuladores son si cabe más difíciles de diseñar. Decíamos en el capítulo segundo, que el comportamiento social y económico de los seres humanos no se rige por leyes permanentes, que no cambian nunca, como es el caso de los sistemas físicos y biológicos, sino que las leyes sociales y económicas varían con el tiempo. Además, las reacciones humanas en muchas ocasiones salen fuera de la lógica. Las personas reaccionamos de modo interesado, egoísta, y muchas veces incomprensible; no tenemos una noción solidaria clara, ni alcanzamos a comprender las consecuencias que a largo plazo tienen nuestras acciones a corto. No sabemos ver la emergencia hasta que está delante de nuestros ojos; nos es muy difícil prever a largo plazo la evolución del sistema en el que estamos inmersos y del que somos directos protagonistas. Y eso, dentro de las leyes sistémicas supone una disfunción total y absoluta, pues atenta contra la viabilidad global del sistema. Este tipo de anomalías inherentes al ser humano, además cambia con el tiempo, y supone una fuente muy importante de error a la hora de tratar de diseñar modelos de simulación. No obstante se intenta, como veremos en los capítulos 9 al 11. El presente libro trata de introducirse en este complicado entorno sociológico de la simulación. Veremos cómo es posible abordar determinados modelos de simulación, aunque no están exentos de críticas, y a lo más que pueden llegar es a describir a grandes rasgos las megatendencias de los grupos, organizaciones y las sociedades humanas.

    

4.-Modelos económicos

En economía se ha aplicado hasta la saciedad las técnicas cuantitativas. Animados porque en economía hay una variable que se mide fácilmente, el dinero y de él las múltiples variables y parámetros que se derivan, los modelos econométricos se han desarrollado de una forma espectacular, alcanzando esta rama de la Economía un sólido estado de madurez.

La Economía sufre la misma relatividad que la Sociología.  Todo lo referido en el apartado anterior podría aplicarse, en términos generales a la Economía. Las leyes que rigen la Economía son temporales, están condicionadas al momento histórico en que se aplican. Aún así, el esfuerzo de los economistas va en el sentido de elaborar modelos genéricos aplicables a diversos sistemas concretos.

Como indica Varsavky, la Economía, y en general las ciencias   sociales se mueven, a la hora de diseñar modelos entre la profundización y la generalización. Cuanto más genérico es un modelo menos detalle puede tener, y cuanto más detallado es, menos aplicable es a otros entornos distintos a aquel que fue analizado en origen. (Pulido 1993-1)

    

1.3.- Técnicas de simulación

La simulación, tiene múltiples variantes, como técnica que permite la experimentación repetitiva de un determinado modelo y a partir de los datos que arroja, entender mejor el "comportamiento" del sistema real en el que se basa; la primera dependiendo del tipo de modelo, y la segunda, obviamente ligada a la primera, por su finalidad.

Según Gordon (Gordon 1969), las técnicas de simulación se pueden estructurar en los siguientes tipos:

    

     1.- Simulación de sistemas continuos.

     2.- Simulación de sistemas discretos. (orientado a sucesos)

     3.- Simulación estocástica.

       

1.3.1.- Simulación de sistemas continuos

 Estos sistemas son aquellos en los que las variables pueden tener cualquier valor dentro del conjunto de números reales. Son adecuados los modelos basados en ecuaciones diferenciales y los modelos de regresión. En aquellos modelos en los que interviene la variable "t" tiempo, la simulación  se obtiene mediante la iteración de la ecuación con incrementos de "t" sucesivos.

 En los modelos multiecuacionales, la simulación permite observar la interacción de las diferentes variables entre sí, también en función del tiempo, así como la sensibilidad de unas variables respecto de otras.

 Dentro de las técnicas de simulación de sistemas continuos se sitúa la Dinámica de Sistemas, que se describirá con más detalle en el próximo capítulo.

 En general la simulación es necesaria hacerla con ayuda del ordenador. El cálculo manual se haría tan tedioso como inútil.

    

 1.3.2.- Simulación de Sistemas discretos

 Los sistemas discretos son aquellos en los que se producen sucesos "eventos".

 Un "evento" es un instante de tiempo en el que algo cambia. Un "evento" puede causar cambios en el valor de un atributo o una entidad y puede crear o destruir una entidad, o puede iniciar o detener una actividad. (Chorafas 1965)

Simular un sistema de este tipo implica la elaboración de un programa informático con un algoritmo que contemple todas las posibilidades de bifurcación en función del valor, frecuentemente dicotómico que adquieran las diferentes variables que representan la generación o no de un determinado suceso.

Existen dos técnicas principalmente empleadas para simular sistemas discretos, los diagramas de flujo y las Redes de Petri.

    

1.3.3.-Diagramas de flujo

Constituyen la metodología básica del análisis de sistemas de información. El diagrama de flujo sustenta la lógica del programa que posteriormente se ejecutará y que permitirá efectuar la simulación. La información necesaria para describir el "comportamiento" del sistema puede ser de carácter cualitativo o cuantitativo. La información cualitativa es "lógica" y describe lo que debe ocurrir ante un conjunto de circunstancias que dan lugar a una "toma de decisión". La información cuantitativa incluye parámetros como tamaño de lotes, cantidad de materiales acumulada o procesada, tiempo de vida útil de una determinada máquina, etc...

La aparición o no de un suceso es muchas veces aleatoria, y no consecuencia directa de que se produzca o no otro u otros. En este caso, en el programa informático, que constituye en sí el modelo de simulación, se introduce rutinas de simulación estocástica tales como el método Montecarlo, generación de números aleatorios o de variables según una determinada distribución de probabilidad.

Estas técnicas pueden simular perfectamente el comportamiento de colas (patrones de llegada, proceso y salida), y en general todo un sistema de producción. De hecho son muy utilizadas en procesos industriales como modelos de simulación.

Existen en el mercado bastantes aplicaciones informáticas que permiten, entre los que cabe señalar los programas Process 2000 de MicrographX y Witness de Interactive businnes simulation (Lanner Group), y GPSS.

1.3.4.- Redes de Petri

Las Redes de Petri modelizan el comportamiento de sistemas discretos. Utilizan el concepto de "Plaza" y "Transición", como forma de representar un estado y un proceso de transferencia de una plaza a otra. Este concepto se repite en muchas técnicas de simulación, tanto de sistemas continuos como discretos. El concepto "estado" y "transferencia", o "nivel" y "flujo" es común  muchas técnicas.

Fueron introducidas en los años sesenta por C.A. Petri, a fin de conseguir una técnica para el diseño de modelos de estructuras de control con paralelismo. (Brams 1986). Estas estructuras se dan, preferentemente en la arquitectura de los sistemas informáticos, tanto a nivel "hardware", como "software" como redes telemáticas. Y de hecho en este campo es donde tienen su principal aplicación. En origen los primeros modelos de "Petri Nets" se desarrollaron para el proyecto MAC del M.I.T.

Está fuertemente basada la técnica en la teoría de Grafos y en el álgebra matricial.

Como toda técnica lógico matemática, aunque en principio se aplicara para resolver concretamente unos problemas generados por la cada vez más compleja arquitectura que requerían los sistemas informáticos, la técnica, se ha visto, es y sirve para propósito general dentro de los sistemas discretos.

    

1.3.5.- Simulación estocástica


La constituyen los modelos estocásticos que permiten simular el valor de variables, bien aleatorias puras, o probabilísticas según una determinada distribución de probabilidad. Estos modelos de simulación se emplean para introducir en necesario nivel de incertidumbre que incorporan los sistemas reales.

Método Montecarlo

El método más famoso y primero que se desarrolló es el denominado Método Montecarlo, por su referencia a la ruleta de los casinos y permite generar números aleatorios. Requiere secuencias de números aleatorios que describen una distribución en general no uniforme. Por tanto no es un método simple de generación de números aleatorios. (Rios 1972)

Generación de números aleatorios

Existen muchas técnicas para simular números aleatorios, es decir, con  absoluta uniformidad en la distribución. Los números generados por ordenador, sea la técnica que sea, son pseudoaleatorios porque muestran un cierto deterioro del "azar" debido a que muestran un ciclo de repetición, tan largo como se desee, pero real. Aún así, se consideran aceptables si muestran una distribución uniforme.

Las técnicas más empleadas son las de los Cuadrados medios de Von Newman, el método de Lehmer y el método congruencial.(Pardo 1987)

Generación de variables aleatorias no uniformes

Son aquellas que muestran una determinada distribución de probabilidad.

Existen modelos de simulación de variables discretas, sea cual sea la distribución, binomial, de Poisson, geométrica o hipergeométrica; o bien continuas como la normal, la Gamma, Beta, de Pareto, Ji cuadrado, T-Student, etc..

En general estos modelos permiten la simulación de muchos procesos asociados con la actividad comercial, industrial y empresarial, tales como los patrones de colas, la gestión de inventarios y almacenes y el control de producción. (Pardo Op.Cit)

    

1.4.-Ventajas y limitaciones de las técnicas de simulación

Shannon en 1975 indicó los límites en el uso de las técnicas de simulación: (Shannon 1975)

Es apropiado el uso de la simulación cuando:

1º.-No existe una formulación matemática del sistema, o bien existiendo, no se puede resolver por métodos matemáticos analíticos.

2º.-Existen el modelo y los métodos, pero los procedimientos son tan arduos que resulta más sencilla y menos costosa la simulación.

3º.-Si se desea experimentar con el modelo antes de construir el sistema, sobre todo si éste requiere una fuerte inversión económica, esfuerzo humano e incertidumbre respecto de su viabilidad.

4º.-Cuando es imposible experimentar con el sistema real, por inalcanzable.

5º.-Cuando razones éticas prohiben la experimentación.

6º.-Si se quiere obtener información de un sistema que evoluciona muy lentamente. La simulación permitirá simular el comportamiento real de años o centenares de años en breves segundos, y así permitir su posterior análisis.

También existen limitaciones al empleo de las técnicas de simulación, entre las que cabe destacar:

1º.-La complejidad. Según Forrester, aunque un modelo siempre tiene que ser una imagen resumida, reduccionista del sistema real, empero, la realidad es tan compleja que los modelos, a poco que quieran aproximarse a dicha realidad pueden sufrir un crecimiento exponencial de variables, llegar así a ser inmanejables y requerir muchos años de diseño.

2º.-El dilema simplicidad complejidad. Si un modelo es sencillo, se ajusta poco a la realidad y necesariamente desprecia  variables que sí son relevantes. Si es complejo, puede llegar a hacerse inmanejable. Pero si a partir de un modelo simulado se pretende hacer ensayos prospectivos, que el modelo no sea del todo fiable puede llegar a conducir a conclusiones equivocadas y provocar fuerte polémica, como sucedió con el primer informe del Club de Roma, basado en el modelo "World 2" del propio Forrester. (Tamames 1978)





1.4.1.- Simulación parcial y total

En general, los modelos de simulación sirven para representar aspectos parciales de la estructura y proceso de un sistema total, o de partes de él. No existe línea de separación nítida entre ambos tipos, desde el momento que los modelos son siempre abstracciones y nunca representan la totalidad del sistema.

Es muy difícil realizar un modelo que contemple siquiera los aspectos más representativos de una organización con cierto grado de detalle. Supone la inversión de gran cantidad de tiempo y dinero, de programadores, analistas y expertos, trabajando en equipo.

A veces es aún más difícil saber para qué se quiere un modelo de cierta complejidad.

Los modelos "top-down" están orientados a la gerencia, a evaluar alternativas de inversión estratégica, proyecciones de recursos, diseño de objetivos, determinar la sensibilidad a factores externos, reasignar recursos. (Miller 3-1978). De alguna forma constituyen modelos del sistema total, pero con un fin determinado, resaltando aquellas variables que el gerente tiene que manejar.

Los modelos "botton-up" orientados a la operativa, se diseñan para examinar el comportamiento de "determinado" proceso o estructura, v.gr: las listas de espera en urgencia, o el proceso de entradas y salidas de almacén. Son como un microscopio que permite enfocar el objetivo a un área muy concreta del sistema bajo análisis, y ver cómo se comporta determinado proceso. Es casi imposible diseñar un modelo de sistema total a partir de submodelos operacionales.

    

1.5.- Conclusión

Tras este repaso a las técnicas de simulación, se puede llegar a la conclusión de que son unas herramientas válidas para experimentar con la realidad desde el "laboratorio" que ofrece el ordenador; que la simulación puede dar una información muy valiosa del "comportamiento" del sistema real; pero que, con todo, la simulación nunca puede ser considerada como la "bola de cristal" electrónica, sino una primera aproximación objetiva a los sistemas reales. Pero la realidad misma siempre supera, desde todos los puntos de vista, las posibilidades de cualquier simulador, por perfecto que sea. 
  
SIMULACIÓN DINÁMICA
  
Vamos a abordar ahora en detalle dos técnicas que están orientadas específicamente al análisis dinámico de los sistemas, tal y como los entendemos, con dos claras pero diferentes orientaciones. La primera, orientada al análisis de lo que hemos denominado “complejidad dinámica”, que aborda los diferentes tipos de relación que pueden establecerse entre los elementos, y las diferentes sensibilidades de cada elemento a las interacciones con los demás y que prácticamente llena todo el contenido de este libro. La segunda, orientada al análisis de la “complejidad de detalle” que entiende de los procesos que tienen lugar secuencialmente y que en último extremo generan esa resbaladiza complejidad dinámica tan difícil de comprender.

El estudio de la complejidad dinámica se aborda esencialmente mediante la técnica de Dinámica de Sistemas, mientras que la complejidad de detalle, bastante más desarrollada en el nivel empresarial, ha dado lugar a múltiples técnicas de planificación estratégica, táctica y operativa. Pero aquí vamos a abordar una en concreto, denominada IDEF.



2.1.- Dinámica de sistemas.

En la década de los años 30 se desarrolló toda la teoría de los servomecanismos, lo que permitió el estudio sistemático del concepto "feed-back". Este,  contribuyó como pocos al desarrollo de la noción de "sistema dinámico". Esta idea se fue generalizando progresivamente y aplicándose a diferentes procesos físicos, químicos, eléctricos e industriales en general.

 Fue la idea de aplicar estos conceptos al entorno socioeconómico lo que dio lugar al desarrollo de la técnica de Dinámica de Sistemas. (Aracil 1992)

2.1.1.-Origen de la técnicas de dinámica de sistemas

El final de la Segunda Guerra Mundial propició el desarrollo del Ordenador como potente dispositivo de cálculo automático, y todo el cuerpo de doctrina de la "Cibernética".

La Cibernética se centra en el estudio de sistemas complejos, resaltando la importancia de los estudios interdisciplinarios. Estos criterios también estaban en la base del desarrollo de la Teoría General de Sistemas. Según Kuhn (Aracil 1992 Op.Cit), la conjunción de la Teoría de Sistemas, la cibernética, la Informática y la Técnica DS fueron el fundamento del "Paradigma de los Sistemas", tomando como definición de Paradigma la que, según este autor supone un punto de vista nuevo respecto a la realidad, una forma de entender las cosas, el quehacer científico y la visión del mundo.

El origen de la técnica DS arranca del trabajo que la compañía de componentes electrónicos "Sprague Electric" solicitó  a mediados de los años 50 al M.I.T, lo veremos en detalle en el capítulo 10, en relación a un extraño comportamiento de los pedidos de sus clientes, unos pocos pero muy fuertes. Los pedidos sufrían fuertes oscilaciones, cuando era de esperar que se mantuvieran constantes, dentro de unos límites aceptables. El encargo al M.I.T. recayó en el equipo dirigido por Jay Forrester.

Se aplicaron técnicas de Investigación Operativa, simulación Monte Carlo. Pero se vió que en realidad, el problema podría estar en las interacciones entre los diferentes elementos que intervenían en la estructura de los pedidos. Se observó cómo el retraso que se experimentaba en trasmitir la información de los pedidos estaba en la clave de las oscilaciones.

Se concluyó que en una cadena de circuitos "feed-back" autorregulables, cuando se produce un retardo en la transmisión de la información, el sistema se vuelve oscilante, porque la respuesta se produce a destiempo.

Esta experiencia demostró cómo el análisis de la estructura de los sistemas sintetizada en modelos con elementos "feed-back" podía suponer una nueva forma de enfocar los sistemas complejos.

El éxito con el caso "Spraegue Electric" animó al equipo de Forrester a perfeccionar la técnica y generalizar su aplicación. Así ha sido. La técnica se aplicó en los años 60 a los problemas de dinámica industrial (Forrester 1. 1961), urbana, (Forrester 3. 1969) y en los años 70 al estudio de la dinámica socioeconómica del Mundo. Ello motivó que la ya denominada técnica de Dinámica de Sistemas ("DS") se aplicase en el primer informe al Club de Roma de 1972 "Los Límites del Crecimiento". (Tamames 1978)

Tras estos éxitos, la "DS" se generalizó y tuvo amplia difusión, y se utiliza en múltiples campos. Desde 1962 se edita por el M.I.T. el "Systems Dynamic Newsletter" como cauce de comunicación entre grupos de trabajo que investigan sobre esta técnica y sus aplicaciones.

Para el desarrollo de modelos DS se diseñó un lenguaje "ad hoc", el "dynamo", que actualmente ha sido mejorado ostensiblemente y bajo plataforma Macintosh y MSDOS con el lenguaje "Stella" (Meadows H.1992). Empero, tanto Fortran como Pascal o Basic son lenguajes aplicables a los modelos DS.

    

2.1.2. Orientación básica de la técnica "ds"

    

La Dinámica de Sistemas integra y utiliza los fundamentos de la Cibernética y de la Teoría General de Sistemas como base teórica de los sistemas generales; utiliza la informática como forma de simular los modelos matemáticos que obtiene, y algo muy importante, la experiencia de los expertos en el área de conocimiento o problema a abordar, para desarrollar los modelos. (Aracil 1992 Op.Cit)

Es decir, la técnica DS, aunque puede emplear técnicas de regresión y metodos matemáticos analíticos en el proceso de investigación, utiliza como fuente de conocimiento la experiencia del experto. O lo que es lo mismo, es una técnica heurística y algoritmica al mismo tiempo.

Como técnica de modelado y simulación, la Dinámica de Sistemas presenta la siguiente orientación básica:

    

1º.-La Dinámica de Sistemas está fundamentalmente orientada al estudio de los Sistemas Sociales, pues en ellos se han observado las siguientes características:

    

#1. Se dan los bucles de realimentación.

Los bucles se dan contínuamente, sobre todo en el binómio producción-información.

Los bucles positivos producen crecimiento (positivo o decrecimiento negativo) y los bucles negativos proporcionan estabilidad.

Los retardos en la información provocan comportamientos oscilantes.

Utilizar la técnica "DS" implica aceptar el hecho de que los problemas sociales no provienen tanto por el hecho de que sucesos previos (variables independientes) actúen sobre un elemento concreto (variable dependiente), como de la estructura del sistema en sí y de la mutua interacción de cada uno de los elementos con los otros.

    

#2. Análisis de la sensibilidad

Se ha comprobado que la existencia de múltiples bucles reduce la sensibilidad de los sistemas a los cambios de un determinado parámetro, y la aumenta en otros casos. Parece que el extraño comportamiento social ante la introducción de modificaciones podría ser explicado de esta forma.

    

#3. Los conflictos

Los conflictos, lejos de ser comportamientos patológicos, pueden estar en la base de la estructura misma de los sistemas sociales, y los modelos "DS" son capaces de modelizarlos. Supone una gran ayuda entender esto, y ver como iniciativas promovidas desde los poderes públicos en un sentido supuestamente bien intencionado, pueden desencadenar una serie de perturbaciones sociales, y éstas poder ser observadas en las simulaciones de los modelos hechos al respecto.

    

2º.-La Dinámica de Sistemas tiene un enfoque estructuralista

La construcción de modelos se basa en el análisis de sistemas, en el que se busca fundamentalmente su lógica interna y las posibles influencias de unas variables con otras. La calidad de variables "independientes" versus "dependientes" es totalmente secundaria.(Roberts E. 1-1984)

Esta forma de efectuar el análisis contrasta fuertemente con otras técnicas de modelado en el que se busca el ajuste de las variables reales a un modelo matemático previo del cual las incógnitas son los coeficientes que afectan a cada variable, pero siendo estos modelos seleccionados a priori por técnicas de ajuste por mínimos cuadrados ordinarios.

En los modelos "DS" la estructura del sistema no está predeterminada por un tipo de modelo matemático previo, sino que la establece el analista dialogando, y esto es muy importante, con el experto. Esto le da al modelo "DS" un componente heurístico lo que hace que éste se base en "cómo ve el experto la situación, el problema". El modelo resultante, aunque al final se traduce en un conjunto de ecuaciones, tiene su origen en un determinado punto de vista, con toda la carga de subjetividad que se desprende de la propia técnica de análisis.

Este enfoque estructuralista tiene inconvenientes y ventajas. El inconveniente radica en que no se puede estar seguro de que los bucles "feed-back" que se identifican sean los reales, sino los que se supone son, hasta donde alcanza los conocimientos del experto consultado. La ventaja radica en que su lectura es comprensible y los resultados de la simulación es accesible al experto no matemático. No es necesario ir a las ecuaciones, sino al simple diagrama causal para entender el modelo.

Esta forma de enfocar el análisis y el diseño de un modelo "DS" es propicio a los problemas sociales, dado que se formalizan siempre como resultado de la opinión de expertos, con la carga de subjetividad que ello conlleva, y que es casi imposible de eliminar.

Por todo ello, el uso de los modelos "DS" requiere saber qué terreno se pisa con ellos, saber que se basan en opiniones subjetivas, y que sólo el contraste de la simulación con las series históricas reales le dan validez. Saber también que al estar basados en la estructura, suele ser válidos para fenómenos o sistemas con unidades de tiempo grandes, y por ello con inferencias a largo plazo, mientras que los modelos analíticos tienen más valor a medio plazo. Esto no significa que la técnica "DS" no pueda ser aplicada a problemas cotidianos.

    

2.1.3.- Elementos de los modelos d.s.

Un modelo DS está compuesto de elementos, que pueden tener características distintas según se "comporten" a lo largo del tiempo.

Todos los elementos son cuantitativos, poseen un valor numérico. Este es un problema para los sistemas sociales, dado que obliga, de alguna forma, a cuantificar aspectos necesariamente cualitativos.

Un elemento puede variar o no variar su valor a lo largo del tiempo. Si varía en función del tiempo se denomina variable, y si no se denomina tasa o parámetro.

Tanto las variables como las tasas pueden ser endógenas o exógenas, es decir, propias o ajenas al sistema, pero éstas últimas pueden influir en el comportamiento del sistema.

    

Las variables pueden ser de tres tipos:

     1-Variables de nivel o estado.

     2-Variables de flujo o transferencia.

     3-Variables auxiliares.

     4-Retardos

    

La Dinámica de Sistemas utiliza un símil hidrodinámico para explicar el método de razonamiento.

A las variables de estado o nivel se las considera contenedores de líquido. Constituyen  el conjunto de variables cuya evolución es significativa para el estudio del sistema. Son variables acumulativas con el tiempo. Se llenan y se vacían según el flujo de entrada y de salida.

Las variables de flujo o transferencia, se las supone válvulas o grifos que permiten el paso de cierta cantidad de líquido por unidad de tiempo, esto es (incremento de N/incremento de T), y en el límite dN/dt, esto es, la representación gráfica de una ecuación diferencial.

Los grifos están más o menos abiertos en función de las denominadas tasas o parámetros, si estos no varían a lo largo de la simulación, y quedan predeterminados en el escenario inicial; o bien varían en función de "variables auxiliares" (distintas a las variables de estado), que pueden fluctuar en base a un componente estocástico, o ser función de una tercera variable etc..

Tasas en el sentido estricto de constantes hay pocas, salvo las constantes universales como la aceleración de la gravedad, la velocidad de la luz, el número de Avogadro, la constante de Plank etc, todas ellas dentro de los fenómenos físicos. En Sociología hablar de constantes es casi absurdo por tanto es la variabilidad la única constante que se da en dichos fenómenos. Aun así, y a efectos de simplificar razonamientos, en ocasiones se habla de tasas en tanto que su variación en el horizonte de la simulación se puede considerar muy baja o casi despreciable.

Asociadas a las variables, se evidencia la existencia de canales por los que circula material o información. Los canales de información conectan siempre dos cisternas (variables de nivel) y su caudal es regulado por una variable de flujo.

Los canales de información permiten la transferencia de datos desde las variables de nivel y flujo a variables de flujo o auxiliares. Y de estas a variables de flujo o a otras auxiliares. No tiene sentido que una variable de nivel reciba información porque no puede hacer nada con los datos.

Así mismo, con el exterior la comunicación puede ser a través de canales de material o de información.

Del exterior se recibe material procedente de lo que se denomina fuentes, o depósitos virtualmente inagotables a efectos del comportamiento interno del sistema, pero siempre regulada la entrada por una variable de flujo. Hacia el exterior, el material se elimina hacia un sumidero, externo al sistema, con capacidad también virtualmente inagotable. El vertido es también regulado por las correspondientes variables de flujo.

Un tipo especial de variables auxiliares son las variables estocásticas. Son aquellas que lo único que se sabe de ellas es que su valor varía de acuerdo a una distribución de probabilidad,  normal o de otro tipo. Su comportamiento dinámico se basa en la generación de un valor aleatorio en torno a la distribución en cuestión. En el extremo, una tasa sería una variable estocástica de media M y desviación típica CERO.

    

Retardos

La información de las variables de nivel puede transmitirse instantáneamente a las variables de flujo, o retrasarse, pasando previamente por las denominadas "variables de nivel intermedio", tantas como unidades de tiempo se retrase la información.

Estos elementos de retardo explican muchas de las oscilaciones que se observan en los sistemas.

Tablas

Son estructuras que afectan a las variables de flujo, y que representan la acción de determinadas variables exógenas. Una tabla arroja una cifra por unidad de tiempo que incide en cada iteración sobre una o varias variables auxiliares o de flujo.
Los modelos que se obtienen con Dinámica de Sistemas corresponden a sistemas de ecuaciones diferenciales de primer orden, las cuales pueden ser programadas en lenguajes de programación de alto nivel, para facilitar la integración numérica de las mismas.
 
   

2.1.4.- Métodos de desarrollo

 Estos son los elementos básicos que se utilizan en Dinámica de Sistemas. Basado en ellos, esta técnica sigue unas pautas, que sin ser rígidas, sí al menos se aconseja sean seguidas a efecto de rigor científico:(Martinez Vicente 1-1983) (Aracil 1992 Op.Cit)

     1-Fase de conceptualización

      -Descripción verbal (modelo mental)

      -Diseño del diagrama causal.

     2-Fase de formulación

      -Diseño del diagrama DYNAMO o de Forrester.

      -Diseño del modelo matemático

      -Elaboración del programa informático

     3-Fase de evaluación

      -Pruebas de simulación

      -Pruebas de calibrado

      -Validación

      -Análisis de resultados

    

#1-Fase de conceptualización

    

(1)-Descripción literaria del sistema:

Es básico determinar aunque sea sucintamente cual es el problema a tratar. En esta descripción se ha de proceder a determinar qué variables consideramos como relevantes y como tal intervendrán en el modelo, a costa de una constelación de otras que aún existiendo, para el problema a tratar carecen de valor o éste es despreciable.

Ha de comenzarse por un análisis del sistema real. En dicho análisis intervienen diferentes tipos de expertos; por una parte el modelista, cuyo objetivo es el de obtener una descripción literaria del sistema donde queden evidenciados los elementos fundamentales. Por otra parte, los expertos, que conocen el sistema real en profundidad.

No es cuestión de que se haga una descripción elegante y detallada del sistema, sino lo suficientemente concisa y concreta como para saber qué elementos son claves y como se relacionan entre sí.

Para ello, no se pretende que desde el principio se ataque frontalmente la totalidad del sistema. Hay que comenzar con una etapa inicial que permita definir los elementos más importantes, a fin de conseguir un primer modelo muy general, e incluso tosco, pero que de pie a iniciar la etapa siguiente.

Esto conlleva a una clara y precisa definición del problema, y a marcar sin ambigüedad los límites del sistema.

Esta descripción debe conducir al trazado de gráficos que representen el comportamiento temporal de los principales elementos. Estas gráficas se denominan MODOS DE REFERENCIA, y sirven de imagen aproximada sobre la que se basará el modelo inicial.

Cuando se está modelando situaciones futuras el modo de referencia será el conjunto de pautas que el modelo debe ser capaz de abarcar. El establecimiento del modo de referencia, determina el horizonte temporal del modelo.

Con estos dos elementos se ha concluido la fase de  especificación del problema.

El modo de referencia permite establecer el conjunto mínimo de bucles de realimentación, que permite dar explicación formal a dicho modo de referencia. Este conjunto de bucles feed-back se denomina MECANISMO BASICO

El establecimiento del mecanismo básico permite pasar a las   etapas posteriores de diseño de diagramas causales.

Ejemplo práctico:

Un ejemplo que puede hacer comprender mejor el diseño DS es un que se ha elaborado para comprender uno de los misterios más interesantes de la historia del continente americano. La súbita desaparición de la civilización Maya, justamente en el momento de máximo esplendor. Las investigaciones han concluido que el factor fundamental fue el incremento de la tensión entre la creciente población y el medio ambiente tropical, ya de por sí considerablemente frágil a la reconversión de la selva en terreno cultivable. La población experimentó un crecimiento exponencial durante unos 1700 años en las tierras bajas de la actual Guatemala. La población doblaba cada 400 años. Son muchos años para que los mayas se percataran del peligro, y seguían expandiéndose y deforestando para aumentar los terrenos cultivables. Los efectos de la deforestación comenzaron a ser evidentes. La erosión del suelo arrastraba los nutrientes esenciales hacia los lagos, disminuyendo la fertilidad de la tierra. El crecimiento de los fosfatos producidos por los residuos orgánicos, agravó los daños del entorno. Llegó un momento en el que la tensión hombre – naturaleza fue insostenible y tuvieron que abandonar sus casas y ciudades. La civilización Maya desapareció de esas tierras en torno al año 1000. Quinientos años más tarde, los colonos españoles concluirían las tareas de extinción de los supervivientes. (Martín García, 2000)

  

(2)-Diagrama causal:

Es la representación gráfica de lo expuesto en texto. En Medicina diagramas causales clásicos son por ejemplo los procesos hormonales, o las rutas del metabolismo celular. En los diagramas causales las variables quedan definidas y las flechas indican las relaciones entre ellas.

Ejemplo práctico: seguimos con el ejemplo de la desaparición de la Civilización Maya, y este sería el diagrama causal del modelo mental expuesto anteriormente.


#2-Fase de formulación

(3)-Diagrama de Forrester o diagrama dynamo:

A partir de aquí se empieza  a hablar de Dinámica de Sistemas como técnica, ya que este típo de diagrama es el que convierte el diagrama causal en el símil hidrodinámico al que nos hemos referido anteriormente.

Para el diseño de los diagramas de Forrester, existen procedimientos semiautomáticos, basados en algoritmos, uno de los más importantes es el Algoritmo de Burns.(González Cristóbal 1985), así mismo, existen en el mercado varios programas, francamente eficaces, con buen apoyo gráfico, que permiten el diseño de estos modelos, tales como Stella®, Ithink®, Powersim® o Vensim®

Ejemplo práctico:

Este es el diagrama de Forrester del modelo de la población Maya, diseñado con Vensim.


(4)-Modelo de ecuaciones:

Es el conjunto de ecuaciones que constituyen el resultado del análisis. Si el diagrama de Forrester está bien diseñado, la obtención de las ecuaciones es prácticamente directa y no plantea problemas.

El modelo matemático basado en DS, tiene dos tipos de ecuaciones fundamentales, y uno más para el cálculo del valor de las variables auxiliares:

-Ecuaciones de nivel o estado. Estas calculan, para cada intervalo de tiempo el nivel de la variable de nivel correspondiente. La fórmula es sencilla. El valor de un nivel es el que tenía en el intervalo de tiempo anterior, más lo que entra, menos lo que sale.

            for t=1 to n

                       Y(t)=Y(t-1)+(entrada-salidas)

            next t

    

-Ecuaciones de flujo. Son las que definen el valor del caudal de material de un determinado flujo.

Estas ecuaciones son de muy diferente forma, y en ellas influye la información recibida desde otras variables, tanto de nivel, como de flujo, auxiliares o tasas y variables estocásticas.

Por contra de la sencillez de las ecuaciones de nivel, las de flujo pueden ser muy complejas, ya que son las más difícilies de deducir, y las que requieren un análisis más exhaustivo de las relaciones matemáticas entre las diferentes variables.

-Ecuaciones auxiliares. Permitan el cálculo del valor de estas variables. Su deducción es también compleja.

Ejemplo práctico: (Modelo Mayas) [escrito en Vensim PLE]

Variables de nivel


POBLACIÓN(t) = POBLACIÓN(t-1) + Incremento vegetativo - Salida por emigración

SELVA(t)= SELVA(t-1) - Deforestación

FERTILIDAD DEL SUELO(t) = FERTILIDAD DEL SUELO(t-1) - Erosión

SUPERFICIE AGRÍCOLA(t)= SUPERFICIE AGRÍCOLA(t-1) + Deforestación

Variables de flujo


Deforestación = MIN(GAP/MAX(Fertilidad del suelo,1),Selva/4)/Intensidad

Erosión = Fertilidad del suelo * MIN(1,(Superficie agrícola/Selva)^1.9)/Intensidad

Salida por emigración =(GAP/Consumo per cápita)*Tasa de emigración

Incremento vegetativo = POBLACIÓN*Tasa de incremento

Variables auxiliares


Demanda de alimentos = Consumo per cápita * POBLACIÓN

GAP = Demanda de alimentos - Producción de alimentos

Producción de alimentos=Fertilidad del suelo*Superficie agrícola

Tasas


Consumo per cápita= 400 kg/(persona*año)

Intensidad=0.9 Year

Tasa de emigración=0.05  1/año Porcentaje de habitantes que emigran por hambre

Tasa de incremento=0.0017 1/año La población se duplica cada 408 años.



(5)-Fase de programación

Estos modelos han de ser pasados a un programa informático para ser interpretados por el ordenador. Hay varias posibilidades. Se puede utilizar lenguajes estándar de alto nivel, como Pascal, Fortran o BASIC, o bien lenguajes específico para este tipo de simulación, como el DYNAMO, desarrollado ad hoc para los modelos DS. Es posible trabajar también con hojas de cálculo.

    

#3-Fase de evaluación.

(6)-Pruebas de simulación

Consiste en la ejecución del programa que contiene el modelo. Para proceder a la simulación hay que suministrar al programa los datos de cada una de las variables y tasas del modelo en el momento CERO -horizonte CERO- de la simulación.

A partir de ese momento el programa irá efectuando pasadas sucesivas a todas las ecuaciones desde T=1 hasta N, siendo N el horizonte final de la simulación.

Si el modelo está bien hecho, el comportamiento de las variables del modelo será de dos tipos, uno de tendencia hacia un valor final, y otro de fluctuación periódica. Este comportamiento se mantendrá en tanto no se varien las condiciones iniciales.

Pero se puede someter el modelo a perturbaciones predeterminadas que incidan en un momento determinado de la simulación. De esta forma se podrá ver como se comporta el modelo frente a una perturbación.

Ejemplo de simulación: (modelo Mayas)

La población creciente demanda más y más alimento, lo que les obliga a deforestar la selva, que disminuye lenta pero inexorablemente su superficie. Esta disminución de la superficie selvática provoca incremento de la erosión, aunque aumente supuestamente la superficie agrícola. Pero la erosión, disminuye la fertilidad del suelo, y al final, aunque la superficie agrícola aumente, la producción de alimentos disminuye o no aumenta en la proporción que la población demanda. El resultado es que el gap de alimentos (diferencia entre lo que la población necesita y la tierra puede dar), es cada vez mayor. Y viene la hambruna, y con ella el incremento de mortalidad o la emigración y abandono de esas tierras, que quedarán arrasadas durante cientos de años.
 

(7)-Calibrado

Para que el modelo pueda simular un sistema real, debe estar bien diseñado, y correctamente calibrado, esto es, deben estar las tasas ajustadas de modo tal que se adecuen al escenario  real.

Hay tasas que se conocen a priori, como son las de natalidad, tensión de empleo, coeficientes de absorción de un fármaco, etc. pero hay otras que al haber sido creadas específicamente para el modelo, hay que averiguar su valor real. Estas tasas de nueva creación, suelen obedecer a desconocimiento del fenómeno que gobiernan, convirtiéndose así en un cómodo recurso matemático para proseguir el estudio sin verse en la necesidad de detenerse en un análisis más profundo, que según en la etapa de diseño que estemos, puede no ser necesaria.

Para calibrar las tasas, hay que reproducir la simulación en base a una serie  estadística conocida de las principales variables. Se efectúan sucesivas pruebas ajustando en cada una las tasas hasta aproximar lo más posible el resultado de la simulación a la realidad.

    

(8)-Fase de validación

Consiste en comprobar si las diferencias entre los valores reales y los simulados son debidas sólo al azar, o no. De no ser atribuibles al azar hay que volver a revisar el modelo hasta ajustarlo a la realidad.

Esta fase es la crucial, ya que es la que autoriza al modelo como representante del sistema real.

    

(9)-Fase de análisis

Con el modelo validado se puede proceder de varias formas, según el objetivo del modelo al ser diseñado.

-Análisis de sensibilidad.

No todas las variables tienen la misma impronta en el modelo. El análisis de sensibilidad permite detectar la sensibilidad de las diferentes variables frente a cada una de las tasas que se emplean. Una variable es muy sensible, si a mínimos cambios de una tasa varía ampliamente. Y viceversa.

-Qué sucedería si...?

Es la pregunta más importante a la que puede responder un modelo DS.

Un modelo validado puede someterse a diferentes hipótesis de entornos y ver cómo se comporta.

Un modelo validado permite comprender mejor por qué las cosas suceden de una determinada manera.

Un modelo validado es el paso final que corona una investigación rigurosa sobre un fenómeno real, y nos permite adentrarnos en el futuro y predecir con una incertidumbre aceptable los posibles escenarios en los cuales se puede desarrollar un sistema real.

      

2.1.5.- Estructuras elementales

    

Cualquier modelo "DS" se basa en estructuras elementales de relación entre variables, a partir de las cuales es posible desarrollar modelos complejos. Estas son:

    

#1. Bucles de primer orden de realimentación negativa: tienden al estado estable.

#2. Bucles de primer orden de realimentación positiva: tienden al crecimiento.

#3. Bucles de segundo orden con oscilaciones: tienden a un objetivo final.

#4. Curvas "S" de crecimiento.

#5. Fenómenos de acoplamiento entre bucles + y -.


Los sistemas de primer órden tienen una sola variable de nivel y dos canales, uno de entrada y otro de salida.

Los sistemas de segundo órden poseen dos niveles y hasta tres bucles de realimentación, uno principal y dos secundarios. (Aracil 1992 OpCit)

  

2.1.6.- Atractores

    

Las oscilaciones de las diferentes variables de nivel constituye otro campo de interés en los modelos "DS". Básicamente una variable puede tender a oscilar de forma amortiguada, sostenida o creciente. Estas amortiguaciones se dan en sistemas de segundo orden.

Toda variable puede tender a un valor final, o a oscilar. Detrás de estas tendencias está lo que en geometría fractal se denominan "atractores". Un atractor es aquello hacia lo que tiende el "comportamiento" de un sistema dinámico, hacia lo que es atraído. (Barallo Calonge 1993)

Los atractores más conocidos son tres: el punto, la circunferencia y la espiral.

El punto es el atractor que representa cómo una variable tiende a un valor límite. (V.gr. la función sigmoidea)

La circunferencia es el atractor que representa una oscilación sostenida (V.gr. la función seno, el péndulo de reloj)

La espiral creciente o decreciente es el atractor que representa una oscilación creciente o amortiguada.

En 1963 Edward Lorenz, del M.I.T. experimentando con un modelo meteorológico observó cómo la simulación arrojaba valores aparentemente estocasticos que nunca se repetían "exactamente". Mínimas variaciones iniciales provocaban cambios imprevisibles mediante métodos analíticos y sólo verificables por simulación. El resultado fue el descubrimiento del primer atractor extraño o caótico, denominado "Atractor de Lorenz", el primero de una larga serie que ha dado lugar al  apasionante campo de las matemáticas del caos y a la geometría fractal.

El estudio de los atractores finales es otro de los campos de investigación con los modelos dinámicos. Volveremos a ellos en el capítulo 7.

2.1.7.- Areas de aplicacion de la tecnica "ds"

Desde la publicación del primer libro de Forrester "Industrial dynamics"  en 1961, la técnica "DS" ha sido utilizada para comprender problemas muy diversos, tales como obsolescencia técnica, dinámica urbana, crecimiento de poblaciones, algunas aplicaciones en economía, pero sobre todo, la aplicación que ha popularizado extraordinariamente la técnica ha sido el análisis prospectivo de la dinámica mundial, metodología empleada en diversos informes al Club de Roma. (Pulido 2-1993)

Más en detalle, se ha aplicado en dinámica industrial, en el estudio del control de producción (Simon 1984), comportamiento de pedidos (Fey 1984), Fluctuación en las cargas de trabajo (Robert 1084), Marketing y sistemas de distribución (Forrester 1984-2, Roberts E 1984-2) aplicaciones financieras y control de gestión (Swanson 1984), modelos de simulación de economías regionales, en educación simulando el rendimiento de estudiantes, en gestión de recursos naturales (Newell 1984, Martín García 2000).

Los estudios relacionados con el controvertido tema de los límites del crecimiento, auténtico "leit-motive" del Club de Roma desde 1972 se han desarrollado en base a la técnica de Forrester, cuya primera aportación fue el modelo "World2 y 3" (Forrester  1971) que fue la base del primer informe al Club de Roma de  1972. Recientemente, en 1991, Donella Meadows, Dennis Meadows y Jorgen Renders han revisado el modelo "World3" con ayuda de una actualización del lenguaje Dynamo, el Stella, sobre plataforma Macintosh, y creando el modelo World3/91" con el que se analiza más desapasionadamente los próximos cincuenta años a nivel planetario. (Meadows H 1992)

Las aplicaciones en el campo sanitaria no han sido demasiadas. Entre ellas cabe destacar los modelos epidemiológicos de propagación de epidemias como la fiebre amarilla (Martinez Vicente 2.1986) o el SIDA (Alhgren 1990).

Se puede concluir que el campo de aplicación de la Técnica "DS" es bastante amplio, y que es perfectamente razonable su aplicación a los problemas de gestión empresarial. 



2.2.- Complejidad de detalle: diseño de procesos.



2.2.1.-  Del nivel estratégico al nivel táctico

Si la técnica de Dinámica de Sistema nos permite entender la complejidad dinámica de los sistemas, sean los que sean; en los sistemas humanos el problema no queda resuelto con este nivel de análisis, pues una vez comprendida la dinámica del sistema en cuestión, y de las interacciones entre sus elementos, es necesario orquestar las acciones necesarias para mejorar todo lo que por indicación de las conclusiones del análisis, hemos detectado que debemos hacer para mejorar el funcionamiento del sistema, o para detener una problemática, que acaso pudiera terminar dando al traste con el sistema en sí.

Para ello, hay que bajar un escalón, y pasar del nivel estratégico, que es donde se mueve habitualmente la dinámica de sistemas, para bajar al nivel táctico, que define las funciones, por las cuales los sistemas humanos se mantienen operativos.

Como abordaremos en los capítulos 9 a 11, uno de los problemas más serios con el que se encuentra el ser humano es su capacidad organizativa. Desde el nivel de grupos humanos, pasando por las organizaciones, hasta llegar al nivel de la sociedad nacional e internacional, la gran asignatura pendiente es siempre cómo organizar el trabajo de modo que el sistema sea más eficiente, dentro de un entorno competitivo que evoluciona vertiginosamente, es absolutamente cambiante y caótico (entendiendo caótico como impredecible).

Este nivel de complejidad lo entiende mucho mejor el común de las personas, que el nivel de complejidad dinámica, más etéreo y resbaladizo. La complejidad de detalle es mucho más concreta, más lineal, y además, es el resultado final de un buen análisis del sistema, que desemboca en un correcto diseño de las operaciones.

La preocupación de las empresas por el adecuado diseño de las operaciones es lógico, pues en ello se juegan tanto importantes niveles de eficiencia, como de confianza de los clientes.  Además, la materialización de muchas decisiones de carácter estratégico tiene su reflejo en un rediseño de los procesos. No se puede hacer un rediseño de procesos sin antes haber cerrado los interrogantes estratégicos. No serviría de nada, es más, darían la falsa imagen de estar “modernizando” la empresa, cuando con toda probabilidad, las decisiones operativas adoptadas sin una base estratégica sólida, lo único que harían sería prolongar un tiempo la agonía. Sin embargo, si el análisis estratégico es correcto, del diseño de las operaciones depende que ese análisis estratégico se convierta en algo más que un estudio teórico.

En la actualidad, el rediseño de procesos y la integración de estos en auténticos sistemas de gestión empresarial, junto a rigurosos planes de calidad y robustos sistemas de información, parece ser el camino de la evolución de los sistemas organizativos humanos. Estamos pues en disposición de afirmar que el análisis de la complejidad de detalle no es opuesto al de la complejidad dinámica, sino que el segundo (enmarcado en un proceso de análisis estratégico de alto nivel), es previo al primero. Pero este si no se analiza y se implanta correctamente deja sin valor todo análisis estratégico que se haya podido hacer.

La programación de los proyectos operativos, se suelen subdividir en fases, estas en etapas, y a su vez en actividades con tareas concretas, y mediante técnicas de programación tipo PERT pueden ajustarse extraordinariamente a los recursos financieros, humanos, de tiempo y materiales.



El diseño de operaciones puede estar apoyado en la intuición de los expertos, pero además el empleo de determinadas técnicas de diseño puede formalizar mucho mejor estas tareas, donde intervienen tantos elementos, y hay tantos factores que tener en cuenta. Las técnicas de Investigación Operativa suelen ser muy útiles, sobre todo para resolver problemas de asignación de recursos (programación lineal). Para el diseño organizativo basado en las necesidades funcionales existen técnicas que permiten un diseño estructurado, tanto del proyecto, como de la organización estable que quedará en la empresa, institución, país o zona donde se haya de intervenir. Entre ellas, la metodología Idef es un buen exponente.



2.2.2.-  Metodología IDEF



IDEF (Integration Definition) es una metodología estándar desarrollada durante la década de los setenta por la Fuerza Aérea de los Estados Unidos en el programa ICAM, Integrated Computer Aided Manufacturing, con el objeto de incrementar la productividad a través de la aplicación sistemática de las técnicas de computación. (NIST, 1993) Como resultado de estos desarrollos se obtuvieron diferentes procedimientos de diseño:

IDEF0- Orientado a diseñar “modelos de funciones”, que generan procesos.

IDEF1- Orientado a diseñar “modelos de información”, que generan Sistemas de Información.

IDEF2- Orientado a diseñar “modelos dinámicos”. (similar a la metodología DS, como técnica de simulación)

En 1983 IDEF1 se modificó a IDEF1X, como técnica de modelado de datos.

En 1991 el Instituto Nacional de Estándares y Tecnología (NIST), recibió autorización del Departamento de Defensa americano para convertir la metodología IDEF en un estándar federal (Federal Information Pocessing Standards (FISP), para su uso público.



La que interesa aquí es IDEF0, (Integration DEFinition language 0), basada en SADT®, (Structured Analisys and Design Technique), desarrollada por Douglas T. Ross



Se basa en definición de funciones como cajas por las que entran determinados elementos materiales, humanos, información, y tras un proceso determinado, se obtiene esos elementos transformados con nuevos atributos. Por arriba, se apuntan todos aquellos controles, restricciones, condicionantes externos, que limitan el  espectro de posibilidades. Y por abajo, los recursos de que podemos disponer para realizar la intervención.


La operación madre en nivel cero, se puede atomizar en diferentes funciones hijas de nivel inferior, y así hasta llegar al nivel operativo, donde se ejecutan los procesos.

Esta es una forma extraordinariamente potente y comprensible de establecer funcional y estructuralmente una organización, incluso todo un país.

El concepto fundamental es que una organización no se diseña sobre su base estructural, sino funcional. El aforismo médico lo dice claramente: “la función crea el órgano”. Ningún elemento de la Naturaleza carece de función. Y si la perdiera, desaparecería, o quedaría como un rudimento inservible, como es el caso del apéndice ileo cecal de los mamíferos.

IDEF0 permite comprender y “estructurar” las diferentes funciones de una organización








Despliegue en cascada estándar de un modelo de definición de funciones basado en la metodología IDEF-0.
En este gráfico vemos cómo un modelo IDEF0 se desagrega en cascada hasta los niveles más elementales o unidades funcionales, donde se desarrollan las auténticas funciones vitales de las organizaciones, los procesos

El concepto “proceso” puede definirse como un conjunto de recursos y actividades interrelacionados que transforman elementos de entrada en elementos de salida. Los recursos pueden incluir personal, finanzas, instalaciones, equipos, técnicas y métodos. En cada proceso pueden intervenir una o más unidades funcionales cuyos elementos ejecutores realizan una serie de actividades según un procedimiento determinado. El análisis de las operaciones supone entrar de lleno en el análisis del detalle, de la complejidad de detalle.

Un procedimiento es la forma especifica de llevar a cabo una actividad. En muchos casos los procedimientos se expresan en documentos que contienen el objeto y el campo de aplicación de una actividad; que debe hacerse y quien debe hacerlo; cuándo, dónde y cómo se debe llevar a cabo; qué materiales, equipos y documentos deben utilizarse; y cómo debe controlarse y registrarse.

Una actividad es la suma de tareas, normalmente se agrupan en un procedimiento para facilitar su gestión. La secuencia ordenada de actividades da como resultado un subproceso o un proceso.

Todos estos conceptos dentro del estudio racional de los procesos tienen su reflejo en metodologías de análisis apoyadas en medios gráficos (mapas y diagramas de proceso), y en técnicas de diseño y simulación, como son (ya nos hemos referido a ellos), los programas informáticos Witnessâ, Promodelâ o Processâ
Las siguientes figuras muestran ejemplos de diagramas de procesos, de flujos de datos, de relación y un diagrama IDEF0, elaborados con el paquete “Process 2000”. 


*