Bienvenida

Amigo/a.
Este es un blog dedicado a ver la vida que nos rodea de otra forma. Vivimos en una realidad totalmente interrelacioneda entre los miles, millones de elementos que la conforman. Y lo hacen en agregaciones sucesivas e integradas denominadas "sistemas".
En un lenguaje razonablemente asequible, pretendo dar herramientas mentales para poder intuir la complejidad de un mundo condicionado por una variable, el tiempo, que inexorablemente nos conduce a un objetivo final, tanto como individuos y como especie.

La página principal contiene las entradas que iré escribiendo, bien de mi pluma, bien referencias de terceros autores sobre temas que están relacionados con la visión holística, sistémica de la vida.

El menú de páginas laterales se basan en los capítulos del libro que escribí hace ya algunos años "Análisis sistémico, su aplicación a las comunidades humanas". Constituyen las bases del pensamiento sistémico que voy a desplegar en este blog.

La página "Indice y referencias" contiene el contenido de las sucesivas páginas sobre sistémica.

La página "Visión general", contiene los principios fundamentales para entender, a modo introductorio el pensamiento sistémico.

Las páginas de la 1 a la 9, despliega cada uno de los contenidos fundamentales del libro que escribí. Su lectura es muy importante para comprender el razonamiento que se irá exponiendo en las sucesivas entradas en la página principal.

Buena suerte. El pensamiento sistémico te cambia la visión de la realidad, abriéndote un escenario hasta entonces desconocido.
Con la visión sistémica del mundo, uno puede ver más allá de lo que perciben los sentidos y la mente convencional es capaz de comprender.

De nada hablaré como maestro, aunque de todo hablaré como entusiasta, como decía Ortega y Gasset, porque pongo por delante que lo que pueda plasmar en este blog no es fruto de ninguna cultura enciclopédica. No soy especialista de casi nada. Pero sí soy generalista, es decir, un profesional (en este caso de la Sanidad y de la Medicina) que aplica el método sistémico a lo que ven mis ojos.

Invito a quien quiera atreverse, a que se embarque en esta forma de pensar. Los resultados pueden ser sorprendentes.





1-Teoria General de Sistemas


 Ref.: http://bertalanffy.iguw.tuwien.ac.at/index.shtml


CONTENIDO DE ESTE CAPÍTULO

1.- Karl Ludwig von Bertalanffy
2.- Planteamiento general de la TGS.
3.- Sistemas abiertos y cerrados
4.- Comportamiento termodinámico de los sistemas   abiertos
5.- Sistemas de mando y control
6.- Uso de la información
7.- Concepto de modelo
7.1.- Respuesta a los elementos formales de un modelo
7.2.- Segregación
7.3.- Centralización
7.4.- Análisis de tendencias
8.- Diversas formas de clasificar sistemas
8.1.- Clasificación de Boulding
8.2.- Clasificación de Stafford Beer
8.3.- Clasificación multinivel
9.- Historia natural de los sistemas
10.- Sistemas vivos
11.- Orden, caos y complejidad
11.1.- Evolución del concepto de orden de la Naturaleza
11.2.- Las reglas del juego
11.3.- Complejidad
Conclusión

1.1.- Karl Ludwig von Bertalanffy
    
La Teoría General de los Sistemas (T.G.S.) fue planteada en 1949 por Ludwig von Bertalanffy, biólogo nacido en una localidad cercana a Viena el 19 de septiembre 1901 – se cumplió en 2001 el primer centenario de su nacimiento -. Ha sido uno de los más importantes biólogos teóricos de la primera mitad del Siglo XX, que investigó en fisiología comparada, biofísica, cáncer, psicología y sobre todo, ha sido uno de los grandes filósofos de la Ciencia. Revisó las teorías morfogenéticas y trató de resolver la espinosa cuestión del reduccionismo, a saber: o bien las categorías en biología eran físicamente diferentes, o bien era posible establecer dominios biológicos aplicables a todas las categorías de seres vivos. Desarrolló la teoría cinética de sistemas abiertos en 1930, donde introdujo los conceptos de equifinalidad y estado estacionario. Este trabajo fue el gérmen de la Teoría General de Sistemas.

          

En 1934, con el apoyo de otros colegas, Reininger, Schlick y Versluys, elaboró el primer volumen sobre la Teoría biológica, en la que postulaba dos objetivos esenciales, el primero, poner en orden la terminología conceptual en biología, y la segunda explicar cómo el fenómeno de la vida puede emerger espontáneamente de las fuerzas internas de los organismos vivos. Aquí, el sistema organismico, representaba  el mayor problema a formular por la biología teórica. El segundo volumen  desarrolló el programa de investigación de morfología dinámica y la aplicación de los métodos matemáticaticos a los problemas biológicos. Se centró en la investigación de la fisiología comparada del crecimiento.(Rhee, 1998)
En 1940 condujo su teoría de los sistemas abiertos hacia el enfoque de la termodinámica de los procesos irreversibles desarollada por Prigogine en aquella época.  En 1949 fue la primera vez que expuso públicamente su Teoría General de Sistemas como metodología válida para el estudio de todos los sistemas que se pueden encontrar en la Naturaleza y los desarrollados por el hombre. Ese año emigró a Canadá donde siguió investigando en metabolismo, y con su hijo Félix, desorrolló un método de citodiagnóstico del cáncer. A partir de 1950 alternó sus investigaciones en Biología con el desarrollo de la GST (General Systems Theory), y con obras de ensayo y pensamiento humanístico que desembocó en una visión holística de la epistemología (1966)
En 1964 efectuó otra integración fundamental a la TGS, la teoría cibernética de la realimentación (feed – back), como la base teórica de los sistemas autorregulados. (Brauckmann S. 1999)
En 1972, fue nominado para el Premio Nobel, pero ya fue demasiado tarde; Bertalanffy murió el 12 de junio, antes de que su nominación fuese considerada por las autoridades del Premio.

1.2.- Planteamiento general de la TGS.

La TGS postula que conceptualmente la Ciencia está llena de isomorfismos u homologías, y que se puede llegar a una metodología científica común; a un modo de trabajar y de pensar común a todos los campos de la Ciencia. (Bertalanffy 1968)
 Así, la Teoría General de los Sistemas intenta ser una ciencia general de la Totalidad, cuyo objetivo es desentrañar las leyes generales de la existencia, y no las leyes físicas, como si la Física lo explicase todo.
 La tendencia que siempre se ha seguido en la Ciencia es la analítica; descomponer el todo en sus componentes y analizarlos uno a uno de un modo exhaustivo. Una vez terminado este estudio científico, la síntesis del todo se  realiza casi de una forma metafísica, abstracta, de modo tal que la totalidad se percibe poco delimitada y difusa. El todo es la suma de las partes (Descartes) más "algo más" (Bertalanffy). Ese algo más es la organización o conjunto de relaciones entre dichas partes.
 De la necesidad de resolver esta falta de aprehensión del todo, surge el concepto de SISTEMA.
    
Un SISTEMA es un conjunto de elementos interactuantes.
Esta definición, dada por V. Bertalanffy (1976), es la más simple; pero si se profundiza en ella, se hace extensiva a la siguiente: (Martínez Vicente 1983)
Un SISTEMA es un conjunto de elementos que relacionados entre sí, contribuyen a un fin.
  Y aún más refinada es la definición de O`Connor, (1997), como conjunto de elementos (partes) que funcionan como una sola entidad.
No basta con estudiar los elementos y luego ensamblarlos, limitándose a dar una interpretación subjetiva sobre el Todo, sino que es necesario someter a tratamiento científico también a ese todo.

1.3.- Sistemas abiertos y cerrados
    
Los sistemas pueden ser abiertos o cerrados.
Un Sistema Cerrado se encuentra aislado del entorno.
Un Sistema Abierto mantiene permanentes canales de entrada y salida de materia, energía e información con el medio ambiente. En estos sistemas se mantiene un fluir continuo de estos elementos, sin que se llegue a alcanzar, durante el ciclo de vida del sistema, el estado de equilibrio, tal y como quedó anteriormente definido.
Los sistemas cerrados son de uso común en Física y Química. Ejemplo típico son las reacciones químicas convencionales, en las que se cumple la Ley de Acción de Masas, formulada por Guldberg y Waage en 1867: "La velocidad de una reacción química es proporcional al producto de las masas activas de las substancias reaccionantes". Por esta ley, decir equilibrio químico es decir Termodinámica reversible. (Bertalanffy Op Cit)
Un sistema abierto no se comporta así. Un ejemplo lo tenemos en el potencial de membrana de la célula. Entre el interior y el exterior de la célula se mantiene un gradiente de potencial de -70 mV en el interior, a costa de mantener todo el sodio fuera de la célula y todo el potasio, y otros iones negativos (proteínas), en el interior; y esto, a costa de un consumo nada despreciable de energía.
De lejos, todo parece gozar de un tranquilo equilibrio, y parece no suceder nada interesante, pero en realidad se está entablando continuamente una feroz lucha contra el desorden, y gracias a ello, la célula consigue mantener su estado, aparentemente uniforme o estacionario, que es lo mismo que decir, que consigue mantenerse viva.
Cuando se lanzan al suelo un conjunto de objetos pequeños, como bolas o piedrecitas, lo más probable es que la disposición de estos sea de total desorden; unas quedarán en el centro de la estancia, otras en los rincones, y otras saldrán despedidas fuera del recinto. Sería casi "un milagro" que todas quedasen formando un círculo. Materialmente esto es imposible.
Toda la Naturaleza tiende a obedecer el Segundo Principio de la Termodinámica, tiende al máximo desorden. Si un ebanista comienza a trabajar en su taller, después de varias horas de trabajo, lo más probable es que el taller esté totalmente desordenado, debido a la utilización de las herramientas, y a la formación de serrín, astillas, retales de madera, etc. A no ser que el mencionado carpintero sea muy ordenado, y cada vez que utiliza una herramienta la vuelva a dejar en su sitio, o cada vez que se forma serrín, lo recoja con un cepillo, el desorden es la evolución natural del trabajo. Así pues, una de dos, o se deja que el desorden invada poco a poco nuestra actividad, o a fuerza de un consumo adicional de energía y tiempo, mantenemos el orden voluntariamente.
Si la Naturaleza tiende al desorden creciente, y por otra parte vemos que los seres vivos mantienen una estructura perfectamente organizada, es decir, altamente improbable, algo nos dice que la vida se basa en una lucha continua contra el desorden y contra el caos. “La vida es lucha permanente contra el caos”, es una de las más sencillas y realistas definiciones que jamás escuché, de boca de Don Luis Miravitlles, en su programa de divulgación científica “Visado para el futuro” de Televisión Española, allá por los años sesenta.
Para los vitalistas, ese algo que mantenía todo en orden era el principio vital, el "elan vital" de Bergson. La realidad no es tan metafísica como lo era el vitalismo, ni tan simple como lo era el mecanicismo. (Marías 1971,Op cit)
Para comprender esta contradicción, hay que comprender el concepto último de Sistema Abierto, y su diferencia respecto al Sistema Cerrado.
Un Sistema Cerrado tiende siempre al estado de máxima probabilidad, esto es, el estado de equilibrio. n Sistema Abierto puede, bajo un consumo adicional de energía, mantener un estado organizado, altamente improbable, el Estado Estacionario, Uniforme, Estable o "Steady-State".
Por lo tanto, si se considera que un ser vivo es un sistema abierto, y que durante toda su vida, lucha incesantemente por mantener su "steady-state", podremos comenzar a comprender algo de lo que significa la Vida sobre la Tierra en todos sus niveles, desde la microbiana hasta la Comunidad de Naciones.
Hasta aquí llegamos a una conclusión básica y muy importante, saber diferenciar los fenómenos físicos de los biológicos, y comprender que no se pueden aplicar las leyes físicas directamente, y con toda su crudeza, sobre los fenómenos vitales. De aquí surge la necesidad de elaborar una extensión de la Termodinámica para adaptarla a las leyes que rigen el organismo vivo. Esta extensión de la Termodinámica se denomina "Termodinámica de los Procesos Irreversibles" desarrollada por Prigogine. (Prigogine 1947)
Además es necesario un método de razonamiento que permita la comprensión de los fenómenos vitales a todos los niveles, contemplando a los seres vivos como un todo. Esta es la "Teoría de los Sistemas".
El concepto de Sistema implica el concepto de organización, pues ambos son similares. Una Organización posee elementos que la integran, es decir, posee una estructura; y esta organización necesita disponer de un modo de funcionamiento orientado a un fin concreto.
Así pues se puede concluir que:
SISTEMA = ORGANIZACION que posee:
1-Una ESTRUCTURA (orden de elementos integrantes)
2-Una FUNCION (orden de procesos)
3-Una FINALIDAD (razón de ser)
El análisis de las partes integrantes de un sistema, al final nos puede dar una idea sobre la estructura del mismo, pero no sobre la función, ya que el estudio del orden de procesos (interacción entre las partes), no se puede inferir del análisis arquitectónico de los componentes aislados, sino de los vectores de relación entre los elementos.
El desarrollo de esta metodología ha planteado de siempre, muchas dificultades. Es verdad que el todo es la suma de las partes más algo más. Pero comprender y cuantificar ese algo más, no es tarea fácil. De ahí surgió en Biología el vitalismo, explicando ese algo más, como un duende incorpóreo que lo anima todo.
La Teoría de los Sistemas no inventa nada, lo que pretende es aportar un nuevo paradigma, una forma más adecuada de pensar y de razonar en Ciencia, una unidad y coherencia de pensamiento. Esto conduce a la Filosofía de la Ciencia, a que pensemos de forma genérica, y no concreta; nos lleva a elaborar una nueva síntesis sobre muchas cosas, la Vida, la Historia, la Mente humana, etc.
Pensar en términos de sistemas vale para que podamos comprender tanto la formación de las estrellas como las tensiones de la economía de mercado (por poner dos ejemplos muy distantes). Es un pensamiento unitario que permite aplicaciones a campos muy dispares.
Empero, éste, que es un paradigma de Poder, en tanto preconiza una herramienta de uso universal y aplicable a muchos campos, ha de complementarse adecuadamente con otro paradigma, el del Conocimiento, que preconiza que es el Conocimiento concreto lo más importante para que la Ciencia avance. Ambos paradigmas se complementan. El paradigma del Poder es el paradigma del método universal, útil en tanto se adapte a la problemática que sólo el Conocimiento es capaz de averiguar. Ambos paradigmas se necesitan mutuamente para ser operativos. No se puede defender a ultranza uno en detrimento del otro. Es un error que conduce siempre al fracaso. (Pazos Sierra 1987)


1.4.- Comportamiento de los sistemas abiertos

 Como se ha hecho referencia anteriormente, el desarrollo de la TGS ha estado ligado a la aplicación de los principios de la Termodinámica, en concreto, de la Segunda Ley, por la que en la evolución de un sistema aislado, la entropía “S”, no puede hacer más que crecer en cualquier transformación de la energía. Transcurrido un tiempo suficiente, alcanza un valor máximo que caracteriza su estado final de equilibrio, donde ya no es posible ningún proceso que altere el valor de la entropía “S”. Para Boltzman, la entropía es una medida del desorden molecular o su probabilidad termodinámica.
La traducción vulgar del segundo principio es que el trabajo genera desorden. En puridad clásica, de este principio se deduce que la evolución natural es una sucesión de estados cada vez más desordenados. (Lurie D. 1979)
La  termodinámica aplicada a los sistemas abiertos exige la existencia de una evolución hacia estados cada vez más ordenados, de baja entropía, a temperatura ambiente. En otras palabras, los sistemas vivos tienen que estar luchando permanentemente contra el estado de equilibrio. Para ello, los sistemas abiertos necesitan ligaduras externas por las que intercambiar permanentemente materia, energía e información. De lo contrario, cuando un sistema abierto queda aislado, inexorablemente degenerará hacia el estado de equilibrio, es decir, hacia la muerte y descomposición. Al final, para un individuo vivo se termina cumpliendo inexorablemente la segunda ley, todos los seres vivos terminan muriendo.
Pero el hecho de que el cumplimiento de la segunda ley para los seres vivos les suponga la muerte, quiere decir, que la vida se fundamenta en su continua transgresión y aparente violación.
Schrodinger reflexionaba sobre la vida en el sentido de que el alto grado de organización que muestran los seres vivos no puede ser sino a costa de disminuir los niveles de entropía lo más posible. En el balance entrópico entre el ser vivo y el entorno, aquel vive robando orden a su ambiente por medio de un flujo negativo de entropía, a lo que denominó “negentropía” (Schrodinger 1944). En terminología termodinámica se dice que el alejamiento del estado de equilibrio acercándose el sistema al estado estable es a costa de abandonar el régimen lineal de la termodinámica y entrar en régimen no lineal. Aparecen discontinuidades e inestabilidades, fluctuaciones, cuya representación matemática excede a propósito el alcance de este libro por compleja, pero que al final lo que quiere decir es que el estado estable es, desde el punto de vista termodinámico altamente “inestable” – aunque parezca un contrasentido -, y obliga a los sistemas vivos a una permanente lucha. Un ejemplo sencillo podría ser un avión en tierra o volando. En tierra es como si estuviese en equilibrio, de ahí no se cae; en vuelo, se mantiene en altitud, actitud y rumbo gracias a que los reactores están escupiendo toneladas de gases por sus toberas y los planos mantienen un régimen de diferencias de presión entre el intradós (cara inferior) y el extradós (cara superior) constante. A poco que algún factor de estos cambie, el avión perderá la estabilidad y descenderá o ascenderá. Esta lucha en los seres vivos se proyecta en los conceptos biológicos de crecimiento, diferenciación y evolución.
Un ejemplo a medio camino entre los seres vivos y los inanimados son los virus, estructuras elementales en estado de equilibrio; aisladamente se comportan como los cristales, pero a la hora de reproducirse necesitan inexorablemente de un sistema abierto  en estado de no equilibrio, la célula.
La producción de entropía se expresa en términos de fuerzas y flujos termodinámicos asociados al desarrollo de un conjunto de procesos irreversibles, como por ejemplo los gradientes térmicos, velocidad de las reacciones o potencial eléctrico. El estado estable se alcanza cuando todos los flujos son constantes en el tiempo (tanto entra al sistema como sale de él).
La tesis del balance entrópico de Prigogine, refleja cómo puede mantenerse el estado estacionario. El sistema abierto envía al ambiente toda la entropía que se produce en su interior (evacuación de heces, orina, CO2, etc). Es el precio de violar la Segunda Ley, y con ello mantener la entropía interna constante, y la conservación de un determinado estado de organización.
La evolución hacia el estado estable es el camino del sistema hacia una configuración estructural y funcional que le permita acomodarse a las condiciones del entorno, de modo que el balance de flujos de entrada y salida sea constante en el tiempo. En estado estable está asegurado el régimen lineal, si se pierde por cualquier perturbación, ésta se vencerá reconfigurando el sistema estructural y funcionalmente hasta restituir el estado estable.
La forma de evaluar cuantitativamente el balance entrópico es en primera instancia mediante la determinación de la intensidad del metabolismo por calorimetría, como producción de entropía por unidad de masa.








Durante el crecimiento el sistema vivo está alejado del equilibrio, cruzando lo que los técnicos califican como frontera del régimen lineal. Al alcanzar la vida adulta, la producción de entropía tiende a ser tanto menor cuanto más próximo se encuentre del estado estable.
Una segunda forma de Lurié y Wagensberg, de evaluar el balance entrópico, de interpretar termodinámicamente un organismo es tomando el intercambio de calor entre el sistema y el entorno como medida, no de producción, sino de intercambio de entropía.






    

La interpretación más sencilla de este segundo gráfico es que durante la fase de crecimiento el balance entrópico es claramente negativo respecto del entorno. Es una fase en la que el organismo está ganando biomasa y organización, respecto del exterior, es como si estuviera disminuyendo la entropía interna respecto de la externa. Cuando alcanza la vida adulta, decrece la negatividad hasta que el balance se vuelve constante y próximo a cero. (Lurié D.1979)
Como los canales de entrada y salida de materia y energía están predeterminados por el código genético, es decir las ligaduras exteriores, desde que se nace el proceso del envejecimiento comienza, lo que sucede es que hasta llegar a la vida adulta, puede mucho más la acción dinámico específica del crecimiento, pero más allá de un relativo periodo de estabilidad, las ligaduras se debilitan por errores moleculares que no pueden llegar a corregirse, hasta llegar a anularse al sobrevenir la muerte.
Este proceso es básicamente igual en todos los seres vivos.
Si este fuese el proceso único, la vida no sería posible, pues estaríamos ante un sólo ensayo que habría fracasado hace 3500 millones de años con el primer y único sistema vivo sobre la Tierra. El gran éxito y permanente burla de la Ley, consiste en que antes de morir, el sistema vivo es capaz de transmitir la información de cómo conseguir y mantener el estado estable de sus estructuras y sus funciones, en forma codificada a nuevos seres vivos que surgen del primero (o pareja del primero). Por eso, los sistemas vivos, los organismos, son una consecuencia operacional deducida de la decodificación de la información contenida en el cigoto.
Esta interpretación termodinámica no deja de ser determinista y lineal. Pero con ello no se explica ni la auto organización, ni el proceso evolutivo por mutación y selección.
Para ello se aplica el modelo de Eigen, del principio de orden por fluctuación, que más o menos da a entender que lejos del estado de equilibrio, la existencia de un potencial termodinámico está comprometido y son las fluctuaciones quienes inducen nuevas estructuras y nueva estabilización el sistema.
Eigen explica este comportamiento con las primigenias poblaciones de polímeros que se suponen existieron en la Tierra primitiva. Éstos catalizan su propia replicación. El azar induce la sustitución de nuevos monómeros con mayor fidelidad. Esto es una mutación, o lo que es lo mismo, una fluctuación termodinámica. Si la nueva configuración cataliza con más fidelidad la replicación, esto es un éxito, y prevalecerá sobre otras cuyo ensayo constituya un fracaso. Esto es pura selección darwiniana.
Pero el polímero sólo, no conserva memoria de éxitos y fracasos, de modo que de la misma forma que muta para mejor, puede hacerlo para peor. Sin embargo, los polímeros con nucleótidos son otra cosa, porque éstos conservan memoria y consolidan los éxitos, amplificando las fluctuaciones correctas, con lo que los nuevos sistemas hijos estarán más próximos al estado estable que las generaciones anteriores. Los errores de mutación, por sí mismos habrán desaparecido, salvo errores eventuales, que también se producen (se conocen como malformaciones congénitas que de vez en cuando aparecen). Con ello Eigen demuestra la gran armonía entre el azar y el determinismo. Gracias al azar la vida ensaya continuamente aproximaciones sucesivas al estado estable. Las ecuaciones cinéticas deterministas deciden si la fluctuación se impone o no. Con ello, la alta improbabilidad del origen de la vida, como combinación de sucesos altamente improbable, defendida por Jacques Monod (1970), es cuando menos igualmente improbable.
En otras palabras, la vida y su aparición en la Tierra, no fue una casualidad, cuando el entorno del planeta posibilitaron su aparición. Para Wagensberg (Op. Cit. Lurie D. 1979), la noción de azar de Monod es una ingenua prolongación de la termodinámica clásica del estado de equilibrio, no del estado estable.
Según  se mire la actividad termodinámica de los sistemas vivos puede verse o no.  A nivel macro, se observan pocas novedades en el corto plazo. Prevalece el orden de Boltzman. A nivel micro, molecular, el orden por fluctuaciones continuamente está aportando nuevas ideas. Sin embargo, fruto de esta intensa actividad molecular es lo que  Margaleff denomina “lo barroco del mundo natural”, en el sentido de que los ecosistemas contienen muchas más especies de las que harían falta si se atendiese al principio de eficacia biológica. Pero esta exuberancia (biodiversidad) garantiza la supervivencia y asegura la evolución mientras en la Tierra se mantenga un entorno compatible con la vida, aunque sea en condiciones extremas, sólo soportable por los seres “extremófilos”, aquellos que pueden vivir en condiciones extremas, tales como las fuentes termales sulfurosas.

1.5.- Sistemas de mando y control
El desarrollo de la Sistémica en Estados Unidos, en lugar de basarse en la Teoría de los sistemas abiertos, tal y como estaba formulada, se produjo de la mano de otra escuela de pensamiento, centrada fundamentalmente en el concepto de mando y control, base de la Cibernética, cuyo mayor exponente ha sido Norbert Wiener, matemático nacido el 26 de noviembre de 1894 en Columbia, Missouri, y fallecido en Stockolmo el 18 de Marzo de 1964. Dentro de esta escuela podemos incluir a Cannon, que desarrolló el concepto de homeostasis.

Ref. http://www-history.mcs.st-andrews.ac.uk/history/Mathematicians/Wiener_Norbert.html

El concepto etimológico de Cibernética es muy antiguo. Fue una palabra de uso común en la Grecia clásica que se refiere al gobierno y control de navíos y hombres. Aunque tenga visos de modernidad y de robots, Internet y circuitos electrónicos, Platón en sus diálogos ya utilizaba el término kubernhtikh (kibernetiké) para referirse a la acción del mando y control de las naves, barcos, así como a la de dirigir hombres y gobiernos. Por tanto, la palabra “cibernética” tiene una etimología perfectamente adecuada a lo que Wiener quería expresar. Si consultamos un diccionario de griego, vemos además de kibernetiké, otras diferentes palabras al respecto: Kubernaw, (kibernao) significa en griego clásico dirigir, guiar, pilotar y KubernhsiV, (kibernesis) gobierno de un barco por medio del timón.
El concepto desarrollado en la teoría cibernética procede de las funciones básicas de los mecanismos de cálculo analógico. Lo más sencillo es un artilugio que recibe una cantidad física medida en escala continua, tal como voltaje, rotaciones, flujo, longitud, etc y es capaz de devolver una salida resultado de un cálculo basado en la manipulación de las leyes físicas. Por ejemplo, utilizando la Ley de Ohm, por la que la corriente (c) es igual al voltaje (v) dividido entre la resistencias (r)   c=v/r, si manipulamos el voltaje y la resistencia, la lectura de corriente que obtengamos será la división v/r. Con estos recursos  funcionan los ordenadores analógicos.
Un segundo paso es el diseño de los esclavos mecánicos o “servomecanismos”, dispositivos que permiten que la señal de entrada se amplifique o minore en el canal de salida, a voluntad del que lo manipula manualmente. Entra una cantidad “x” y obtenemos de salida una señal “x” multiplicada por c>=< 1, y que se regula a voluntad del que manipula la señal de entrada. El servomecanismo funciona con un motor que requiere energía.  Estos servomecanismos se ensayaron inicialmente en los barcos que comenzaban a ser de gran tonelaje, y el control del timón manual era muy difícil.
Si incluimos el término “servomecanismo” dentro del más amplio de “servosistema”, entonces los servomecanismos a los que nos referimos son servosistemas de circuito abierto, es decir, cuya señal de salida amplificada obedece al control manual de la persona al mando. Si esta abandona el sistema, este pierde todo gobierno.
Por contra, la segunda clase de servosistemas introduce en sí mismos un elemento de control que les posibilita algo nunca antes conseguido por el hombre, la autorregulación de la función encomendada. A esta función se la denomina genéricamente “retroalimentación”, “retroacción”, o en inglés “feed back”.














En realidad, si a un servomecanismo de circuito abierto se incluye al operario como integrante del sistema, entonces todo el conjunto se comporta como un servosistema de circuito cerrado.











Los servosistemas se diseñan con el objetivo de tener el comportamiento de un determinado elemento bajo control, tendiendo teóricamente al estado estable, en el sentido de ausencia de fluctuación de la señal de salida. Esto es cierto si ante cualquier oscilación de la señal de salida, esta se amortigua rápidamente, pero si se producen retrasos en la respuesta correctora, entonces el sistema se vuelve oscilante. Veremos que el fenómeno de los retardos (delays), son fundamentales para comprender las fluctuaciones que se producen en cualquier sistema, en concreto en las organizaciones humanas.
En la Segunda Guerra Mundial, los especialistas americanos en radar, comenzaron a aplicar sus conocimientos sobre filtros eléctricos y amplificadores electrónicos a la confección de servomecanismos de alto rendimiento capaces de seguir un blanco y destruirlo según las órdenes de un calculador de tiro. Norbert Wiener en su obra Cybernetics, publicada en 1948 aunó el interés que por estas cuestiones mostraban, no sólo los físicos e ingenieros, sino cada vez más los médicos, biólogos, sociólogos, economistas y psicólogos. Demostró la unidad estructural de procesos aparentemente dispares como el sistema de guiado de un misil y la presión de CO2 en sangre
Así pues, la Cibernética es un encuentro entre varias ramas de la Ciencia y de la Tecnología interesadas por los mismos problemas del control y de la comunicación.
Para explicarlo brevemente, un sistema de mando y control debe disponer de tres elementos básicos. 1.- el mecanismo que efectúa o sufre el control. 2.- lo que permite establecer el control, es decir, la información. Y 3.- el cómo la información pasa del controlador al elemento controlado, el código de comunicación.
Estos tres elementos permiten que los sistemas autorregulados presenten como principal cualidad la estabilidad, admitiendo oscilaciones correctoras
Lo que Wiener demostró fue que estos elementos de cualquier sistema autorregulado podían ser representados en modelos regidos por principios generales y leyes que se refieren a las relaciones dinámicas de causa efecto entre los diferentes componentes del sistema. Por cualquier sistema, hay que entender cualquier sistema físico, biológico o social. El diseño del modelo se basa en operaciones lógicas con reglas de transformación que permiten describir los cambios de estado, es decir, la evolución dinámica del sistema.
Esta reducción de sistemas que a todas luces son extraordinariamente complejos, se hace con conocimiento de que en realidad es una aproximación lógica. Para ello se utiliza el concepto de caja negra (black box). Se acepta la licencia de encerrar en una virtual caja todo lo que no se sabe, y se utiliza tan sólo lo que se sabe que entra (input), y lo que sale (output); pero no se entra en cómo se procesa interiormente la materia, energía o información.
El abordaje de esta extensión de la Teoría general de los Sistemas a los sistemas de mando y control implica, además de a la Cibernética, a la Teoría de la Información de Shannon, y a los conocimientos y teorías sobre el lenguaje y la comunicación.
Cuando comenzamos a aplicar ejemplos a estos sistemas autorregulados, vemos que el concepto “complejidad” aparece casi al instante. A poco que nos asomemos a los intrincados sistemas de un avión, de un ordenador, de una red telefónica,  de una multinacional, o de un organismo vivo, la noción de complejidad, surge de inmediato.
Sin embargo, dentro de la noción de complejidad, es conveniente diferenciar los sistemas complejos de tipo físico de los de tipo biológico. En los primeros, hablamos de una complejidad determinista, en los segundos, de una complejidad probabilística. Para el uso de los sistemas de tipo físico, basta con aplicar los conceptos de servosistemas pues su comportamiento es totalmente previsible, salvo errores y fallos de sistema (hablamos de comportamiento predeterminado por el diseño). En los sistemas de tipo biológico, el comportamiento es estocástico, lo que significa que sólo es relativamente previsible, dado que por definición, un sistema de tipo biológico está en permanente adaptación al entorno: evoluciona. Así pues, todo modelo que hagamos de un sistema biológico se basa en el carácter topológico con isomorfismos respecto de un sistema primordial.
Hablamos de un sistema primordial, a un modelo estándar de sistema de tipo biológico, que salvando las diferencias que presentan los seres vivos y organizaciones humanas, presenta una topología general aplicable a cualquiera de los seres vivos. Lo veremos en el capítulo siguiente, al desarrollar la teoría de los sistemas vivos de J.G.Miller. El uso de este modelo estándar permite la comparabilidad entre seres vivos, entre sistemas animales, y entre sistemas artificiales con funciones de tipo biológico. Es también posible deducir los comportamientos patológicos por malfuncionamiento del sistema primordial. Y también es posible estudiar el comportamiento adaptativo, tipo Pavlov. Existen máquinas capaces de aprender, y orientadas a objetivo final. Esta idea, fue reflejada en el  personaje HAL-9000, ordenador inteligente  que Arthur C. Clark consagró en su ya mítica novela 2001, una odisea en el espacio.

        1.6.- Uso de la información
Ref. http://www-history.mcs.st-andrews.ac.uk/history/Mathematicians/Shannon.html
Pero en todas estas capacidades, bien sean bajo comportamiento determinado o bajo comportamiento estocástico, los servosistemas basan su viabilidad en el adecuado uso de la información. La información  permite establecer mecanismos de control y comunicación, es decir, mecanismos de mando.
La información es la medida de nuestra libertad de elección, al escoger un mensaje (alternativa) de entre el conjunto de alternativas posibles. El canal es el medio físico a través del que es posible transmitir la información. Sin embargo, todo canal presenta una limitación en su capacidad de enviar información, por lo que la Naturaleza, y el hombre luego, utiliza exhaustivamente el código, es decir, el lenguaje, para transmitir información. Un código es tanto más eficiente cuanto mayor información transmite por unidad de tiempo, y mayor porcentaje de la capacidad del canal utiliza.

En este sentido Claude Elwood Shannon, nacido el 30 de Abril 1916 en Gaylord, Michigan, USA, padre de la Teoría de la Información, enunció sus dos teoremas de la codificación, relacionados con la utilización máxima de la capacidad del canal.
El primer teorema es para canales sin ruido, y garantiza un código óptimo que maximiza su eficiencia, a pesar de que no se pueda materializar en la realidad. Es decir, que una entidad matemática existe aunque no pueda materializarse. El segundo teorema es para canales con ruido (es decir, los que físicamente nos encontramos en la realidad) Pues para ellos, la capacidad de un canal es la cantidad máxima de información por unidad de tiempo que se puede transmitir, con confianza suficiente a pesar de las perturbaciones producidas por el ruido.
Vuelve a aparecer aquí el concepto de entropía, de desorden, pero esta vez relacionado con la información. En este sentido, la entropía es equivalente al nivel de incertidumbre respecto del conocimiento de la composición y comportamiento interno de un sistema. Para entender esto, tenemos que volver a acudir a los conceptos termodinámicos.
En un sistema, el estudio de cada elemento define su “microestado”, con sus atributos. El estudio global del conjunto de elementos que componen un sistema, define el “macroestado” o resumen estadístico de todos los microestados (podrían ser la media aritmética y desviación típica de los valores de los microestados). Para un sistema con pocos elementos podemos hablar del sistema refiriéndonos a los microestados. Por ejemplo una familia que tiene cuatro hijos de 18, 15, 12 y 9 años es fácil de recordar. Sin embargo, para una gran cantidad de elementos, la información, sólo es accesible si nos referimos a la información del macroestado. Y para ello, no tenemos más remedio de hacer uso de sus estadísticos descriptivos, medidas de centralización y de dispersión.
Dicho esto, ahora pasamos al concepto de “probabilidad termodinámica” como número de los distintos microestados que corresponden a un macroestado. Así, en el extremo, un cuerpo con todas sus moléculas con la misma velocidad y dirección presenta un macroestado que corresponde a todos los microestados iguales. O una clase cuyos alumnos todos son niños de 12 años.  No hay error en afirmar que la clase la componen alumnos varones de 12 años. Estamos ante un máximo orden interno. La probabilidad termodinámica es mínima, sólo hay un  microestado respecto a todos los posibles. Error cero.
Ahora bien, si un cuerpo tiene todas sus moléculas en movimiento absolutamente anárquico y caótico, su macroestado resulta de una amplísima gama de posibilidades, de microestados. Un ejemplo cercano puede ser una templo en misa de once, donde puede haber desde niños hasta personas muy mayores. No podemos definir la edad de los asistentes como lo hacíamos con la clase del colegio; podremos afirmar con bastante seguridad que la “mayoría” serán señoras mayores de sesenta años, pero eso es sólo una visión subjetiva, acaso reflejada por una media aritmética de entre 55 a 65 años, pero con una gran desviación típica, desde 20 hasta 90 años. Estamos ante un estado de máximo desorden (informativo). La probabilidad termodinámica es máxima, pues hay muchísimos microestados posibles. La media aritmética aporta muy poca información sobre cada elemento.
La entropía se define como el logaritmo de la probabilidad termodinámica, es decir, del número de microestados del sistema. Y esta es un indicador de caos interno.
La entropía sirve para conocer, por una parte la tendencia de los procesos naturales, la flecha del tiempo de Eddintong. Si aumenta la entropía, crece la incertidumbre sobre cómo evolucionará el macroestado. Es decir, entropía es ignorancia. Por eso, a efectos prácticos, la información sobre un sistema es equivalente a conocer un mayor número de microestados, con lo que reducimos proporcionalmente la probabilidad de que algo se nos pase por alto.
Es por ello que cualquier sistema de mando y control precisa el uso de información de entrada, para conocer el objetivo final del sistema (hacia dónde ir), así como la información de retorno de cómo se comporta los elementos bajo control. Si no se conoce una de las dos, o recibimos la información con ruido (entropía), la posibilidad de ejecutar adecuadamente la función de mando y control queda gravemente dañada. Este problema sucede en los seres vivos cuando presentan un comportamiento patológico, en las empresas y organizaciones humanas éste es uno de los problemas fundamentales.

1.7.- Concepto de modelo
    
La Teoría General de Sistemas persigue abstraer de los sistemas reales las reglas que rigen el comportamiento de éstos, independientemente de su naturaleza física, al igual que se extrae un cuerpo geométrico de un elemento material (una esfera de una estrella). Si nosotros estudiamos la Geometría, lo que estudiamos son cuerpos puros, y sus propiedades matemáticas, con independencia del soporte material. Al estudiar la esfera, geométricamente es indiferente que estemos refiriéndonos a una pompa de jabón, un balón de fútbol o una estrella. De la misma forma, el estudio de las propiedades de un sistema general expresado en términos de modelo de ecuaciones, es común a todos los sistemas reales que se adapten a dicho modelo. Todos aquellos sistemas reales que se adapten a él, se denominan isomorfos u homólogos.
La Teoría General de Sistemas define un Modelo como la representación formal de un Sistema. (Bertalanffy 1982-1, Martinez Vicente 1986-3)
Partiendo de la definición más elemental de Sistema como un conjunto de elementos interactuantes, la relación o interacción se puede formalizar, de forma que un sistema "S", con "p" elementos, estén en relaciones "R", de tal forma que el comportamiento de un elemento p(i) en R(i) es diferente que su comportamiento en otra relación R(j). Si el comportamiento en R(j) y R(i) no difieren, no hay interacción, y los elementos se comportan con independencia respecto de R(i) y R(j).
Un modelo formal de sistema está constituido, por regla general, a través de un conjunto de ecuaciones diferenciales. (Bertalanffy 1976-2)
Sea Q(i) alguna magnitud de elementos p(i), desde i=1 hasta n.

     dQ(1)
    ------- = f(1) (Q(1), Q(2), Q(3), ..., Q(n) )
      dt
     dQ(2)
    ------- = f(2) (Q(1), Q(2), Q(3), ..., Q(n) )
      dt
     dQ(3)
    ------- = f(3) (Q(1), Q(2), Q(3), ..., Q(n) )
      dt
     .....     ...  ....  .... ....  ....  ....
     dQ(n)
    ------- = f(n) (Q(1), Q(2), Q(3), ..., Q(n) )
      dt
Pero el desarrollo matemático de estas ecuaciones no se limita a formalizar un modelo real. Muy por el contrario, es sorprende encontrar cómo el desarrollo de estas ecuaciones simulan con extraordinaria precisión el comportamiento del sistema real, de forma que nos revela que debajo de la realidad existe una base lógica que se puede plasmar, además de en un razonamiento abstracto, en un modelo matemático.
    
Respuesta de los elementos formales de un modelo
Así, dependiendo de los coeficientes Q(i) de las series, se puede observar distinta respuesta de las ecuaciones. Si se produce algún cambio de Q(i), se producirán a su vez cambios en el resto de los elementos desde Q(i) hasta Q(n). Por el contrario, el cambio de magnitud de Q(i) depende del cambio de los demás elementos desde Q(i) hasta Q(n). Si los coeficientes de las variables se hacen nulos Q(i)=0, se observa que un cambio en un elemento no perturba a los demás, los demás elementos son independientes.
Un sistema de ecuaciones puede indicar competencia entre partes. En esta línea, Volterra desarrolló ecuaciones para estudiar el comportamiento de especies que compitan por un alimento común, y de especies en las que una se nutre de la otra.
Dependiendo de los coeficientes, un elemento puede mostrar diferentes comportamientos, tanto  si se analiza aislado como si se hace integrado en el sistema.

Segregación
También se puede estudiar matemáticamente el proceso denominado de "segregación", por el cual un estado de totalidad pasa progresivamente a un estado de independencia de los elementos. Esto, en términos matemáticos, significa que los coeficientes de Q(i), a(i,j) no son constantes, sino que disminuyen en el tiempo, hasta llegar a cero. Esta segregación progresiva tiene unas repercusiones muy importantes en muchos campos de la Ciencia. Segregación significa que cada elemento de un sistema se va escindiendo de él, hasta llegar a actuar con independencia. Esto conduce a una "mecanización" progresiva del trabajo, con una pérdida de regulabilidad del sistema.
En Biología, esto tiene una aplicación muy útil para explicar una serie de fenómenos.










F7 Segregación en subsistemas

Cuando un sistema, en el que la modificación de uno de sus coeficientes implica la modificación en mayor o menor grado de todos los demás, indica que se está haciendo tan complejo, que una perturbación de uno de sus elementos obliga a cada uno de los otros a tomar nuevos valores, lo que en términos de totalidad significa grandes incrementos (de trabajo, energía etc.). Esta situación hace que el sistema evolucione hacia la segregación de sus elementos, convirtiéndose el sistema original en un sistema de sistemas. Es decir, el sistema se convierte en otro sistema cuyos elementos constituyentes son a su vez sistemas, parcialmente independientes en su funcionamiento interno, aunque relacionados entre sí. Esta nueva situación permite que la perturbación de un elemento de un subsistema sólo obligue a su subsistema a reestabilizarse, de modo tal, que la repercusión de ese proceso de reestabilización sea un acontecimiento puntual, que apenas se haga perceptible en la totalidad del sistema. Esto favorece grandemente el mantenimiento del estado estable. Sólo una alteración severa o una malfunción del mismo repercutiría significativamente en el sistema total.
En las Organizaciones Humanas este comportamiento es evidente. Una empresa que nace con pocos empleados, apenas si existe una mínima organización, todo lo contrario que esta misma,  años después, en que estará organizada por servicios y departamentos cada vez más especializados. (Un sistema de sistemas).

Centralización
Vinculado al proceso de segregación, está el de centralización, por el que simultáneamente a la disminución de los coeficientes de los Q(i) tienden a cero, hay un Q(j) que gana valor y predominancia respecto a los demás, convirtiéndose en el elemento conductor del sistema, en tanto que es el que más influye, en términos de variación de estado, en el resto del sistema. De esta forma, una perturbación de P(j) provocaría grandes cambios en el resto de las p(i), pero no viceversa, incluso si se sumasen las perturbaciones de estos.










Centralización de sistemas

La aplicación de estos conceptos abstractos a los seres vivos es directa y clara. Los seres vivos evolucionan desde estados primitivos indiferenciados y equipotenciales hasta estados evolucionados, con segregación progresiva y jerarquización de sistemas en torno a sistemas centralizadores. Así vemos que, en realidad, los Sistemas biológicos se comportan como sistemas segregados y jerarquizados, simultáneamente.

Análisis de tendencias
El comportamiento de un sistema tiende hacia un estado futuro, final, sobre la base de la finalidad del mismo. Entiéndase que hablamos de estado final, en tanto el sistema funcione, pues, como ya veremos posteriormente, el final real es el estado de equilibrio originado por la "muerte" del sistema.
La solución de un sistema, o valores de las variables necesarios para alcanzar el Estado Estable, puede ser de tres formas:
           1-Que alcance asintóticamente el Estado Estable.
           2-Que no alcance jamás ese estado (sistema sin solución numérica).
           3-Que sufra oscilaciones periódicas. (varias soluciones).
En general, los sistemas naturales tienden a algún tipo de final de proceso, que en los seres vivos esta parcialmente determinado por la herencia genética, pero que también es función de la evolución de los acontecimientos a lo largo del ciclo de vida del sistema (genotipo versus fenotipo). Esta doble propiedad de predeterminación frente a la variabilidad del ambiente se materializa en la paradoja biológica de la "Equifinalidad", término acuñado por Von Bertalanffy, que significa llegar al mismo estado con independencia del estado inicial u horizonte cero. Así como la "diversidad", por la que partiendo de condiciones idénticas (gemelos univitelinos), se llega a distintos estados adultos. En los sistemas abiertos el estado final es el Estado Estable.
Sólo en los sistemas inteligentes, se da un factor nuevo, la "intencionalidad", donde la meta prefijada dirige la acción presente.
Para el estudio de los sistemas humanos, no basta con la aplicación de estas ecuaciones modélicas, donde un elemento se rige según comportamientos lógicos. En los sistemas humanos se producen diversas peculiaridades.
Considerando el hombre como elemento de un sistema, éste puede "colaborar", o "competir" indistintamente con el resto de los elementos, por lo que en el ámbito social humano, la propiedad de los sistemas de "contribuir a un fin" puede no ser exacta, dado que en ocasiones esa contribución a un fin puede no darse, o producirse de forma anómala. Ese ir en contra o a favor puede depender, en el mejor de los casos, de una conducta coherente con la información que recibe. El caso más simple es un juego a dos.










Bucles de realimentación básicos

Donde A manda información a B, y B elabora una respuesta que dependerá de la información recibida de A.
Pero este "juego" no tiene por qué ser necesariamente así, pudiendo ser la conducta de B incoherente con la información que recibe, debido a la "intencionalidad" que le mueve a B de conseguir un estado final "a su gusto".
Este factor, "a demanda", es un elemento fuertemente perturbador del sistema, si no tiende en el mismo sentido en el que tiende todo el sistema global, ya que va a provocar perturbaciones e incoherencias en el resto de los elementos. Pero depende del peso específico que tenga ese elemento "caprichoso" dentro del sistema. Si su valor es alto, las decisiones intencionales pueden cambiar la dirección de todo el sistema. A menos que su valor sea menor, menor perturbación podrá inducir en el sistema, hasta que al final la tendencia se este sea la de segregar a ese elemento perturbador, obligándole a mantenerse fuera de la organización.

1.8.- Diversas formas de clasificar sistemas
    
Existen diversas clasificaciones de los sistemas. Como siempre, las clasificaciones difieren por el criterio. Las que se exponen a continuación, no son ortodoxamente correcta, pero son las más empleadas. (Bertalanffy 3-1981)

    
Clasificación de Boulding
  Este autor clasifica los sistemas en los siguientes tipos:
     1-De estructuras estáticas (átomos, moléculas)
     2-De relojería (máquinas ordinarias)
     3-Con mecanismos de control (sistemas cibernéticos, servos, homeostasis)
     4-Sistemas abiertos (células, organismos)
     4.1 Organismos inferiores.
     4.2 Animales (hasta el hombre)
     4.3 El hombre (como ser individual)
     4.4 Sistemas sociales (nivel de comunidades o ecológico)
     4.5 Sistemas simbólicos (lenguajes, arte)
Esta clasificación es incorrecta, ya que todos los elementos que se incluyen en el apartado 4 tienen sistemas de control, con lo cual también entrarían en el apartado 3, lo cual no es admisible.
    
Clasificación de Stafford-Beer
    
Este autor clasificó los sistemas por su complejidad.
1- Simples deterministas. (Comportamiento totalmente predecible)
2- Complejos deterministas. (Comportamiento predecible pero con algún margen de error)
3- Simples estocásticos. (Comportamiento con variabilidad estadística)
4- Complejos probabilísticos. (Alta elaboración y comportamiento
difícilmente predecible)
5- Excesivamente complejos y deterministas. (Son teóricos, no suelen
darse en la práctica)
6- Excesivamente complejos y estocásticos. (Todos los seres vivos, en los
diferentes niveles, las economías de los países)
    
Clasificación multinivel
Esta clasificación es la más utilizada en Biología, porque es la que se adapta mejor a ella. Es la utilizada habitualmente en esta Ciencia, y es la que aparece en las obras de Bertalanffy.
    
1-Sistemas atómicos.
2-Sistemas moleculares (asociación de átomos)
3-Sistemas macromoleculares (moléculas orgánicas: principios inmediatos, y virus)
4-Sistemas de orgánulos intracelulares e individuos procariotes.
5-Sistemas celulares e individuos unicelulares.
6-Sistemas histológicos. (tejidos)
7-Sistemas de órganos como asociación de tejidos especializados en una función de primer nivel.
8-Sistemas de aparatos como asociación de órganos especializados en una función de segundo nivel.
9-Individuo pluricelular.
10-Comunidad de especie.
11-Comunidad interespecífica.
12-Ecosistema.

Esta clasificación en "capas de cebolla", no es excluyente, sino que encuadra a un elemento dentro de un nivel, entendiéndose con ello, que está constituido, a su vez, por subsistemas de niveles inferiores, y está integrado dentro de los macro sistemas de niveles superiores al él.
Por encima del ecosistema están otros ecosistemas más generales, la biosfera, el Planeta, el Sistema Solar, y así sucesivamente hasta llegar al Universo como un todo.
    
En las organizaciones humanas, este criterio también es aplicable:
1-Indivíduo.
2-Familia.
3-Empresa.
4-Municipio.
5-Comarca.
6-Provincia.
7-Región.
8-País.
9-Comunidad internacional.
 Estas clasificaciones multinivel han servido para el diseño de diversos modelos de sociedad, economía etc.
Pero de todas las clasificaciones de sistemas, la más elaborada, a criterio del autor es la Clasificación de James Greg Miller, la cual establece los niveles del mundo biológico en siete niveles: (Miller 2-1978)

1-Célula.
2-Organo.
3-Organismo.
4-Grupo.
5-Organización.
6-Sociedad.
7-Sociedad internacional.
Esta clasificación de Miller es la que se desarrolla en el siguiente capítulo dedicado a sistemas biológicos, y sobre la que se basa todo el discurso de este libro..

1.9.- Historia natural de los sistemas
El concepto “sistema” es una noción general que aporta una forma coherente de entender la realidad que acontece a nuestro alrededor. Bertalanffy concibió la Teoría de Sistemas como una teoría de la generalidad. Y nada mejor, para entender esta noción, que repasar brevemente nuestra propia historia como hijos de la Creación.
Sin entrar en demasiadas profundidades sobre la evolución del Universo, y al margen de teoría diversas sobre los orígenes y la evolución de la materia, parece claro que desde el Big Bang hasta la actualidad, transcurridos ya unos quince mil millones de años desde la gran explosión, la evolución del Universo es siempre hacia una progresiva organización de la materia; que de las partículas elementales surgidas en el Big Bang, se ha producido siempre un proceso de combinación de lo simple para surgir elementos más complejos. De los quarks, gluones y demás partículas elementales, pasamos a los núcleos de hidrógeno y helio; de estos, a los átomos tras la captura de los electrones libres; de estos átomos por mor de los procesos de fusión nuclear dentro de las estrellas a átomos cada vez más pesados, que a su vez se combinan en planetésimos para formar moléculas con base de silicio y engendrar planetas.  Y en determinados planetas, donde se dan condiciones adecuadas de temperatura y disponibilidad de agua líquida, surge la vida.
Según la clasificación multinivel, cada uno de los escalones mencionados, núcleos atómicos, átomos, moléculas y células, constituyen un escalón en la evolución de los sistemas. En la evolución de los sistemas físicos, siempre han intervenido dos factores que han impulsado el salto de un escalón al siguiente, la temperatura y las fuerzas físicas (nuclear fuerte, débil, electromagnética y de gravedad).
La temperatura actúa en el sentido de que cuanto más elevada es, mayor desorganización se produce, y al revés, un progresivo enfriamiento, favorece la creación y organización de estructuras. Así, en el Big Bang, con una temperatura cercana a los 100.000 millones de grados Kelvin, nada material podía estar organizado. El progresivo enfriamiento surgido en los tres primeros minutos del Universo, permitió que las fuerzas naturales pudieran actuar. Transcurrido un segundo, pudo comenzar a actuar la fuerza nuclear fuerte, a 10.000 millones de grados, que induce la fusión de los quarks para formar nucleones (protones y neutrinos). Catorce segundos más tarde, la temperatura desciende a 3.000 millones de grados, suficiente como para permitir que la fuerza nuclear fuerte termine su trabajo y logre formar conjuntos de dos protones y dos neutrones (núcleos de helio). Y así tenemos un Universo constituido por un 75% de núcleos de hidrógeno y un 25% de núcleos de  helio, pero aún la temperatura es demasiado caliente para que estos núcleos sean estables. Pasados tres minutos la temperatura ha descendido a 1.000 millones de grados (sólo diez veces más que el núcleo del sol). El Universo es lo bastante frío como para que estos núcleos comiencen ha estabilizarse. Media hora más tarde, la temperatura es ya de tan sólo 300 millones de grados y los procesos nucleares han cesado. Y nada más ocurrirá de interés hasta dentro de unos 700.000 años, momento en que la temperatura habrá caído por debajo de los 3000 ºK, situación en la que ya puede actuar la fuerza electromagnética, para combinar los núcleos de hidrógeno y helio con los electrones libres, y así generar los átomos. Al desaparecer los electrones libres, el Universo se volverá transparente.  Unos cuantos millones de años más, y la materia constituida en átomos distribuidos de forma “casi” homogénea, comienza a acentuar esa heterogeneidad por acción de la cuarta fuerza, la gravedad. Comienzan a formarse grumos, y de esos grupos surgirán las actuales galaxias. En el interior de esas galaxias, la gravedad seguirá ejerciendo su fuerza, acentuando cada vez más la formación de grumos, cada vez más compactos, y por consiguiente más calientes, hasta que en el interior de esos grumos se alcance la temperatura suficiente para que se produzca de nuevo las condiciones que remedan el Big Bang, permitiendo la fusión nuclear, a pertir de unos 10 millones de grados. Y surgen las estrellas. Cien millones de años después del Big Bang, el Universo tiene un aspecto similar al actual.
Del horno nuclear surgen los primeros átomos complejos, el carbono, esencial para la vida, el oxígeno, y con las supernovas, en cuyas explosiones la temperatura puede elevarse hasta tres o cuatro mil millones de grados, surgen los elementos pesados, como el hierro. De las cenizas de las supernovas el Universo se llena en determinadas regiones de gran cantidad de átomos pesados y ligeros. Una sopa de la que pasados unos cuantos millones de años  surgirán por agregación los sistemas planetarios. Todo se produce mediante la agregación y combinación de tres átomos básicamente, el silicio, el oxígeno y el hierro. Surgen así las moléculas formando granos minúsculos de dimensiones inferiores a una micra. De esta forma, entra en escena la química, con la combinación de átomos y la formación de moléculas cada vez más complejas, que formarán los planetas y sobre estos, si las condiciones son propicias, como en la Tierra, puede surgir la vida.
Hasta aquí, hemos visto en este rapidísimo repaso a la evolución del Universo inerte (aún sin vida), cómo la materia siempre ha seguido un mismo camino, el de la complejidad; de elementos o componentes simples, con su combinación, con su inter - relación, han surgido “sistemas” con propiedades emergentes que han podido dar un paso más hacia delante en búsqueda de una mayor eficiencia, de nuevas posibilidades. Lo cierto es que durante los quince mil millones de años de historia del Universo, la actuación de las fuerzas y la temperatura con la materia, han dado lugar a lo que vemos. ¿Ha habido intencionalidad? No, dejando al margen las creencias religiosas. Como diría Herbert Reeves, con sumo cuidado, “si la Naturaleza hubiese pretendido engendrar seres vivos, habría tenido que hacer exactamente lo que ha hecho”. A esta supuesta “intencionalidad”, algunos autores le han dado el nombre de “principio antrópico”. Pero esto entra más en el terreno de la especulación. (Reeves, 1997)
Lo cierto es que en la evolución de la materia, el concepto sistema como conjunto de elementos relacionados entre sí, subyace desde el primer milisegundo. Cada nueva asociación da lugar a elementos con nuevas posibilidades. Cada escalón superado abre un nuevo horizonte hasta llegar en un planeta pequeño, aún caliente, pero con unas condiciones de presión y temperatura necesarias y suficientes para que el agua permanezca líquida, a la aparición de la vida. Siguiente salto espectacular en la evolución de los sistemas, dando paso a los sistemas vivos.

1.10.- Sistemas "vivos"
La Teoría General de Sistemas estudia el comportamiento de los sistemas generales, es decir, sin concreción directa a ningún sistema real. Es el nivel más abstracto de análisis, en el cual se fundamenta todo el aparato matemático y filosófico de la Teoría. De esta forma, a partir de estos cimientos, se puede pasar a los múltiples niveles de aplicación que puede tener la Teoría de Sistemas.
Como hemos visto, el sistema más simple es el formado por dos elementos, A y B, con mutuas interacciones (Ejemplo, el átomo de hidrógeno).
El diseño de un sistema dinámico parte de la observación de un fenómeno concreto. Las posibilidades son infinitas a priori, aunque, si se procede a un estudio profundo comparativo, nada más empezar, se comienzan a vislumbrar numerosos isomorfismos entre sistemas. De tal forma, es posible hacer una clasificación de tipos de sistemas, dentro de cada uno de estos tipos se englobarían sistemas generales con similitudes e isomorfismos manifiestos, aunque en la realidad perteneciesen a dominios alejados unos de otros.
Un tipo muy concreto de sistema general es el sistema vivo.
Un sistema vivo es aquel que se comporta como un ser vivo. Cualquier ser vivo es, lógicamente un sistema vivo.
Cuando se procede al estudio de los seres vivos, las fases por las que atraviesa son, en primer lugar, el estudio de la química general, fundamentalmente los sistemas ácido-base, redox, soluciones electrolíticas y disoluciones, con principal énfasis en los fenómenos de ósmosis, disoluciones coloidales y bioenergética. Estos son los aspectos físico-químicos más interesantes de la fisiología. Posteriormente se pasa al estudio de la bioquímica para concluir con la fisiología celular. La célula es la unidad fundamental de los seres vivos, que posee por sí una estructura y una función tan sumamente compleja que aún distamos mucho de poder comprender perfectamente qué sucede en su interior.
Para el estudio de la célula, se comienza por estudiar sus principios inmediatos, y la estructura celular con todos sus orgánulos y núcleo. Hasta aquí, lo que se denomina estructura de la célula, y a partir de aquí, el metabolismo celular. Para su estudio, Lenhinger divide el metabolismo celular en dos facetas fundamentales, la primera: formación del enlace fosfato (anabolismo), y la segunda, utilización del enlace fosfato (catabolismo). (Lenhinger 1971)
En el estudio del metabolismo está implícita la concepción del organismo como sistema abierto, aunque los libros norteamericanos no suelan hacer mención explícita de ello.
Un organismo se mantiene vivo gracias a que mantiene en funcionamiento permanente todos sus sistemas de producción de energía, que utiliza para llevar a cabo las reacciones anabólicas de síntesis de materiales desechables, calor interno, motilidad muscular, potencial de membrana, producción hormonal, etc. En general, la energía le hace falta para mantener en continuo funcionamiento todos los sistemas que le permiten mantener su organización interna.
Enseguida viene a nuestra mente la noción de balance entre lo que ingresa en nuestro organismo y lo que sale de él en forma de desecho (heces, orina, sudor, perspiratio insensíbile, etc.).
En la célula este balance sería entre las entradas: agua, solutos nutrientes y radiación, y las salidas: agua solutos de desecho y radiación.
Cuando se analizan todos estos procesos, la noción de organismo como sistema abierto que se mantiene en estado estacionario (no de equilibrio), subyace en todo momento.
Sin embargo el estado estacionario no se da en todo momento en el ciclo de vida de un sistema abierto. Siguiendo con la noción de balance, sabemos que los seres vivos, en la fase de crecimiento tienen un balance netamente positivo; en la madurez se mantiene aproximadamente nulo, y en la vejez se vuelve negativo. En períodos de enfermedad el "steady-state" queda perturbado hasta que se consigue la curación.
En los períodos de crecimiento el organismo tiende a perder más y más entropía, o lo que es lo mismo, a ganar organización y perfección en sus sistemas. Tiende al estado uniforme.
Durante la madurez mantiene este estado, siempre con variaciones de escasa significación.
En los períodos de enfermedad, una perturbación externa o interna es capaz de alterar alguno de los elementos del sistema, con lo cual la enfermedad se nos manifiesta como un período en el que el organismo sufre una pérdida parcial del estado estable. La curación viene de la mano de un sobreesfuerzo por volver a compensar las desviaciones de la normalidad para establecer el estado estacionario perdido.
En el envejecimiento, los sistemas orgánicos comienzan a tener un balance negativo; pierden capacidad de mantenerse estabilizados, de mantener el orden y complejidad internos; pierden más energía de la que pueden conseguir, y su capacidad para mantener el estado uniforme es cada vez menor. De esta forma, asistimos paulatinamente a una ganancia progresiva de entropía. Los sistemas pierden poco a poco su organización interna, y pierden fundamentalmente su capacidad de recuperar el estado estable si una perturbación altera en mayor o menor grado sus estructuras, razón por la cual la enfermedad en un anciano es considerablemente más grave que en un joven. Y casi imperceptiblemente se llega al punto en el cual una perturbación, anodina en otros tiempos, resulta ahora insuperable, y produce un trastorno tal, que las exiguas fuerzas del anciano le son imposible de superar, y sobreviene la muerte.
En un sistema abierto, el cambio total de entropía puede describirse según la ecuación de Prigogine:  (Groot 1968)
dS = deS + diS
     deS : cambio de entropía por importación.
     diS : producción de entropía debida a procesos irreversibles del sistema.
     deS puede ser menor, igual o mayor que cero.
     diS puede ser igual o mayor que cero.
Si se da un paso más en el estudio del organismo vivo, y pasamos de la célula al organismo pluricelular, vemos que éste se compone de tejidos especializados y órganos, y éstos en sistemas (digestivo, circulatorio, respiratorio, nervioso, urinario).
Ciertamente, el estudio de la Fisiología humana  conduce a descubrir otro tipo de organización distinta de la celular. La célula es un sistema abierto. El organismo humano es un sistema global, constituido por subsistemas, así mismo compuesto por subsistemas de nivel inferior, según de refirió en la clasificación multinivel de los sistemas biológicos. Es decir, hablamos de un complejo jerárquico centralizado de sistemas con una organización perfectamente estructurada, en el que el funcionamiento de un subsistema depende de la información, materia y energía que recibe de otros subsistemas del organismo. Se establece así, un sistema de regulación organísmica, denominada "homeostasis" sobre la base del binomio estímulo respuesta.
Se puede decir que en el organismo existen dos sistemas de regulación del estado uniforme:
     1-Regulación primaria mediante el metabolismo celular.
     2-Regulación secundaria mediante la homeostasis general.
Las rutas del metabolismo intermediario constituyen sistemas abiertos.
Los sistemas homeostáticos entre órganos forman sistemas de control autorregulables, esto es, sistemas de control por retroalimentación, básicamente cibernéticos. Este es un proceso circular en el cual parte de la salida de información es remitida como información sobre el resultado preliminar de la respuesta a la entrada, haciendo así que el sistema se autorregule, bien sea en el sentido de mantener una determinada variable (v.gr.: regulación de la glucemia) o de dirigirse hacia una meta deseada (v.gr.: dirigir la mano a un objeto).
Podemos concluir ahora que el organismo vivo es un orden jerárquico de sistemas abiertos en el que la estructura y función en un determinado nivel está sustentado por continuos intercambios de componentes en el nivel inmediatamente inferior. Efectivamente, la célula vive y conserva su estructura gracias a que mantiene todos sus sistemas metabólicos en estado uniforme. Los tejidos conservan su vitalidad, función y estructura gracias a que las células mantienen su estado uniforme. Los órganos funcionan porque los tejidos funcionan perfectamente, y por último el organismo se mantiene vivo gracias a un perfecto funcionamiento de todos sus componentes, tanto por separado, como integrados.
Si en un sistema deja de funcionar por accidente o fracaso agudo un subsistema, los sistemas homeostáticos dependientes de él cesan, lo cual altera el funcionamiento de otros subsistemas. Dentro de cada órgano afectado, los tejidos comenzarán a sentir el déficit de aporte de nutrientes, éstos como tal, comenzarán a desestabilizarse, hasta que sean ya las células las que, no pudiendo mantener su estabilidad, es decir, su régimen metabólico normal, terminarán muriendo.
Luego si los niveles superiores dependen del perfecto funcionamiento de los niveles inferiores, también estos dependen para su perfecto funcionamiento de las estructuras de más alto nivel.
Ahora se puede comprender mucho mejor los procesos de crecimiento, madurez y envejecimiento.
La organización de los seres vivos, en la que se da un estado de máxima improbabilidad, se obtiene gracias a que hay un constante mantenimiento de la entropía a niveles mínimos. Esto se produce gracias a procesos catabólicos que proporcionan energía, en cantidad suficiente para mantener el estado estacionario o uniforme. El fenómeno de envejecimiento y enfermedad provoca una perturbación, progresiva o súbita de ese estado uniforme, de modo que el organismo pasa a un estado de mayor desorganización, ha ganado entropía. Cuando sobreviene la muerte, las leyes físicas terminan por doblegar al organismo, cesan los mecanismos de mantenimiento del "steady-state", y ahora todas las reacciones físicas y químicas que se producen en el organismo tienden a alcanzar el estado de equilibrio con el entorno, estado que implica una ganancia progresiva de entropía, es decir, de desorganización.
Pero el triunfo de los seres vivos radica en que antes de doblegarse ante las leyes físicas, son capaces de burlarse de ella generando copias de sí mismos, y transmitir en forma de código toda la información necesaria para que el nuevo ser que ha engendrado sea capaz de perpetuar en él, el milagro de la vida. Y así, generación tras generación. Es decir, el triunfo de la vida radica en su autoperpetuación gracias a un código, hasta ahora universal, el código genético.
La vida fue realmente posible cuando los seres vivos más primitivos fueron capaces de autoperpetuarse.
Este es en resumen la respuesta que la Teoría de los Sistemas da a la pregunta sobre qué es la vida. No inventa nada, simplemente ofrece una interpretación de los fenómenos vitales en términos que hacen posible una "formalización del Conocimiento" en modelos objetivos basados en la representación formal de los sistemas vivos.
Pero los sistemas vivos no terminan en el organismo individual. Hay algo más allá, las organizaciones de seres vivos.    
Los seres vivos individuales están íntimamente relacionados con el entorno, como sistemas abiertos que son. De él deben obtener la materia energía e información suficiente para subsistir.
Pero los individuos, tienden en todas las especies animales a disponerse en un cierto tipo de asociación o de organización, en grupos o en comunidades, con el fin de lograr una mayor protección y más facilidad para obtener alimentos y recursos a través de la especialización de los individuos. Hay pocas especies animales en las que sus individuos no constituyan en algún momento de la vida una mínima estructura de grupo o de organización. Ejemplo típico de comunidad altamente organizada son las formadas por las abejas, hormigas, termitas, etc. Los mamíferos y todos los animales de sangre caliente constituyen cómo mínimo un grupo básico que es la familia, padre, madre e hijos.
En la especie humana esta asociación es la base del ser humano como tal. El ser humano tiende a asociarse con los de su especie en dos niveles básicos: grupos y  organizaciones, que están compuestas a su vez por un conjunto de grupos.
Las diferentes organizaciones, a su vez, tienden a formar un ente superior, más impersonal, pero no por ello menos real o tangible, que es la sociedad.
El comportamiento del grupo es un terreno muy propicio para la psicología. El comportamiento de las organizaciones es terreno casi exclusivo de las ciencias empresariales. Una organización es una empresa humana con un fin muy concreto, casi siempre económico en su objetivo final, o bien con finalidad social, de servicio, sin animo de lucro, pero en cualquier caso, las finanzas son el elemento básico de soporte.
La sociedad tiene para ella una ciencia, la sociología, que estudia su comportamiento, tipos, estructuras etc.
Hasta aquí, se puede concluir que, los seres vivos son en sí mismos sistemas vivos, pero su asociación en grupos y comunidades, también se pueden considerar sistemas vivos.
Los diferentes tipos de asociaciones de seres vivos se consideran sistemas vivos por una razón básica; para subsistir como asociación, sus diferentes componentes han de cumplir un conjunto de funciones que, analizadas en detalle son todas aquellas que logran mantener la cohesión interna, el estado estable de todo sistema abierto, su crecimiento, y si procede, su multiplicación, originando nuevas asociaciones con caracterís­ticas virtualmente iguales a la original, aunque luego evolucione por diferente camino.
Si nos damos cuenta, en toda asociación se cumplen las diferentes funciones que en el ser vivo individual, o sus niveles inferiores de órgano o célula, le permiten mantenerse vivo.
James Greg Miller ha propuesto una Teoría de los Sistemas Vivos, "Living System Teory" por la cual, dar coherencia formal a todo lo expuesto que, visto así, parece tener sentido; faltando solamente darle una estructura de discurso racional.

1.11.- Orden, caos y complejidad
Cuando se aborda el estudio de la realidad que nos rodea, sobre todo, cuando nos enfocamos en el estudio de los seres vivos y/o de las organizaciones humanas, una de las primeras ideas que aparecen en nuestra mente es la noción de “complejidad”.
Orden, caos y complejidad son tres conceptos muy utilizados que surgen inmediatamente después de iniciar un análisis de sistemas, y sobre los que existe una nada despreciable nebulosa de confusión. Conviene pues, dejar claro estos conceptos, porque al igual que otros muchos, constituyen los términos de referencia del pensamiento sistémico.
Orden, como primera acepción del diccionario de la Real Academia (de las más de veinte que tiene), significa la colocación de las cosas en el lugar que le corresponden.
En esta acepción, la idea de orden es sinónima de armonía, organización, correcto funcionamiento, correcta disposición de las cosas. Intuitivamente la idea de orden emerge como algo deseable para que todo “salga bien”, según lo previsto, sin sorpresas, sin errores. El concepto “orden” provoca sentimientos de tranquilidad, sosiego, etc.
Evolución del concepto de orden de la Naturaleza.
Esta idea del “orden de las cosas” es antiquísima. Y además invoca otra idea que es la “inmutabilidad”, la permanencia. Parménides y Heráclito suscitaron este dilema, esta antinomia en la Grecia presocrática. Parménides, para muchos fundador efectivo de la Filosofía y de la Metafísica, concibió la esencia del “ser”, como ente inmóvil, siendo para él el movimiento un atributo de un ser inmutable en sí mismo. Heráclito afirmó el concepto del “devenir”, concibiendo la realidad como algo cambiante en sí mismo. “Nadie se baña dos veces en la misma agua de un río”. “Todo fluye, nada permanece”.
Demócrito, en 430 A.C. concibió la idea del átomo, algo extremadamente pequeño inmutable, que permanece. Pero al estar los seres compuestos de muchísimos átomos, resulta que es esa recombinación de los átomos la que provoca la dinámica de las cosas.
Esta idea pareció resolver el dilema inmutabilidad versus devenir. Y contribuyó a crear una conciencia de “orden” en las cosas, aún dentro de la diversidad y de la mutabilidad de los seres.
El siglo XVI consolida la concepción mecanicista de la naturaleza, con esa visión cartesiana, que entiende que el todo es la suma de las partes, y que el funcionamiento del todo se explica a través del funcionamiento y esencia de los componentes, como el mecanismo de un reloj, artificio que se hizo popular en ese siglo en Europa.
Esta concepción del mundo tuvo su apoteosis con Newton, que tras su gran éxito con la primera gran Ley universal, la de la gravitación, afirma que todas las cosas, desde las más diminutas hasta las más grandes, se han de regir por las mismas grandes y universales leyes de la Naturaleza. Euler en el Siglo XVIII desarrolló la dinámica como disciplina física encuadrándola dentro del dominio matemático de las ecuaciones diferenciales (Fernández Rañada 1994). Estas herramientas resultaron ser fantásticas, por cuanto conociendo las diferentes variables independientes y coeficientes en un momento dado, se podía conocer el comportamiento de la o las variables dependientes tanto en cualquier momento del pasado como del futuro. El principio de causalidad (mismas causas => mismos efectos) triunfaba clamorosamente. El espaldarazo lo dio Simon de Laplace con su “Mecánica celeste” y la posibilidad de predecir la posición de los astros en cualquier momento del tiempo pasado y futuro, con asombrosa exactitud. Las Matemáticas demostraban el perfecto “orden” de la Naturaleza. Parménides había triunfado absolutamente. Por otra parte, Laplace, en un arrebato de apoteosis determinista afirmó que “una inteligencia que conociera todas las fuerzas que animan la naturaleza, así como la situación respectiva de los seres que la componen... podría abarcar en una sola fórmula matemática los movimientos de los cuerpos más grandes del Universo y de los átomos más ligeros. Nada le resultaría incierto, y tanto el pasado como el futuro estaría presente ante sus ojos.”
Hasta aquí todo bien, salvo por un pequeño problema. Cuando la mecánica de Newton se sacó del contexto en la que fue concebida y desarrollada y se trató de extrapolar a otros dominios del conocimiento aplicándose a los resbaladizos campos de la biología, la psicología y la sociología, la cuestión se complicó. Se trató de aplicar el determinismo puro y duro a los fenómenos vitales y al comportamiento del ser humano como persona y como grupo. Se negó de alguna forma la libertad humana, llegándose al absurdo de que todos nosotros estábamos predestinados en función de un divino y descomunal sistema de ecuaciones diferenciales que sólo Dios (de momento) conocía... ¿Predestinación? Que el hombre llegara a desvelar las jamás imaginadas ecuaciones diferenciales que dominan la existencia era sólo cuestión de tiempo.
Ya a finales del siglo XIX, Poincaré estudiando el movimiento de los planetas en un entorno complejo, donde Newton triunfó sin discusión, concluyó que "puede ocurrir que pequeñas diferencias en las condiciones iniciales produzcan otras muy grandes en el fenómeno final; un pequeño error al comienzo produce un error enorme al final; la predicción es imposible". Sin embargo, cuando el escenario está formado por múltiples cuerpos que interaccionan entre sí, el comportamiento es fuertemente no lineal y, por tanto, imprevisible.
Con este aura de sospecha,  el advenimiento del siglo XX marcó el fin de este reinado absoluto del determinismo científico. El concepto sistémico surgió de la mano de otro concepto, digamos que intuitivo y no concreto, el de “complejidad”. Bajo la visión sistémica de las cosas, a poco que los elementos de un sistema y sus interrelaciones se multipliquen, nuestra capacidad de comprensión disminuye, y en nosotros surge la noción de estar ante algo “complejo”, que en primera aproximación es sinónimo de “complicado”, de difícil comprensión. La noción de complejidad desde el punto de vista físico se capta al tratar de analizar el comportamiento de los gases. Estos, compuestos de moléculas, se sabe que sus tres propiedades, volumen, presión y temperatura, depende de la cinética de dichas moléculas y la velocidad de choque contra las paredes del recipiente que lo contiene. La física sabe que el comportamiento de una molécula es teóricamente previsible, teniendo en cuenta el movimiento browniano de carácter errático. Cuando un físico determina la presión de un gas en un recipiente, en realidad está  dando una cifra que equivale a la media aritmética de las presiones de cada elemento constitutivo que este gas está  ejerciendo sobre las paredes del recipiente. En un instante dado, una molécula choca  con mayor energía cinética contra la pared del recipiente que sus vecinas, y en el instante siguiente, a lo mejor sucede lo contrario. Conclusión, microscópicamente la presión del gas no es taxativamente uniforme como en un principio se creía, sino que tiene mínimas variaciones, pero variaciones a fin de cuentas. Al final, a lo máximo que el físico puede llegar es a decir que por centímetro cuadrado la presión media del gas es de "tantos kilos, ajustando decimales".
De esta noción surgió la Mecánica estadística de Maxwell, Boltzman y Gibbs en los albores del siglo pasado. Si bien esta noción introducía la cuestión de la probabilidad, y con ello del error, en el fondo, incluso para los creadores de la idea, esta era una concesión “muy a su pesar” a la ignorancia, que no había duda de que con el tiempo se superaría. Entre paréntesis, no deja de ser paradójico que la noción de probabilidad fuese desarrollada por el propio Laplace para comprender los juegos de azar.
Pero lejos de ser una idea pasajera, la noción de probabilidad fue ganando interés. A medida que la física profundizaba en el estudio de los sistemas, se comprendía cada vez más que no resultaba coste-efectivo abordar de modo determinista el estudio de los sistemas complejos, con muchos grados de libertad. Maxwell, padre del electromagnetismo y  creador de los demonios de la Segunda ley,  llegó a afirmar que “la verdadera lógica del mundo está en el cálculo de probabilidades”.
Una segunda fisura en el determinismo se produjo con el desarrollo de la mecánica cuántica de Max Plank, también en 1900. El intercambio de energía entre materia y radiación de frecuencia se hace por múltiplos enteros de hn. Las consecuencias de esta idea eran extrañas, y hasta el propio Plank las tomaba sólo como hipótesis. Einstein, que también contribuyó al desarrollo de la teoría, siempre la tomó como algo poco lógico, “tanto más tonta cuanto más la conocía” y aceptaba el uso de las probabilidades como metodología sólo por ignorancia. La reformulación de la teoría en 1927 consagró (a pesar de sus autores Plank, Einstein, De Broglie y Schrödinger) la mecánica estadística. Ellos mismos lanzaron la idea de las “variables ocultas” como magnitudes hipotéticas que explican la variabilidad y la indeterminación, siendo la mecánica cuántica y probabilistica una metodología útil hasta tanto no se descubrieran estas variables, momento en el cual Newton volvería a lucir con todo su esplendor.
Una tercera fisura y golpe definitivo al determinismo ha sido el advenimiento del concepto de “sistemas de comportamiento caótico”. Sistemas de comportamiento impredecible, a pesar de ser en apariencia simples o con pocos grados de libertad. Si bien a escala microscópica la Física cedía terreno a la estadística, a nivel macro, todavía el reinado de Newton parecía indiscutible. Pero en la medida que se trataba de aplicar el análisis de sistemas, las ecuaciones no acertaban a predecir exactamente el comportamiento. Había margen de error. En general, los sistemas caóticos son aquellos que en un momento de su trayectoria temporal comienzan a producirse bifurcaciones una tras otra hasta constituirse el futuro en una explosión de probabilidades de estados de forma incontrolada. Así, la incapacidad de poder predecir el comportamiento de un sistema con un margen de error útil, es lo que lo califica como “caótico”.
Esta descripción histórica de cómo la Ciencia se ha bajado del pedestal de la certeza matemática del determinismo al borroso terreno de la probabilidad nos introduce en el auténtico escenario de la Teoría de los sistemas.
Que el determinismo haya perdido el primer puesto en el ranking de la Ciencia, no significa que la noción de orden se haya desvanecido. Caótico no es sinónimo de desorden. Orden y caos no son términos antónimos. Son términos que caminan juntos, como caminan juntos el azar y la necesidad.
Simplemente tenemos que conocer cuáles son las reglas del juego de la Realidad que tenemos ahí fuera, fuera de nuestro cerebro, de nuestra mente.
Las reglas del juego.
Estas reglas son pocas, pero han de tenerse siempre presente (Wagensberg 1986).
La primera regla es que la Realidad es tal cual, y el observador no ha de hacer nada para alterarla durante el proceso de observación.
La segunda regla es la denominada hipótesis determinística; esto es, se asume que los sucesos del mundo no son independientes entre sí, sino que exhiben cierta regularidad, con lo cual, a causas parecidas, efectos similares. Esto hace que el mundo sea Inteligible. Con ello adquiere sentido el concepto de Ley de la Naturaleza, como conjunto de limitaciones que restringen el caos; esto es, que de todos los sucesos imaginables, no todos son posibles.
La tercera regla es la dialéctica entre el enunciado y la experiencia, esto es, el sometimiento de la hipótesis a un método de contraste que sea capaz de validarla o rechazarla.
Si no se cumple estrictamente estos tres principios, la Ciencia se convierte en ideología. Y toda ideología tiene una carga mayor o menor de subjetividad, o interpretación personal del observador, lo cual le aleja irremisiblemente de la realidad. Pero a veces, las dificultades en el cumplimiento de las tres reglas nos obliga a quedarnos a medio camino. En Biología y en las ciencias sociales, este inconveniente se presenta en demasiadas ocasiones y en un alto grado, ocasionado por la variabilidad que observamos en los fenómenos biológicos, y no digamos en el comportamiento de las organizaciones humanas.
Si se respeta la segunda regla, hipótesis determinística, entonces considerar un fenómeno como aleatorio supone una concesión a nuestra ignorancia, como tantas veces repetía Einstein, o visto desde otro enfoque, la noción de probabilidad es un artilugio para acotar el error que induce el manejo de los fenómenos vistos por nosotros como aleatorios. Vemos que la noción de aleatoriedad está  presente en todas las ciencias incluso en la Física. De siempre ha existido la creencia de que las ciencias físicas son casi tan exactas como las matemáticas, y que las ciencias biológicas son extremadamente variables. Este aserto es cierto, pero con una serie de puntualizaciones.
En primer lugar, si tal afirmación fuese totalmente cierta, la razón que obliga al biólogo, o al sociólogo, a utilizar la Estadística es obvia; y es la clásica justificación que habitualmente se da en todos los libros de Bioestadística: el obligado estudio de una población a partir de una muestra obliga a someternos al rigor científico de las técnicas estadísticas para que nuestras afirmaciones tengan cierta validez respecto a la población de origen.
Con ser esta, una motivación suficientemente válida para el uso de la Estadística en las ciencias biológicas y sociales, vamos a bajar a analizar una serie de razones aún más profundas que dejan fuera de toda duda la utilidad de esta disciplina matemática.
La Física se la ha tomado de siempre como el paradigma de lo exacto, lo determinista, lo que está  fuera de todo error. Ello provoca una sana envidia en los biólogos, los cuales trabajan con una clase de materia que tiene un comportamiento extremadamente variable. Sin embargo, nada más lejos de considerar la Física como exacta. Los fenómenos físicos también son estadísticos, como hemos podido ver. (Op. Cit. Schrodinger 1944).
Sin embargo, la Física juega con dos grandes ventajas, la Ley de los grandes números, y la uniformidad de los sistemas. La precisión de la Física y de la Química se basa en la descomunal cantidad de elementos que intervienen en los fenómenos. A efectos prácticos, los elementos constitutivos de los sistemas físicos son las partículas subatómicas, los átomos y las moléculas. En cualquier caso hablamos de miles de millones de elementos como poco. Por otra parte, los sistemas físicos se fundamentan en materia inerte con una organización bastante simple: gases, líquidos, sólidos, que como mucho alcanzan la complejidad de los cristales. Ambos factores unidos le permiten al físico trabajar con la cómoda tranquilidad de la exactitud casi absoluta, que viene determinada por la regla de la raíz de n (Ön).
El grado de inexactitud de cualquier ley física es inversamente proporcional a la raíz cuadrada del número de elementos que intervienen en el fenómeno.
Como ejemplo sencillo, si en el gas anteriormente citado, en el recipiente existiesen sólo 100 moléculas, 1/Ön da la cifra de 0.1, esto es, un 10% de error en la medición. Si trabajásemos con un millón de moléculas, el error sería de 0.01 (0.1%). Si en el recipiente hubiera cien millones de moléculas, cifra casi ridícula, el error sería de 0.00001 (0.0001%). Siendo el número normal de moléculas en un recipiente del tamaño de un vaso alrededor de 10^20, con razón el físico puede permitirse el lujo de presumir de exactitud en sus afirmaciones.
Se puede resumir, pues, diciendo que en Física, la regularidad es siempre promediada y macroscópica. Al descender a niveles microscópicos siempre se encuentra desorden e irregularidad, lo cual obliga al tratamiento estadístico de dichos fenómenos.
La Biología, en concreto, se enfrenta a un problema diametralmente opuesto, y más difícil. Por una parte la materia viva está  altamente organizada. Aunque en el hombre haya 60 billones de células, todos sabemos que cada una cumple una misión, y que como mucho podemos referirnos a los tejidos como estructuras relativamente uniformes. Por otra parte, dentro de cada célula, la composición no es homogénea, sino que tanto los orgánulos como las rutas metabólicas demuestran una complejidad asombrosa. Y en el interior del núcleo, una sola molécula, el gen, determina sucesos de trascendental importancia para la vida, la síntesis de proteínas estructurales y funcionales.
Así pues, aunque los seres vivos estén constituidos por una cantidad extremadamente elevada de elementos,  átomos, moléculas o células, la ley de los grandes números no nos sirve de nada, cuando la perturbación de una sola molécula como es la mutación de un gen, puede ocasionar patologías de todos conocidas. Sucede en Biología lo contrario que en Física; microscópicamente, o mejor, molecularmente, la pasmosa organización bioquímica de los seres vivos hace que los fenómenos estén totalmente determinados. No son aleatorios.
Lo que sucede a medida que vamos subiendo en la organización de los seres vivos, desde el nivel bioquímico al celular, orgánico etc, es que las relaciones e interacciones entre componentes crecen de forma explosiva, de modo tal que cuando observamos un fenómeno biológico, en su comportamiento influyen un número extremadamente elevado de elementos, tanto internos como externos, de modo tal que difícilmente se puede expresar el comportamiento de una variable dependiente en función de ni siquiera un número reducido de variables independientes. Siempre existe un temblor en los resultados, una desviación respecto al valor medio, un componente denominado "aleatorio", pero que en realidad es debido a no haber tenido en cuenta todos y cada uno de los componentes que en realidad intervienen en el fenómeno.
Es la compleja organización de los sistemas vivientes lo que les caracteriza como seres vivos, y lo que plantea los problemas al biólogo, la variabilidad.
Si para el análisis de los fenómenos biológicos, el biólogo dispusiera de un millón de elementos, las afirmaciones estadísticas, basándonos en la regla de la raíz de n,  tendrían un error de 0.001 (0.1%), lo cual, constituiría el mayor de los éxitos; sin embargo, para el físico este resultado sería extremadamente inexacto, máxime si se pretende elevar los resultados a la categoría de Ley de la Naturaleza.
Primer problema; es muy difícil para la Biología ensayar un experimento en un millón de elementos, lo cual obliga a extraer muestras representativas de ese millón, que se considera como población inaccesible. Con este condicionante, no sólo se aleja definitivamente la posibilidad de reducir nuestro error a un 0.1%, sino que nos enfrentamos ante el problema de inferir de unas muestras de dimensiones pequeñas, para el físico ridículas, las características de una población también pequeña. Al final, consideramos un éxito sin precedentes inferir nuestros resultados de la muestra analizada con un error 0.01 (1%)  sobre la población de origen. Y esto si la muestra ha sido representativa y en número suficiente, etc, etc.
Segundo problema; las poblaciones a las que se hace referencia en estadística biológica, no son universales, sino locales. Se estudian muestras de poblaciones circunscritas a una ciudad, una región, o como mucho a un país. La variabilidad de una ciudad a otra no permite hacer grandes generalizaciones, mientras que un  átomo de hidrógeno es igual en España que en Estados Unidos o en la estrella más recóndita de una galaxia del Grupo Local.
El caso de las ciencias sociales (en la que podemos incluir el estudio de las organizaciones humanas) es distinto. La Sociología también acude a las técnicas estadísticas para efectuar sus estudios cuantitativos. No puede ser de otra forma. En Sociología coinciden la variabilidad biológica con la variabilidad de las leyes que rigen el comportamiento social.
El proceso científico parte de axiomas y de hipótesis que, cuando se confirman, adquieren la categoría de "leyes", las cuales se sistematizan en teorías. Pues bien, en las Ciencias Naturales esto es así; se trabaja, aunque las dificultades sean grandes, con leyes no históricas en el sentido que no están condicionadas al momento histórico en el que se aplican. (Pulido 1-1993)
No sucede así con la Sociología. Toda la dinámica sociológica y económica está sujeta al momento histórico en que se aplique. Y no siempre una sociedad se comporta según cabría esperar de un sistema general. Existe el "conflicto", como elemento distorsionador permanente.
La Sociología, como ciencia que aborda fenómenos que van más allá de lo comprensible aplicando el método científico puro, se ha ido organizando en escuelas. Así, la escuelas organicista en Sociología han defendido el concepto de Sociedad como un todo armonioso (Castillo 1968). La Escuela Funcionalista da prioridad en la vida social al orden, preocupándole  el modo en que las diferentes instituciones de la sociedad se coordinan e integran con el fin de preservar la unidad de la sociedad. En la escuela funcionalista se aplica mejor que en ninguna otra escuela el concepto de Sociedad como "Sistema". Pero los funcionalistas desconocen el problema del "conflicto social", y lo interpretan como algo anormal, patológico. (Dahrendorf 1963). Merton acepta el conflicto como una propiedad estructural de la sociedad en sí. Y Coser  incluso manifesta que el conflicto puede tener aspectos positivos.
Este panorama de la Sociología demuestra que los modelos matemáticos que puedan aplicarse a ésta, están pisando un terreno tremendamente resbaladizo, donde las leyes no son tales sino que más bien son tendencias según escuelas y donde no siempre, el comportamiento organísmico y sistémico “parece” cumplirse.
Complejidad
Podemos hacernos ahora una idea más o menos vaga de lo que es complejidad. El asunto no es fácil. Tras la revolución científica que provocaron las teorías que desbancaron de su trono al determinismo, los científicos han buscado comprender el mundo de lo complejo, atrapar los conceptos, siempre con el apoyo de las matemáticas.
Conceptualmente, complejo es un sistema en cuyo comportamiento temporal se producen bifurcaciones, de modo que la posibilidad de predecir en el futuro su comportamiento es inútil.










        Visto con este prisma, la complejidad está no en el sistema, sino en el observador, y la incapacidad de comprender el comportamiento del sistema de modo tal que sea capaz de predecir su estado en el futuro. (Margaleff 1984) En otras palabras, la clasificación de simple o complejo es subjetiva y la frontera se encuentra entre lo que sabemos resolver y lo que no sabemos resolver.
La complejidad de un sistema y del proceso que ejecuta está afectada por múltiples variables no controladas (ruido) que produce lo que Margaleff denomina “lo barroco de la naturaleza”.
En lenguaje matemático, la teoría de la complejidad se basa en el hecho de que los procesos causales no lineales producen un comportamiento no determinista. Esto comenzó a evidenciarlo Edward Lorenz sobre predicción del clima a largo plazo. Definió un sistema de ecuaciones diferenciales ordinarias no lineales que son una simplificación de las ecuaciones en derivadas parciales de la convección de fluidos. El resultado de la resolución de estas ecuaciones mostraba un movimiento muy complejo de las partículas del fluido y una extraordinaria sensibilidad de las predicciones a las condiciones iniciales, a medida que aumentaba el periodo de predicción. Lo definió como el efecto mariposa. Una mariposa volando en un extremo del Planeta modifica, a largo plazo, el pronóstico del tiempo atmosférico (no del clima) en el otro extremo. (Gell-Mann 1998)
Por esto la teoría de la complejidad se asocia vulgarmente al efecto mariposa. Se conoce también a la teoría de la complejidad como teoría del caos, debido a que el análisis de los comportamientos no deterministas nos inspira una situación de caos.
Sin embargo, se suele definir caos como desorden. Y aquí está el gran error. La imposibilidad de predecir un sistema caótico no implica desorden y anarquía. Todo lo contrario. Existen leyes de ordenación que hacen que el comportamiento sea complejo.
En general, un sistema se reconoce tanto más complejo cuanto mayor es el número de componentes y por consiguiente, mayor es el número de interacciones entre dichos elementos. Esto hace que el sistema como tal tenga propiedades emergentes que no corresponden a las propiedades de sus elementos, entre ellas la propia complejidad como atributo del sistema.
A medida que un sistema crece en complejidad, crece en su impredectibilidad.
En los sistemas artificiales, diseñados por el hombre se produce como atributo de complejidad lo que se denomina “deseconomías de escala”, como propiedad emergente de un sistema que crece en complejidad. La deseconomía de escala es una situación en la que aumenta el coste unitario de un producto al aumentar la capacidad de producción y la estructura productiva.
Un ejemplo de sistema complejo es el de las redes telefónicas. A medida que crece el servicio, crece el número de componentes, de conmutadores, dentro de la configuración clásica de red de cruce. En crecimiento de número de posibles llamadas genera un crecimiento al cuadrado de interruptores. Esto es deseconomía de escala. (Pippenger 1978) Una posibilidad de evitar este crecimiento indiscriminado de componentes es descomponer el crecimiento de la red en subredes más sencillas conectadas entre sí. Con ello el número de interruptores crece mucho más lentamente. Sin embargo, Shannon demuestra que a pesar de todo, el crecimiento en complejidad siempre concluye en el fenómeno de la deseconomía de escala. Evitar este efecto perverso sólo puede lograrse bien exigiendo menos prestaciones.  En el caso de las redes telefónicas, una posibilidad es aceptar redes de bloqueo raro. Los interruptores evitan el bloqueo. Evitar el 100% de bloqueos puede llegar a generar unos costes impresionantes frente a la probabilidad de que se produzca un bloqueo total, que parece ser es bastante infrecuente. En otras palabras, el diseño de sistemas complejos artificiales debe moverse entre las prestaciones, la probabilidad de fallo y el coste. Este es el enfoque estadístico.









Ley de rendimientos decrecientes.

Estamos ante la ley de rendimientos decrecientes, en tanto que a partir de un punto, para alcanzar cantidades adicionales iguales de un bien, se deben utilizar cantidades crecientes de factores de producción, y  con ello el coste. Llega un momento en el que tanto si hablamos de rendimiento o de seguridad, o incluso de calidad, los costes marginales se hacen virtualmente ilimitados.
¿Estamos con todo esto ante sistemas complejos, ante sistemas caóticos?
¿Complejidad es igual a caos?
Como hemos dicho anteriormente “caos” hace referencia a un conjunto de fenómenos de comportamiento impredecible. A partir de aquí, la teoría de la complejidad se hace en sí mismo compleja, en tanto que los grandes pensadores no se ponen de acuerdo.
Un ejemplo claro fue el simposio que se celebró en 1994 un simposio sobre los límites del conocimiento científico en el Instituto de Santa Fe, Nuevo México, donde se reunieron los grandes sabios de la cuestión a ver si llegaban a puntos de encuentro en tan “compleja” materia. Hay que decir que Santa Fe es uno de los centros más prestigiosos del mundo en relación con “Vida artificial”. (Horgan 1995)
Para empezar, se han registrado más de treinta definiciones de complejidad. Empero, en prácticamente todas se introducen los términos “entropía”, “aleatoriedad” e “información”. Esto indica que en general se acepta que complejidad es un concepto básicamente subjetivo, más por limitación de la comprehensión del observador, que un atributo del sistema.
Otra cuestión que se puso de manifiesto es que el término complejidad y caos “vende”, tiene su morbo dentro del gran público, amén de que los medios de comunicación funcionan como amplificadores de ese morbo.
También se está básicamente de acuerdo de que la forma de abordar el estudio de la complejidad es mediante el uso de las técnicas de simulación. Los simuladores, como veremos en posteriores capítulos, se basan en un silogismo sencillo:
1.- Un conjunto de reglas sencillas de bifurcación del tipo “si.. entonces” implantadas en el código de programas de ordenador, generan configuraciones que pueden llegar a ser extremadamente complicadas. 2.- El mundo presenta configuraciones extremadamente complicadas. 3.- Ergo los fenómenos reales, en apariencia complicados, se basan en un conjunto de reglas sencillas. El problema es extraer dichas reglas sencillas con ayuda del ordenador.
En esto tampoco están de acuerdo todos los científicos. Naomi Oreskes invalidó en Santa Fe el silogismo afirmando que es imposible validar o verificar los modelos numéricos en los sistemas naturales.
Defensores de la vida artificial (simulada por ordenador) han llegado a simular los fenómenos que supuestamente dieron lugar a la vida, y afirman que cuando un sistema de sustancias químicas alcanzan cierto grado de complejidad e interrelación el sistema experimenta una transición impresionante, un cambio de fase, las moléculas comienzan a recombinarse espontáneamente creando moléculas de creciente complejidad, fenómeno que han denominado “autocatálisis”. Stuart Kauffman, padre de la vida artificial propone con todo ello que las organizaciones de genes no evolucionan al azar, sino que convergen hacia un número relativamente pequeño de configuraciones, que denominan “atractores anticaóticos”. Este sería el surgimiento de una fuerza natural que actuó en el sentido contrario de la segunda ley. Según esto, el origen de  la vida no fue una casualidad, sino algo inevitable en las condiciones de la Tierra primigenia.
Tras estas y otras muchas opiniones encontradas, lo que quedó claro en este simposio fue que no existe a día de hoy una teoría unificada de la complejidad; que la simulación es una buena herramienta para comprender (o al menos tratar de comprender) la compleja realidad que nos rodea, y sobre todo que debemos ser humildes y reconocer el carácter probabilistico de esta misma realidad.
En nuestras afirmaciones, las funciones de distribución estadística tipo normal, binomial, de Poisson, etc. nos acompañarán durante muchos años. Siempre nos quedarán colas desconocidas, aunque sean con probabilidades menores al 1%.
La última aseveración respecto de esta maraña de ideas que aún la Ciencia no ha logrado aclarar, es que dentro de los fenómenos caóticos, entendiendo caótico como impredecible, subyace un recóndito orden, que los modelos de simulación han logrado representar gráficamente mediante los denominados atractores caóticos que ofrecen imágenes de increíble y extraña belleza, que se denominan “fractales”.

Conclusión
En conclusión, este extenso repaso a las bases de la Teoría de los sistemas y disciplinas próximas a ésta, ha pretendido sentar los conceptos fundamentales que a lo largo de todo el libro utilizaremos una y otra vez, amén de nuevos conceptos que introduciremos en los siguientes capítulos.