SciELO - Scientific Electronic Library Online

 
vol.1 issue1SISTEMA INFORMÁTICO DE ANÁLISIS DE GELES DE ELECTROFORESIS BIDIMENSIONAL: DE LA ADQUISICIÓN DE IMÁGENES A LA IDENTIFICACIÓN DE PROTEÍNAS author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Acta Nova

On-line version ISSN 1683-0789

RevActaNova. vol.1 no.1 Cochabamba  2001

 

La Nueva ciencia de la complejidad

Davor Pavisic

Instituto de Investigación en Informática Aplicada

Ingeniería de Sistemas

Universidad Católica Boliviana

El arte secreto

El universo, visto de muy cerca, es un inmenso e inimaginable número de partículas danzando bajo la melodía de las fuerzas fundamentales. Todo, tanto alrededor como al interior nuestro, moléculas y átomos colisionan, vibran y giran. Ráfagas de moléculas de nitrógeno y oxígeno son absorbidas por nuestros pulmones en cada respiro. Ejércitos de enzimas trabajan para convertir los químicos de nuestro cuerpo en energía para nuestras células. Y no obstante, pensamos en el universo como un único sistema que existe en perfecta armonía. Ahora, una nueva rama de la ciencia está tratando de demostrar por qué la totalidad del universo es mucho más que la suma de todas sus partes, y cómo todos sus componentes se agrupan para producir patrones sorprendentes. Este esfuerzo de adivinar el orden en un cosmos caótico es la nueva ciencia de la complejidad. Esta revela relaciones sorprendentes entre los muchos y variados esfuerzos de investigadores trabajando en sus fronteras en un amplio rango de disciplinas.

Por ejemplo, científicos franceses están estudiando cómo manchas y líneas pueden formarse espontáneamente en una mezcla de compuestos químicos; éstas son sorprendentemente similares a las marcas encontradas en el pelo de algún animal, las alas de un insecto o las conchas de los moluscos. Dentro de la mezcla, ciclos de reacciones químicas interactúan de tal modo que una innumerable cantidad de moléculas actúan como si supiesen exactamente qué es lo que están haciendo.

En la costa Este de los Estados Unidos, patrones de actividad eléctrica se forman dentro de una red compuesta por muchas miles de neuronas artificiales. Nadie indica a la red qué es lo que se debe comunica con otra. Sin embargo, gradualmente, las neuronas se organizan de modo que varias diferentes tareas pueden ser llevadas al cabo por varios diferentes grupos de neuronas dentro de la red. Sorprendentemente, la red se integra de manera similar a las neuronas que procesan la visión en el cerebro humano.

Y a miles de kilómetros, en un suburbio de San Diego, biólogos moleculares estudian y utilizan el proceso que ha permitido a los humanos evolucionar. Estos científicos están manipulando millones de variantes moleculares de una tira de material genético la que la naturaleza “optimizó” en miles de años. Este tipo de “evolución en un tubo de ensayo” necesita solamente unos cuantos días para alterar el material genético a fin de lograr, por ejemplo, una enzima capaz de acelerar un nuevo proceso químico y tal vez salvar una vida humana.

Todos estos científicos exploran manifestaciones del mismo fenómeno: la complejidad o, como dijo Kant,: “Dios ha puesto un arte secreto en las fuerzas de la Naturaleza para mostrarse a sí mismo emergiendo del caos hacia un mundo perfecto”[1] . El mundo macroscópico está saturado de procesos y sistemas complejos: ritos religiosos y emociones efímeras, interpretaciones musicales y campos lodosos, las caídas de la bolsa y domingos lluviosos. Esta complejidad es esencial en la naturaleza; no es simplemente un resultado de la combinación de muchos procesos simples que ocurren en un nivel más fundamental.

Dentro de la ciencia, la complejidad es una nueva filosofía sobre el comportamiento colectivo de muchas unidades básicas que interactúan entre sí; éstas pueden ser: átomos, moléculas, neuronas o bits dentro de un ordenador. Para ser más precisos, complejidad es el estudio del comportamiento de colecciones macroscópicas de unidades simples que tienen el potencial de evolucionar en el tiempo. Sus interacciones conducen a fenómenos colectivos coherentes (propiedades emergentes) que pueden ser descritos solamente en niveles más altos que aquellos de las unidades individuales.

En este sentido, el todo es más que la suma de sus componentes, de la misma forma que una pintura de Rafael es mucho más que una colección de trazos de pincel. Esto es verdad para la misma sociedad humana como lo es para la actividad químico-eléctrica de las neuronas en el cerebro. Un remolino en el agua no puede ser descrito en términos de moléculas individuales de agua y tampoco un pensamiento feliz en términos de los eventos que ocurren en una neurona.

Las ciencias convencionales están frecuentemente ciegas a la relación que puede existir entre la variación temporal de glóbulos blancos en la sangre con las caídas y subidas de la bolsa o con algún otro fenómeno complejo. La mayoría de los científicos de hoy se restringen a un estudio detallado de un pequeño aspecto de una única disciplina en una de las muchas ramas de la ciencia. Esto es inevitable, a medida que la investigación se enfoca más y más en áreas cada vez más pequeñas. Los conocimientos, la experiencia y la sofisticación necesarios para aplicar las técnicas, desarrolladas en cualquier campo, son de tal magnitud que es muy difícil llegar al límite del conocimiento sin una dedicación inmensa. La especialización que esto involucra trae consigo, en cada área de investigación, una única metodología junto con tanta terminología que es muy difícil para un extraño sacarle cierto sentido y, mucho más difícil, descubrir similitudes conceptuales que pueden ser compartidas por otros científicos que trabajan en otros campos diferentes.

Sin embargo, la mayoría de los problemas de la vida real no encajan en un compartimiento hecho a medida. Para resolverlos, la gente debe ser capaz de comunicarse a traves de las fronteras tradicionales, para encarar estos problemas de una forma colaborativa e integrada. Muchos científicos, quienes hoy en día son, por definición, especialistas, pueden sentirse sospechosos e incluso amenazados por este mensaje. Desafortunadamente, nuestro sistema de educación actual no nos prepara para este tipo de enfoque. Como lo dijo el Premio Nobel Murray Gell-Mann, debemos alejarnos de la idea de que el trabajo serio consiste en: “embestir un problema bien definido en una única disiplina, mientras que el pensamiento integrativo está relegado a las reuniones sociales. En la vida académica, en las burocracias y en todo lado encontramos una falta de respeto por la tarea de integración.”[2]. Hace años era posible para los intelectuales ser verdaderos polimáticos y hacer contribuciones significativas en todo el rango de las ideas y pensamientos. Esto, hoy en día, parece imposible.

Existe, sin embargo, una comunidad de científicos (y filósofos) que avanzan contra esta corriente. Motivados por un deseo de establecer conexiones a traves de las convencionalmente separadas disciplinas científicas, estos científicos tratan de demostrar que existe una economía de conceptos necesarios para entender la forma en la que el mundo funciona. Su meta final es llegar a comprender, no sólo la complejidad de un único fenómeno, sino también los semblantes de la complejidad misma, ya sea ésta manifestada por la evolución dentro de un bosque o dentro del núcleo de un ordenador, las espirales de color que se forman en una reacción química, las propiedades magnéticas de las aleaciones o el funcionamiento de un cerebro. Se busca la unidad dentro de la diversidad, explicar cómo el orden puede emerger de una masa evolutiva de agentes, sean éstos átomos, células u organismos.

Las ciencias convencionales pueden predecir acontecimientos de gran escala, por ejemplo cómo la luz se dobla alrededor de objetos masivos incluyendo agujeros negros. También pueden sumergirse en eventos microscópicos, como cuando un electrón salta entre las órbitas en un átomo de hidrógeno. Sin embargo, se han mantenido al margen cuando se trata de entender procesos que crean una complejidad macroscópica exquisita y que son también los más familiares para el cerebro humano.

La creación de complejidad

Para que la complejidad pueda emerger, dos ingredientes son necesarios. El primero es un medio irreversible en el que pueden ocurrir eventos: este medio es el tiempo, fluyendo desde el pasado inmediato hacia un futuro que está abierto. La razón por la que se explica lo que aparentemente es obvio es que las leyes tradicionales de movimiento que se usan para describir el comportamiento de la materia en un nivel microscópico no distinguen una dirección del tiempo de la otra.Sin embargo, sabemos que por la tendencia de la nieve a derretirse y de nuestra piel a arrugarse que una dirección preferida de tiempo sobresale al nivel macroscópico. Esta es la famosa paradoja de irreversibilidad que surge de la discontinuidad entre estos dos niveles de descripción.

El segundo ingrediente esencial es la no-linealidad. Todos estamos familiarizados con sistemas lineales que han sido un pilar fundamental de la ciencia por más de trescientos años. Debido a que uno más uno es igual a dos, podemos predecir que el volumen de agua que fluye de un grifo es duplicado cuando el grifo gotea dos veces más rápido. Los sistemas no-lineales no obedecen estas simples reglas de adición. Comparemos el simple flujo de agua de un grifo con los complejos fenómenos no-lineales que regulan la cantidad de agua en el cuerpo humano o el movimiento del vapor de agua en las nubes. La no-linealidad causa que un pequeño cambio en un nivel de organización tenga grandes efectos en el mismo o en otros niveles de organización. Esto es muy familiar para la mayoría de nosotros con el ejemplo de retroalimentación positiva, cuando acercamos un micrófono hacia uno de los altavoces por donde sale el sonido amplificado, pero el mismo efecto está presente en miles de otros ejemplos de la vida real. En general, la no-linealidad produce resultados complejos y frecuentemente inesperados.

La irreversibilidad y la no-linealidad caracterizan fenómenos en cada uno de los campos de la ciencia: las marcas en el ala de una mariposa, los puntos en la piel de un jaguar y las oscilaciones de los organismos vivientes, como las palpitaciones de un corazón, el funcionamiento de las células nerviosas, etc. Otras formas de complejidad caótica, relacionadas pero más sutiles, también surgen de la no-linealidad: las fluctuaciones metereológicas aparentemente aleatorias, las epidemias y la propagación de la información.

Una de las formas más interesantes para apreciar la complejidad es la de graficar las propiedades de una simple ecuación matemática no-lineal que describe cómo una población de organismos dentro de un ecosistema varía en número de una generación a la próxima, como resultado de nacimientos y muertes. Usando gráficos en un ordenador, es posible visualizar la sorprendente gama de diferentes comportamientos capturados por esta ecuación en un paisaje sorprendente (ver Figura 1). El gráfico muestra los resultados de computaciones llevadas a cabo por Mario Markus y sus colegas en el Instituto de Fisiología Molecular Max Plank en Dortmund, Alemania.

Figura 1. Soluciones de una simple ecuación no-lineal llamada la ecuación logística. El gráfico revela el comportamiento inesperado de una población de soluciones a medida que evoluciona de generación en generación en función de ciertos parámetros en el modelo.

El sabor de la simplicidad

Por cientos de años, aquellos que buscaban entender el mundo natural han sido seducidos por la simplicidad. Su misión fue la de reducir el universo a sus partes componentes. El llamado reduccionismo es una eterna búsqueda para explicar fenómenos complejos en términos de algo más simple. Para un físico, esto significa describir las propiedades de un gas en términos del comportamiento de los átomos y moléculas que lo constituyen. Para un químico, significa explicar una reacción química en términos de los cambios ocurridos en sus moléculas. De modo similar, después del descubrimiento de la estructura de la molécula ADN, en 1953 por F. Crick y J. Watson, nació la ciencia llamada biología molecular. Desde entonces, grandes partes de la biología pudieron ser comprendidas sobre la base de las acciones moleculares. Nadie puede negar el gran impacto que tuvo el reduccionismo. Debido a su poder, el reduccionismo es percibido demasiado frecuentemente como la ruta universal hacia la comprensión (el entendimiento). Sin embargo, y al mismo tiempo, éste ha sido una traba entre las ciencias y otros aspectos de la vida humana. El reduccionismo, usado indiscriminadamente, ofrece un análisis de los fenómenos que divide a éstos hasta reducirlos a sus partes más pequeñas. La gente es reducida a algo más que unos robots que luchan por la supervivencia y que esparcen sus genes. El dolor, el sufrimiento y las guerras no son más que manifestaciones de genes defectuosos y la homosexualidad es debido a un “cerebro gay”, el producto de genes gay [3] .

El punto de vista reduccionista, en el que todo puede ser reducido a átomos y moléculas, es visto por los no-científicos como una filosofía que también erosiona nuestra creencia en la “humanidad” y en el valor que ponemos en ella: después de todo, si nos reducimos a esto, el cuerpo humano no es más que unos cuantos pesos bolivianos de valor en químicos. Es más, si la humanidad está gobernada por fuerzas naturales y, ellas mismas, gobernadas por mecanismos determinísticos, no podemos desarrollar una teoría en la que se establezca que la acción humana está basada en la libre voluntad. Esta no es una imagen que inspira confianza y ha llevado a muchos a criticar las ciencias y el método científico. Como resultado, se ha logrado una imagen de la ciencia separada del resto de la cultura humana.

El lenguaje de la Complejidad

Para entender el lenguaje humano debemos referirnos a su gramática. De la misma manera, solamente podemos comprender totalmente y manipular la complejidad si recurrimos a su propia estructura gramatical expresada en el lenguaje de las matemáticas. Se ha dado la definición del término “complejidad” anteriormente, sin embargo, esta palabra se usa frecuentemente con un sentido muy vago. Los científicos pueden intentar decir cosas diferentes con la misma palabra. Pero en el mundo de las matemáticas, la definición de complejidad es exacta. La complejidad de un problema está definida en términos del número de operaciones matemáticas necesitadas para resolverlo. Medir el grado de complejidad de un problema dado es la misión de la teoría matemática de la complejidad. Nos indica, por medios sistemáticos, si la solución a un problema dado es factible o no. Debido a que muchos aspectos de la complejidad encontrada en la naturaleza están relacionados con las soluciones a problemas muy difíciles, existe una estrecha conexión entre los conceptos de las matemáticas y la complejidad científica como ciencia.

Este nuevo enfoque de la complejidad, de cierta manera, ha minado nuestra fe en las matemáticas, tanto puras como aplicadas. El famoso matemático francés, H. Pointcaré, al final del siglo IXX, anticipándose a la moderna teoría del caos, demostró que el movimiento de tres o más cuerpos es demasiado complejo como para calcular una solución clara y exacta. Muchos problemas importantes de la vida real, como el problema del vendedor que debe encontrar la manera más económica de visitar una serie de ciudades, pueden ser formulados de una manera muy simple, pero los intentos por encontrar sus soluciones, con medios sistemáticos, se vuelven rápidamente imprácticos a medida que el tamaño del problema sobrepasa un pequeño número. Las soluciones a este tipo de problemas se encuentran más allá del alcance de las matemáticas analíticas, y debido a su gran potencia, los ordenadores son los únicos que proveen medios para resolverlos.

Para enfrentar la complejidad con un ordenador es necesaria una combinación de sutileza y fuerza bruta. La sutileza es necesaria para lograr una formulación precisa del problema. La fuerza bruta consiste en introducir números y/u otros símbolos en esta descripción y calcular, utilizando un ordenador, el comportamiento de todas y cada una de las circunstancias deseadas. El papel esencial jugado por los ordenadores explica en gran parte por qué un campo de la investigación tan rico como lo es el estudio de la complejidad fue desapercibido por tanta gente en tanto tiempo. Antes de la invención del ordenador digital, era prácticamente imposible para una persona introducir miles y hasta millones de números a un juego de ecuaciones que describen un problema complejo. La ciencia de la complejidad está íntimamente enlazada con y depende crucialmente de la tecnología de los ordenadores. Los grandes logros del poder de los ordenadores en los últimos 50 años han permitido a los científicos y matemáticos modelar y simular problemas y fenómenos cada vez máscomplejos e interesantes.

Simbiosis

El ordenador imaginado por C. Babbage era una máquina diseñada para producir en forma masiva tablas aritméticas tediosas. Inclusive ahora, muchos de sus sucesores no son más que máquinas tontas que llevan a cabo tareas matemáticas repetitivas. Esto, hoy en día, está cambiando con una nueva generación de ordenadores cuyo diseño y operación han tomado un rumbo guiado por la escuela de la naturaleza. Usando técnicas de paralelismo y paralelismo masivo, los ordenadores se acercan un poco al funcionamiento del cerebro humano.

De todas las fuentes de inspiración para las arquitecturas de los ordenadores, ninguna puede compararse con el cerebro. Una máquina con atributos que se asemejan a la inteligencia humana ha sido, desde hace mucho, la meta de aquellos que trabajan en las ciencias de la computación. Sin embargo, hasta ahora, todos los intentos de llegar a esto han fallado miserablemente. Mientras para los ordenadores convencionales resulta muy fácil llevar a cabo tareas que la mayoría de las personas encuentra difícil, como la aritmética y el álgebra, la gente lleva a cabo, rutinariamente y con mucha destreza, tareas como la visión y el habla que hasta los ordenadores más potentes no pueden igualar.

Sin embargo, al remedar la arquitectura del cerebro y sus propiedades emergentes, como lo son la inteligencia y la conciencia, los ordenadores basados en redes neuronales han logrado aprender y adaptarse de acuerdo a sus experiencias con el mundo que los rodea. Los métodos de adaptación y optimización de la naturaleza, los cuales refinan el diseño de los organismos a través de la evolución, han sido ahora adaptados por los ordenadores usando algoritmos genéticos (Comentario: ¿No será "adoptados"?) para resolver problemas de gran complejidad. De la misma forma que la naturaleza, estas técnicas evolucionarias de programación tienen elementos aleatorios. Este azar conduce a la innovación y al descubrimiento de soluciones inteligentes e inesperadas a problemas muy difíciles.

La simbiosis entre la ciencia y los ordenadores está haciendo posible comenzar a comprender y simular algunas capacidades que tiene el cerebro humano. Este órgano comprende cien mil millones de células nerviosas. Esta última figura se aproxima al número de estrellas en la Vía Láctea. Sin embargo, por primera vez, los científicos están produciendo modelos plausibles de ciertos aspectos del funcionamiento del cerebro humano y, de este modo, se está logrando levantar una pequeña área del velo que desde la antigüedad dividía la mente de la materia.

Estos logros están haciendo que la vida en sí tome un nuevo significado. “La vida no está determinada por la materia que la comprende. La vida es un proceso, yes la forma de este proceso, y no la materia, la que es la esencia de la vida”[4] . Como Von Newmann quiso demostrar, uno puede ignorar el medio físico y concentrarse en la lógica que gobierna al proceso. Uno podría entonces lograr, en principio, usar la misma lógica en otro material completamente diferente a la forma de vida basada en carbono y con la que estamos familiarizados. En otras palabras, la vida es fundamentalmente independiente del medio en la que se lleva a cabo. Las implicaciones que tiene el separar la complejidad viviente de su medio son sorprendentes. Estas ideas ya no son simples productos de la imaginación reservados para la ciencia-ficción; ya se están llevando a cabo intentos de crear complejidad viviente dentro de los ordenadores.

REFERENCIAS

[1] I. Kant. “Universal Natural History and Theory of the Heavens” Scottish Academic Press, Edinburg 1981.

[2] Murray Gell-Mann “The Quark and the Jaguar” Little, Brown, Boston and London 1994.

[3] S. Rose, Nature 373 380 (1995).

        [ Links ]

[4] C. Emmeche, “The Garden in the Machine: the Emerging Science of Artificial Life”. Princeton University Press. 1994.

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License