La Robótica Evolucionaria en la Explicación Evolutiva de la Mente

1. Evolución artificial en el estudio de la mente.
Si se analizan las posturas acerca de la relación entre la mente humana y la de los demás animales que pueblan la Tierra, es posible reconocer dos líneas principales de pensamiento. Por una parte el creacionismo, en su versión expandida por occidente, y el cartesianismo, declaran una diferencia cualitativa entre los humanos y el resto de los animales, negando el mentalismo animal, o aceptándolo siempre en obediencia al principio de que “la razón es al hombre lo que el instinto al animal”. Por otra parte una segunda postura recoge las ideas de la tradición naturalista inaugurada por Darwin en 1859, defendiendo una continuidad evolutiva entre las diferentes especies presentes en el planeta, y por lo tanto entre sus sistemas cognitivos.
Generalmente se adopta el rótulo “psicología evolucionaria” para hacer referencia a la subdisciplina de las ciencias cognitivas interesada en el estudio de la evolución de la cognición. La psicología evolucionaria entiende a la mente humana como un producto evolutivo (Evans, D. y de Back, W., 2002) que se explica por una progresiva adaptación biológica; su objetivo es desenmarañar la historia de tal adaptación.
Buscando explicar la evolución de la cognición, la psicología evolucionaria ha recurrido típicamente a dos tipos de estrategias metodológicas. En primer lugar, y en mayor frecuencia, es posible advertir metodologías de corte analítico, las cuales consisten en la observación y análisis de sistemas cognitivos naturales, de datos arqueológicos, paleontológicos, geológicos y antropológicos. En segundo lugar se aprecian metodologías caracterizadas por la construcción de sistemas artificiales, referidas a modelos computacionales basados en agentes situados, a robots autónomos, o a modelos híbridos que simulan, en entornos virtuales, la agencia de robots autónomos. Estos métodos de corte sintético, si bien no presentan incompatibilidad con los métodos analíticos tradicionales, apuestan a una estrategia muy distinta como Valentino Braitenberg (1984) explicita en su argumento del “análisis cuesta arriba y síntesis cuesta abajo”: para descubrir la estructura interna de un sistema complejo es mucho más sencillo construir sistemas de complejidad creciente, que inferir los mecanismos implicados por observación y análisis. La apuesta de las metodologías sintéticas se refiere a acercar la complejidad del comportamiento de los sistemas artificiales a la de los sistemas reales emulados, y si bien involucran un componente analítico referido a dicha observación y comparación, este no se refiere ya a la inferencia por observación tradicional, pues la estructura interna del sistema creado es “transparente” para sus creadores.
Dentro de las metodologías sintéticas la robótica evolucionaria, entendida como el intento de desarrollar robots autónomos a través de un diseño automatizado vía evolución artificial (Cliff, Harvey y Husband, 1993), ofrece una ventaja extra por su pronunciamiento sobre la forma en que las reglas y estrategias que guían el comportamiento podrían estar implementadas en las mentes corporalizadas de los animales naturales.
La estrategia básica de la evolución artificial consiste en: inicializar una población según lo codificado en genotipos artificiales denominados “esquemas” (Holland, 1975), en robótica evolucionaria estos esquemas suelen referirse a los controladores (“sistema nervioso”) de las criaturas, y en una menor cantidad de trabajos también a sus morfologías. Luego, en el contexto de las tareas de interés, se evalúa la calidad de los sistemas resultantes, para pasar a un proceso de reproducción selectiva mediada por los operadores genéticos de cruce y mutación, que permiten la variabilidad en la descendencia. El ciclo se reinicia con la aparición de una nueva generación. Por lo general la evolución artificial es automatizada recurriendo a distintas adaptaciones de los algoritmos genéticos desarrollados por Holland (1975).
2. Problemas de la robótica evolucionaria en ciencias cognitivas.
En ciencias cognitivas el interés de la robótica evolucionaria se refiere a sus potencialidades como metodología sintética para el estudio de la evolución de la cognición, no simplemente a las posibilidades que ofrece para el diseño de agentes autónomos eficientes. Por lo mismo, en su utilización para los fines teóricos de los estudios cognitivos, se hace necesario el cumplimiento de una serie de requisitos diferenciales, en relación a varios de los cuales la metodología propuesta sigue mostrándose débil. A continuación se ensaya una clasificación de estos desafíos para la consolidación de la robótica evolucionaria como método en ciencias cognitivas, haciendo referencia a dificultades de plausibilidad biológica y ecológica que actualmente se aprecian en la mayoría de los modelos generados.
2.1. Problemas de plausibilidad biológica.
En primer término es posible advertir que, en general, las técnicas de la evolución artificial no toman en cuenta que para obtener arquitecturas cognitivas complejas y heterogéneas, como las que se observan en la naturaleza, es necesario contemplar que la evolución es un proceso continuo que no parte de cero, al menos no desde que aparecieron las primeras estructuras replicadoras en el planeta. En este sentido, como Santos y Duro (2005) argumentan, es necesario un ajuste que no plantea un problema serio para el actual formalismo de la informática evolutiva, sino que mas bien exige una mayor atención a las estructuras morfológicas y mentales que preceden a las capacidades cuya evolución se estudia en cada caso.
En segundo lugar aparece una dificultad que exige un tratamiento un poco más detallado, referida al tipo de controladores que se utilizan en robótica evolucionaria. La mayoría de los trabajos en este nivel implementan redes neuronales artificiales, si bien es posible reconocer, en menor medida, la utilización de sistemas de clasificación (Colombetti y col. 1996) y otros basados en lógica borrosa (Cooper, 1995). En relación a los controladores la principal dificultad, para la generalización de los resultados a las ciencias cognitivas, dice relación con la escasa variedad contemplada en las redes utilizadas; suelen utilizarse, de modo exclusivo, redes neuronales artificiales estándar o “de propósito general” (Santos y Duro, 2005). Lo anterior atenta contra la plausibilidad biológica de los sistemas generados debido a sus evidentes diferencias con el camino que ha seguido la naturaleza, la cual ha diseñado distintos tipos de circuitos neuronales y un conjunto de neuronas funcional y morfológicamente especializadas.
Un ejemplo concreto de la simplificación comentada, se refiere a la desatención general a la modulación existente entre distintas estructuras neuronales, la cual sería un importante factor para el alto grado de coherencia y continuidad que se aprecia en la actividad general de los sistemas nerviosos naturales (Nolfi, 1997). Al respecto es interesante la propuesta de Husband y col. (1998), quienes utilizan redes cuyos nodos pueden emitir “gases”. Dicho procedimiento emularía la difusión de óxido nítrico y los efectos moduladores que éste tiene en el mundo biológico. Ishiguro y col. (2003) presentan un trabajo similar en el cual los nodos de la red emiten neuromoduladores, cuya difusión es más lenta y duradera que la de los neurotransmisores, además de receptores específicos en las neuronas. En este trabajo el genotipo determina el tipo de neuromodulador que emite cada neurona, así como el efecto que cada uno de estos “químicos” tiene en cada tipo de sinapsis.
2. 2. Problemas de plausibilidad ecológica.
Una de las diferencias fundamentales entre la evolución natural y la artificial, es que la primera no persigue ningún objetivo; las especies se van modificando como consecuencia de las fuerzas de selección que actúan sobre sus individuos por el hecho de verse inmersos en un ecosistema que condiciona su supervivencia y reproducción. En este sentido, mientras que la evolución natural es de “final abierto”, la evolución artificial es guiada por metas de diseño que tienen que ver con la obtención de individuos eficientes en tareas específicas. Los métodos de la evolución artificial operan como si la evolución fuese un proceso de optimización, evaluando los sistemas que produce según una función de calidad explícita que codifica el resultado esperado del proceso evolutivo. En cambio, la evolución natural ha demostrado no converger en una única y óptima solución, por lo que el concepto de optimización es problemático cuando se emplea en su descripción. En estricto rigor la evolución no consiste en un proceso de optimización, dado que en la medida que aparecen individuos mejor adaptados a las condiciones ambientales dichas condiciones se ven modificadas, produciéndose variaciones en las presiones selectivas y por ende en la calidad relativa de los individuos. En la evolución natural no existe por tanto una función de calidad explícita y constante que verse exclusivamente sobre las características de los individuos, si no una “función de calidad dinámica”, implícita a la relación entre los individuos y un ambiente cambiante. Van Valen (1973) fue el primero en utilizar la metáfora de la reina roja para describir esta particularidad de la evolución; en “Alicia a través del espejo”, de Lewis Carrol (18711), la reina roja advierte a Alicia que en su reino es necesario correr todo el tiempo para mantenerse en el mismo lugar. Un argumento parecido es el que expresa Bullock (1995), del Grupo de Sussex, “los algoritmos genéticos trabajan en forma típica sobre superficies de calidad estáticas. Por el contrario la evolución natural trabaja sobre superficies de calidad que cambian a lo largo del tiempo como resultado, entre otras razones, de la coevolución” (Santos y Duro, 2005).
Los argumentos esbozados reflejan la necesidad de ajustar el operador de selección en evolución artificial, el cual, en vez de estar asociado a una función de calidad explícita, y a una metodología de testeo que toma a un individuo por vez, debe incorporar la dinámica del ambiente y las múltiples posibilidades de interacción y coevolución que se dan entre los agentes en la naturaleza. Un punto muy relacionado con esto es la necesidad de tomar en cuenta la continuidad entre las generaciones; habitualmente la evolución artificial considera generaciones discretas, en que los descendientes de los individuos mejor adaptados en la generación anterior jamás tienen la posibilidad de interactuar con individuos de dicha generación.
Para concluir con este apartado, y sintetizar sus principales ideas, cabría señalar que, para su consolidación como metodología sintética en ciencias cognitivas, la robótica evolucionaria debe ajustar sus métodos de modo de: a) tomar en cuenta la complejidad y alto grado de especialización presente en los sistemas nerviosos naturales; b) tomar en cuenta la continuidad de la evolución, tanto en referencia a la relación entre las distintas generaciones, como en relación a las estructuras morfológicas y mentales que anteceden a las capacidades estudiadas en cada caso; c) considerar que el concepto de optimización como mucho puede ser aplicado a la capacidad reproductiva de los individuos, puesto que la selección natural favorece a los replicadores (genes en general) que construyen máquinas útiles para su propia preservación (Dawkins, 1976), pero que así y todo su utilización es problemática por el continuo “cambio en las reglas del juego” que impone la naturaleza.
3. Conclusión: trabajos pioneros y potencialidades de la robótica evolucionaria,
Lo cierto es que la utilización de robótica evolucionaria, como se pretende argumentar en esta última sección, ofrece importantes beneficios para el estudio evolutivo de la cognición, por lo que parece importante trabajar en ajustes metodológicos como los señalados en esta breve revisión. Dichas potencialidades se ven reflejadas en trabajos pioneros como son el de Mayley (1996) sobre la relación entre el aprendizaje y la evolución (efecto Baldwin), el de Maja Mataric (1994) sobre el aprendizaje por imitación y la emergencia de la cooperación en grupos de robots, y el trabajo de Angelo Cangelosi (2001) sobre la evolución de la comunicación simbólica entre agentes recolectores. Otra línea de trabajo, especialmente interesante para el estudio de la evolución de alto nivel, se refiere a la evolución de comportamientos deliberativos, tipo off-line o desacoplados de las interacciones en tiempo real con el ambiente. Estos últimos se basan típicamente en la utilización de redes neuronales artificiales recurrentes, o en la utilización de redes con retardos temporales en sus conexiones, los que pueden ser obtenidos por evolución o aprendizaje (Santos y Duro, 1998).
Para concluir, cabe señalar que la robótica evolucionaria se muestra atractiva además por ciertos beneficios implícitos en sus fundamentos metodológicos. En primer lugar ofrece nuevas instancias para contrastar hipótesis acerca de la historia evolutiva de la cognición, específicamente acerca de cómo esta historia se ha instanciado en la materialidad de las mentes animales y en el contexto de un ambiente dinámico que involucra a otros agentes. Por otra parte obliga a los investigadores a explicitar los detalles de sus hipótesis, a la vez que ofrece un lenguaje formal para vencer las ambigüedades propias del lenguaje natural en las que estas hipótesis suelen gestarse. Por último la construcción de criaturas artificiales facilitaría la generación de nuevas hipótesis referidas a dinámicas emergentes de su relación con el ambiente, incluyendo a otros agentes que pueden encontrarse en él; hipótesis que son difíciles de elucubrar con anterioridad a la observación del comportamiento de los sistemas sintetizados.
4. Referencias
Bullock, S. G. (1995). Co-evolutionary Design: Implications for Evolutionary Robotics. Proceedings of the 3rd European Conference on Artificial Life, pp. 1-10.
Cangelosi, A. (2001). Evolution of Comunication and Language Using Signals, Symbols and Words”. IEEE Transactions on Evolutionary Computation, Vol 5, pp. 93-101.
Cliff, D. T., Harvey, I. y Husband, P. (1993). Explorations in Evolutionary Robotics. Adaptive Behavior, Vol. 2, pp. 73-110.
Colombetti, M., Dorigo, M. y Borghi, G. (1996). Behavior Análisis and Training – A Methodology for Behavior Engineering. IEEE Transactions on Systems, Man and Cybernetics, Vol. 26, pp. 365-380.
Cooper, M. G. (1995). Evolving a Rule-Based Fuzzy Controller. Simulation, Vol. 65.
Dawkins, R. (1976). The Selfish Gen. Oxford University Press.
Evans, D. y de Back, W. (2002). Synthetic Evolutionary Psychology. Recurso electrónico en: http://www.dylan.org.uk/syntheticEP14.html
Holland, J. (1975). Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Arbor.
Husbands, P., Smith, T., O’ Shea, M., Jakobi, N., Anderson, J. y Philippides, A. (1998). Brains, Gases and Robots. Perspectives in Neural Computing, Vol. 2, pp. 51-63.
Ishiguro, A., Otsu, K., Fujii, A. y Eggenberg, P. (2003). Neuromodulated Control of Bipedal Locomotion Using Polymorphic CPG Circuit. Adaptive Behavior, Vol. 11, pp. 7- 17.
Mataric, M. (1994). “Learning to Behave Socially”. En: Cliff, D., Husband. P., Meyer, J-A. y Wilson, S. (Eds.). From Animals to Animats 3. MIT Press, pp. 453-462.
Mayley, G. (1996). The Evolutionary Cost of Learning”, En: Maes, P., Mataric. M., Meyer, J-A., Pollack, J. y Wilson, S. (Eds.). From Animals to Animats 4. MIT Press, pp. 458-467.
Nolfi, S. (1997). Using Emergent Modularity to Develop Control Systems for Mobile Robots. Adaptive Behavior, Vol. 5, pp. 343-363.
Santos, J. y Duro, R.J. (1998). Evolving Neural Controllers for Temporally Dependent Behavior in Autonomus Robots. En: del Pobil, A. P., Mira, J. y Ale, M. (Eds.). Tasks and Methods in Applied Artificial Intelligent.
Santos, J. y Duro, R.J. (2005). Evolución Artificial y Robótica Autónoma. RA-MA, Madrid. Valentino Braitenberg (1984). Vehicles: Experiments in Synthetic Psychology. Cambridge, Mass., MIT Press.
Van Valen, L. (1973). A New Evolutionary Law. Evolutionary Theory, Vol. 1, pp. 1-30.