Archivo de la etiqueta: Artificial intelligence

Inteligencia Artificial Ecológica y ¡affordances por un tubo!

Imagen de la película EVA

Cuando mi amigo Manuel Heras, predoctoral  filosoia y neurociencias.) me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue “¡¡affordances por un tubo!!”. Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra ‘affordance’ en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.

“En veinte años las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda llevar acabo”.  Probablemente esta debería ser una de esas frases que encabezaran la lista de frases desafortunadas en la historia. Cuando en 1965 Herbert Simon  dijo esto,  debía de estar en la fase de “exaltación de la amistad y euforia” que antecede a la de “cánticos populares” y que termina con “insultos a la autoridad y al clero”. No recuerdo si “negación de la evidencia” (yo estoy bien mira, mira, -conectando con la mano abierta rodilla y nariz- era el principio o el final del proceso). El caso es que en aquellos años se las veían muy felices desarrollando programas informáticos que trataban de simular la conducta humana.

Genghis scrambling over rough terrain, and following a mammal

El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church , todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial. Dado que los sistemas cognitivos son sistemas que pueden ser descritos computacionalmente,  no hay en principio restricción alguna de tipo formal para diseñar programas que realicen las actividades que realiza todo ser humano.  Este es el origen de lo que se ha conocido como la GOFAI (“Good Old-Fashioned Artificial Intelligence“) ampliada ahora a la GOFAIR (“Good Old-Fashioned Artificial Intelligence and Robotics”).  Todo parecía tan fácil como manipular símbolos, diseñando programas, e implementar esos programas en un sistema de cómputo que siguiese el esquema E-P-S [Entrada (de información)-Procesamiento-Salida(de información)]

La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: “Por “inteligencia artificial”, en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular”

Sin embargo, la cosa no iba a ser tan simple. Marvin Minsky en su libro La sociedad de la mente (1986) nos alertaba de  lo complejo que resulta programar a una máquina para que realice tareas tan sencillas como construir una torre con los típicos bloques de construcción con los que juegan los niños. El diseño, en los años setenta, de un programa llamado Constructor, realizado por el propio Minsky y Seymour Papert , que integraba una mano mecánica equipada con sensores táctiles y cámara de televisión y que tenía como tarea distinguir y seleccionar los bloque apropiados para hacer una construcción estable, permitió descubrir en palabras de Minsky que: […] muchas cuestiones cotidianas eran mucho más complicadas que la clase de problemas, acertijos y juegos que los adultos consideran difíciles. […] Limitémonos a considerar ese problema, aparentemente simple, de no volver a utilizar bloques que ya han sido incorporados a la torre. A una persona esto se le antoja mero sentido común: «no utilices un objeto para cumplir un nuevo propósito si ese objeto ya está dedicado a realizar un propósito anterior». Nadie sabe con exactitud cómo es que la mente humana resuelve esto.”

 Parece por lo tanto evidente que el cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que  debe resolver. Esta situación da lugar a lo que Tienson llama una “explosión computacional inmanejable”. La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.

El segundo de los problemas que tienen los sistemas de computación simbólicos es que su arquitectura es muy distinta de los sistemas naturales. Los sistemas neuronales naturales son muy lentos, unas 1016 veces más lentos que los ordenadores. Un cambio de posición de 0 a 1 en un dispositivo electrónico tarda una milmillonésima de segundo, mientras que una neurona necesita una milésima de segundo para responder a una estimulación. Esta limitación en la velocidad de procesamiento se conoce como «la limitación de los 100 pasos». La idea es que si un cerebro natural tuviese que realizar las tareas habituales siguiendo el modelo que propone la IA clásica, entonces, dado el tiempo que tarda una neurona en responder a la estimulación electroquímica, el cerebro necesitaría al menos de esa cantidad de tiempo, una milésima de segundo, para realizar cada instrucción del programa. Por lo tanto, el número máximo de operaciones que puede ejecutar en una décima de segundo es 100. Esto supondría una restricción importante a la hora de diseñar programas que hicieran cosas interesantes.

La segunda diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación “armoniosa” o “elegante”. La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual. Una lesión en el cerebro puede afectar a ciertas tareas, funciones o propiedades mentales que están directamente relacionadas con las áreas que se vean afectadas por la enfermedad o por la lesión, sin que el resto de las funciones que dependen de otras áreas no dañadas se pierdan o se alteren. Por el contrario, los sistemas computacionales artificiales se degradan, en palabras de Francis Crick, catastróficamente. La más mínima alteración de uno de sus componentes colapsa al sistema entero.

Estas diferencias entre los sistemas cognitivos naturales y los sistemas cognitivos artificiales de la vieja IA  tienen  que ver con el hecho de que la GOFAI olvidó leer a Heidegger (vale, yo tampoco). La idea de diseñar programas en los que el entorno no juega papel alguno salvo ser un simple suministrador de información es un error conceptual importante. La cognición no es algo que se produce en el interior de un sistema independientemente de las relaciones que el sistema mantiene con su entorno.

María Muñoz -Universidad Autónoma de Madrid (Dpto. de Lingüística, Lógica y Filosofía de la Ciencia)-, y Alex Díaz -Universidad Autónoma de Madrid (Dpto. de Psicología Básica)- . resumen muy bien la situación. “Aquellas capacidades que parecen dar gran ventaja a los seres vivos son la capacidad de detectar información clave sin necesidad de muestrear todo el entorno, y la coordinación de estos sistemas con el medio. Las interacciones entre ambos no se reducen a una captura de datos, más bien son un intercambio de fuerzas, de momentos de inercia y de relaciones espaciotemporales” . (Inteligencia Artificial Ecológica para una nueva generación de robots. Factótum 7, 2010, pp. 53-61). La posibilidad de construir sistemas cognitivos artificiales que se integren en su entorno y que sean capaces de dar respuestas autónomas en tiempo real pasa por lo que M. Muñoz y A. Díaz llaman “el ajuste on-line de la máquina y su entorno”

Las arquitecturas cognitivas de este tipo se les conoce como arquitecturas dinámicas.  Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal, esto es, cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt o el planímetro polar de Runeson. Dejaremos para otro día una descripción de estos sistemas. Por ahora, baste decir que son sistemas que adaptan su conducta a los cambios del entorno  al considerarlo como un medio activo cuya dinámica va a determinar los estados a través de los cuales va evolucionando el  sistema; y a su vez, la interacción que el agente mantiene con el medio va a alterar la dinámica propia del entorno, creando de esta manera un bucle entre agente y entorno en el que  los procesos cerebrales, los estados físicos del agente y el medio constituyen un único sistema acoplado. El comportamiento de este sistema acoplado puede ser descrito mediante  ecuaciones diferenciales.

Es en este contexto de arquitecturas dinámicas de sistemas cognitivos donde entra en juego la noción de affordance. El entorno en el que se encuentra un agente o los objetos que integran el entorno poseen unas propiedades que permiten al agente interactuar con ellos, percibir estas propiedades es captar las posibilidades de acción que el agente tiene en ese entorno y las posibilidades de adaptación al mismo. Adaptarse al entorno, el Dasein (perdón) consiste en percibir las affordances. Saber las posibilidades que tiene el abrebotellas es todo lo que necesito para interactuar con el objeto y no tanto los datos relativos a su peso, tamaño etc.

Este nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos.  María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno  sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.

El trabajo de María Muñoz y de Alex Díaz termina haciendo un breve repaso histórico a los intentos por construir robots con arquitecturas dinámicas. Empezando por los primeros robots ecológicos en los años 40 (Elmer & Elsie). Un primer intento de acoplar agentes entre sí para que produzcan conductas interactivas e impredecibles (tampoco gran cosa), hasta BigDog (2005) auténtica mula de carga, imagino que aptas para moverse por las montañas afganas.o su versión pequeña LittleDog (2007) desarrollados por DARPA (Defence Advanced Research Project Agency).

 Hay que reconocer que esta gente se lo pasa bien

Como al parecer nadie escarmienta en cabeza ajena, Joseph Ritter, jefe tecnológico de Intel y miembro del SIAI(Instituto de la Singularidad para la Inteligencia Artificial) ha puesto una nueva fecha: el 2050. Para este año, las capacidades de los sistemas cognitivos artificiales habrán alcanzado las habilidades del ser humano. Y nosotros que estemos para verlo

Anuncios

A %d blogueros les gusta esto: