Archivo de la categoría: Inteligencia Artificial

Spaun, un cerebro virtual que genera representaciones

No sé si el mundo es voluntad, pero sí que es representación. Aclarar qué es una representación o cómo la mente construye representaciones del mundo es uno de los problemas fundamentales en la Filosofía de la mente, incluso para aquellos que se declaran abiertamente antirrepresentacionalistas.

Chris Eliamisth

Chris Eliamisth

El carácter interdisciplinar de las neurociencias y de la filosofía de la mente o de la neurofilosofía se muestra precisamente cuando se abordan estos problemas. El equipo de investigadores del Centre for Theoretical Neuroscience de la Universidad de Waterloo en Canadá dirigido por Chris Eliasmith acaba de publicar una investigación (Science. 30 Noviembre, 2012 Vol 338) en la que mediante el diseño de un modelo virtual de un cerebro capaz de realizar tareas que requieren del uso de representaciones, se pueden empezar a analizar estas viejas cuestiones desde la nueva perspectiva que ofrece la Neurosemántica.

El modelo virtual de cerebro se llama “Spaun” (Semantic Pointer Architecture Unified Network) y en términos muy generales se presenta como una contribución más al intento de ofrecer una explicación de la conducta humana en términos neurobiológicos. Desde una perspectiva filosófica el proyecto encajaría dentro de una explicación naturalista, de carácter fisicalista, del contenido representacional.

El modelo en cuestión dispone de 2,5 millones de neuronas virtuales y utiliza las herramientas conceptuales y matemáticas que ofrece la Teoría de Sistemas Dinámicos para simular tareas propias de la cognición que integren las restricciones que tienen los sistemas biológicos reales. En definitiva, no se trata de crear un modelo artificial abstracto, sino de diseñar un modelo que explique y simule la actividad que genera un cerebro. Para ello Spaun incorpora en su diseño las estructuras anatómicas del cerebro y los mecanismos de disparo propios de las neuronas.

Spaun es un indicador semántico (semantic pointer) que realiza representaciones en un espacio n-dimensional mediante un método basado en un proceso de compresión y descompresión. En un espacio semántico n-dimensional, como los que se encuentra descritos en los ya clásicos trabajos de Paul y Patricia Churchalnd, una representación es un vector que indica un punto en ese espacio, de manera que, por ejemplo, aquellas representaciones que tengan un significado parecido, ocuparán lugares muy próximos dentro de ese espacio semántico. El significado de una representación vendría dado por su vector de activación correspondiente. Lo que la Teoría de Sistemas Dinámicos (TSD) añade es la posibilidad de estudiar cómo evolucionan los espacios a través del tiempo.

La TSD considera a los agentes cognitivos como un único sistema integrado compuesto por cerebro, cuerpo y entorno. De esta manera los modelos teóricos que se desarrollan pueden ser estudiados teniendo en cuenta las limitaciones que supone tratar con sistemas biológicos reales, superando así los problemas que presentan los modelos estrictamente computacionales o simbólicos presos todavía de un esquema cartesiano que escinde al sujeto de su medio.

Arquitectura funcional de Spaun. Crédito. C. Eliasmith at al. Science (2012)

La descripción de Spaun se hace desde una doble perspectiva. De un lado tenemos la estructura anatómica del modelo. Esta estructura se corresponde con el modelo anatómico que se define a partir del estudio de las áreas cerebrales y de las propiedades específicas de las poblaciones de neuronas. De otro, se dispone de una descripción funcional del modelo que incluye las funciones que puede realizar el sistema y que se corresponden con las áreas anatómicas descritas. Así, por ejemplo, el área visual se estructura en capas jerarquizadas que permiten recibir las señales del entorno y enviarlas a través del sistema representando patrones espaciales. Cada capa recoge las señales que recibe de la capa anterior, las agrupa y las envía al siguiente nivel simulando las funciones de las capas visuales del cerebro, del córtex visual estriado y del córtex visual interior en el que finalmente se produce la representación de objetos complejos.

Credito. C. Eliasmith et al. Science

Funcionalmente Spaun se organiza en cinco subsistemas que incluyen desde un sistema visual capaz de codificar y decodificar entradas de señales hasta un sistema motor de salida que permite dar una respuesta mediante un brazo articulado virtual.

Para comprender como Spaun puede generar una representación hay que entender el funcionamiento de NEF. NEF (Neural Engineering Framework) es una teoría aplicable a sistemas neurobiológicos que permite entender las representaciones como procesos de codificación no lineal y decodificación lineal de disparo de neuronas. Los procesos dinámicos que caracterizan las representaciones son tratados mediante un conjunto de herramientas matemáticas desarrolladas en la década de los 60 para describir el comportamiento de sistemas físicos complejos. La conducta de los sistemas físicos puede ser descrita a partir de ecuaciones diferenciales que se construyen sobre el valor que van tomando un conjunto de variables.

El funcionamiento de la Teoría Control para describir el comportamiento de un sistema físico queda recogido en el siguiente esquema

NEF

NEF (Eliasmith C. , 2009 y (Eliasmith, C. y Anderson, C. H., 2003)

El vector x(t) reúne las variables que describen el estado del sistema a partir de las entradas que recibe en un tiempo dado. Estas entradas se representan mediante el vector u(t) que también se usa para determinar las salidas futuras que el sistema ofrece (vector y(t)). Las matrices B, A, C y D actúan sobre cada uno de los vectores y ayudan a definir la conducta del sistema mediante la función de transferencia que realiza la integral o.

El modelo NEF puede ser modificado para que incorpore aspectos propios de la dinámica interna de las poblaciones de neuronas. La idea central es que un grupo de disparos de neuronas puede representar un vector en un espacio en un tiempo dado y que las conexiones entre un grupo de neuronas pueden computar las funciones de ese vector. Lo realmente interesante de este modelo es que permite entender las representaciones como procesos de codificación y de decodificación transformacionales de señales.

Una descripción naturalizada de las representaciones como esta evita las objeciones que se hacen a las teorías representacionalistas clásicas en las que el contenido de una representación depende de nuestra capacidad para operar proposicionalmente (Fodor), o de la habilidad para manipular símbolos (Teoría Computacional de la Mente).

Lo que hace Spaun es usar los patrones de disparo de las neuronas para implementar las representaciones neuronales que constituyen los indicadores semánticos. El proceso se realiza mediante la compresión y descompresión de señales. Por ejemplo, el número de células del córtex visual decrece desde el córtex visual primario al córtex temporal inferior que constituye la última etapa del sistema visual y se encarga del reconocimiento de objetos (Áreas 20 and 21 de Brodman). El sistema opera comprimiendo las señales que envía desde las capas iniciales a las finales que son descomprimidas cuando llegan al sistema motor y se ejecuta un movimiento. La compresión permite enviar paquetes de señales para que puedan ser manipuladas de un modo más eficiente, lo que facilita la generación de representaciones.

Más vídeos de Spaun resolviendo tareas

La tarea principal de Spaun es el reconocimiento de números o de letras que posteriormente debe copiar mediante un brazo articulado. Estas tareas incluyen el reconocimiento de imágenes, reconocimiento de series mediante su memoria de trabajo, el aprendizaje y otras habilidades que no pueden ejecutar los sistemas artificiales que se basan exclusivamente en modelos de disparos de redes neuronales. Además de copiar y dibujar, Spaun puede pasar con facilidad test de inteligencia (test de Raven) en los que hay que inferir, a partir de unas imágenes previas, la imagen que falta en una serie. (Ejemplo de un test de Raven)

Los resultados de estos test muestran que Spaun no sólo alcanza un nivel de aciertos del 88% frente al 89% de los humanos, sino que es capaz de ofrecer respuestas flexibles como hacen los sistemas biológicos.

Aunque la arquitectura de Spaun está diseñada para responder únicamente al tipo de tareas descritas, el modelo permitirá comprobar la viabilidad de teorías sobre el funcionamiento del cerebro y la posibilidad de que la neurosemántica ofrezca una explicación al problema de la representación, el último refugio del dualismo.

Referencias

  • Churchland, P. S. (1986). Neurophilosophy. Cambridge: MIT Press
  • Churchland, P. M. (1993). A Neurocomputational Perspective. Cambridge: The MIT Press.
  • Churchland, P. M. (1996). The Engine of Reason, the Seat of the Soul. Cambridge, Massachusetts: MIT Press.
  • Eliasmith, C y (varios) (2012) «A large-Scale Model of the Functioning Brain» Science. 30 de noviembre, Vol. 338
  • Eliasmith, C. y Anderson, C. H. (2003). Neural Engineering. Computation, Representation, and Dynamics in Neurobiological Systems. Cambridge: MIT Press.
  • Eliasmith, C. (2009). Neurocomputational Model: Theory, application, philosophical consequences. En J. Bickle, The Oxford Handbook of Philosophy and Neuroscience (págs. 346-370). Oxford: Oxford University Press.
  • van Gelder, T. (1998). The dynamical hypothesis in cognitive science. Behavioral and Brain Sciences (21) , 615-665

Inteligencia Artificial Ecológica y ¡affordances por un tubo!

Imagen de la película EVA

Cuando mi amigo Manuel Heras, predoctoral  filosoia y neurociencias.) me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue “¡¡affordances por un tubo!!”. Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra ‘affordance’ en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.

“En veinte años las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda llevar acabo”.  Probablemente esta debería ser una de esas frases que encabezaran la lista de frases desafortunadas en la historia. Cuando en 1965 Herbert Simon  dijo esto,  debía de estar en la fase de “exaltación de la amistad y euforia” que antecede a la de “cánticos populares” y que termina con “insultos a la autoridad y al clero”. No recuerdo si “negación de la evidencia” (yo estoy bien mira, mira, -conectando con la mano abierta rodilla y nariz- era el principio o el final del proceso). El caso es que en aquellos años se las veían muy felices desarrollando programas informáticos que trataban de simular la conducta humana.

Genghis scrambling over rough terrain, and following a mammal

El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church , todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial. Dado que los sistemas cognitivos son sistemas que pueden ser descritos computacionalmente,  no hay en principio restricción alguna de tipo formal para diseñar programas que realicen las actividades que realiza todo ser humano.  Este es el origen de lo que se ha conocido como la GOFAI (“Good Old-Fashioned Artificial Intelligence“) ampliada ahora a la GOFAIR (“Good Old-Fashioned Artificial Intelligence and Robotics”).  Todo parecía tan fácil como manipular símbolos, diseñando programas, e implementar esos programas en un sistema de cómputo que siguiese el esquema E-P-S [Entrada (de información)-Procesamiento-Salida(de información)]

La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: “Por “inteligencia artificial”, en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular”

Sin embargo, la cosa no iba a ser tan simple. Marvin Minsky en su libro La sociedad de la mente (1986) nos alertaba de  lo complejo que resulta programar a una máquina para que realice tareas tan sencillas como construir una torre con los típicos bloques de construcción con los que juegan los niños. El diseño, en los años setenta, de un programa llamado Constructor, realizado por el propio Minsky y Seymour Papert , que integraba una mano mecánica equipada con sensores táctiles y cámara de televisión y que tenía como tarea distinguir y seleccionar los bloque apropiados para hacer una construcción estable, permitió descubrir en palabras de Minsky que: […] muchas cuestiones cotidianas eran mucho más complicadas que la clase de problemas, acertijos y juegos que los adultos consideran difíciles. […] Limitémonos a considerar ese problema, aparentemente simple, de no volver a utilizar bloques que ya han sido incorporados a la torre. A una persona esto se le antoja mero sentido común: «no utilices un objeto para cumplir un nuevo propósito si ese objeto ya está dedicado a realizar un propósito anterior». Nadie sabe con exactitud cómo es que la mente humana resuelve esto.”

 Parece por lo tanto evidente que el cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que  debe resolver. Esta situación da lugar a lo que Tienson llama una “explosión computacional inmanejable”. La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.

El segundo de los problemas que tienen los sistemas de computación simbólicos es que su arquitectura es muy distinta de los sistemas naturales. Los sistemas neuronales naturales son muy lentos, unas 1016 veces más lentos que los ordenadores. Un cambio de posición de 0 a 1 en un dispositivo electrónico tarda una milmillonésima de segundo, mientras que una neurona necesita una milésima de segundo para responder a una estimulación. Esta limitación en la velocidad de procesamiento se conoce como «la limitación de los 100 pasos». La idea es que si un cerebro natural tuviese que realizar las tareas habituales siguiendo el modelo que propone la IA clásica, entonces, dado el tiempo que tarda una neurona en responder a la estimulación electroquímica, el cerebro necesitaría al menos de esa cantidad de tiempo, una milésima de segundo, para realizar cada instrucción del programa. Por lo tanto, el número máximo de operaciones que puede ejecutar en una décima de segundo es 100. Esto supondría una restricción importante a la hora de diseñar programas que hicieran cosas interesantes.

La segunda diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación “armoniosa” o “elegante”. La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual. Una lesión en el cerebro puede afectar a ciertas tareas, funciones o propiedades mentales que están directamente relacionadas con las áreas que se vean afectadas por la enfermedad o por la lesión, sin que el resto de las funciones que dependen de otras áreas no dañadas se pierdan o se alteren. Por el contrario, los sistemas computacionales artificiales se degradan, en palabras de Francis Crick, catastróficamente. La más mínima alteración de uno de sus componentes colapsa al sistema entero.

Estas diferencias entre los sistemas cognitivos naturales y los sistemas cognitivos artificiales de la vieja IA  tienen  que ver con el hecho de que la GOFAI olvidó leer a Heidegger (vale, yo tampoco). La idea de diseñar programas en los que el entorno no juega papel alguno salvo ser un simple suministrador de información es un error conceptual importante. La cognición no es algo que se produce en el interior de un sistema independientemente de las relaciones que el sistema mantiene con su entorno.

María Muñoz -Universidad Autónoma de Madrid (Dpto. de Lingüística, Lógica y Filosofía de la Ciencia)-, y Alex Díaz -Universidad Autónoma de Madrid (Dpto. de Psicología Básica)- . resumen muy bien la situación. “Aquellas capacidades que parecen dar gran ventaja a los seres vivos son la capacidad de detectar información clave sin necesidad de muestrear todo el entorno, y la coordinación de estos sistemas con el medio. Las interacciones entre ambos no se reducen a una captura de datos, más bien son un intercambio de fuerzas, de momentos de inercia y de relaciones espaciotemporales” . (Inteligencia Artificial Ecológica para una nueva generación de robots. Factótum 7, 2010, pp. 53-61). La posibilidad de construir sistemas cognitivos artificiales que se integren en su entorno y que sean capaces de dar respuestas autónomas en tiempo real pasa por lo que M. Muñoz y A. Díaz llaman “el ajuste on-line de la máquina y su entorno”

Las arquitecturas cognitivas de este tipo se les conoce como arquitecturas dinámicas.  Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal, esto es, cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt o el planímetro polar de Runeson. Dejaremos para otro día una descripción de estos sistemas. Por ahora, baste decir que son sistemas que adaptan su conducta a los cambios del entorno  al considerarlo como un medio activo cuya dinámica va a determinar los estados a través de los cuales va evolucionando el  sistema; y a su vez, la interacción que el agente mantiene con el medio va a alterar la dinámica propia del entorno, creando de esta manera un bucle entre agente y entorno en el que  los procesos cerebrales, los estados físicos del agente y el medio constituyen un único sistema acoplado. El comportamiento de este sistema acoplado puede ser descrito mediante  ecuaciones diferenciales.

Es en este contexto de arquitecturas dinámicas de sistemas cognitivos donde entra en juego la noción de affordance. El entorno en el que se encuentra un agente o los objetos que integran el entorno poseen unas propiedades que permiten al agente interactuar con ellos, percibir estas propiedades es captar las posibilidades de acción que el agente tiene en ese entorno y las posibilidades de adaptación al mismo. Adaptarse al entorno, el Dasein (perdón) consiste en percibir las affordances. Saber las posibilidades que tiene el abrebotellas es todo lo que necesito para interactuar con el objeto y no tanto los datos relativos a su peso, tamaño etc.

Este nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos.  María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno  sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.

El trabajo de María Muñoz y de Alex Díaz termina haciendo un breve repaso histórico a los intentos por construir robots con arquitecturas dinámicas. Empezando por los primeros robots ecológicos en los años 40 (Elmer & Elsie). Un primer intento de acoplar agentes entre sí para que produzcan conductas interactivas e impredecibles (tampoco gran cosa), hasta BigDog (2005) auténtica mula de carga, imagino que aptas para moverse por las montañas afganas.o su versión pequeña LittleDog (2007) desarrollados por DARPA (Defence Advanced Research Project Agency).

 Hay que reconocer que esta gente se lo pasa bien

Como al parecer nadie escarmienta en cabeza ajena, Joseph Ritter, jefe tecnológico de Intel y miembro del SIAI(Instituto de la Singularidad para la Inteligencia Artificial) ha puesto una nueva fecha: el 2050. Para este año, las capacidades de los sistemas cognitivos artificiales habrán alcanzado las habilidades del ser humano. Y nosotros que estemos para verlo


Hola, HAL. ¿Me estás leyendo, HAL?

Desde el 21 de junio de 2011 al 31 de agosto de 2012 el DHUB (Disseny Hub Barcelona) organiza una exposición sobre interactividad entre humanos y máquinas. El DHUB es un novedoso concepto en la organización y presentación de exposiciones que no debe ser considerado como un museo al uso, sino que integra una sala de exposiciones con un laboratorio en el que se experimenta con el diseño.

La exposición “Los sentidos de las máquinas I/O/I” pretende ser un lugar de reflexión sobre el desarrollo de la tecnología, sus implicaciones sociales y económicas, así como los cambios que van a generar la irrupción en nuestras vidas de sistemas artificiales con los que tendremos que lidiar. La interacción entre humanos y máquinas, y habría que añadir y de máquinas entre sí, es una consecuencia directa del desarrollo tecnológico que se está viviendo, y que va a tener, o está teniendo ya, consecuencias importantes en la concepción que tenemos de los sistemas inteligentes artificiales, y de nuestra propia noción de inteligencia. “ si la tecnología consigue desarrollar máquinas más capaces, con mayores prestaciones, más inteligentes, nuestra relación con ellas se hace más rica y compleja día a día. Nuestro «diálogo» es más proactivo, sobrepasa la acción –respuesta que hasta ahora ha definido nuestra interacción y nos permite ampliarla hasta la acción- respuesta-acción, lo que añade un nuevo peldaño en el proceso de producción de mayor inteligencia en los cerebros artificiales. Nuestras máquinas tienen cada vez más sentidos y son más inteligentes. Así, el catálogo de sus capacidades es cada vez mayor, y nuestras oportunidades de interactuar aumenta enormemente; por lo tanto, desconocemos casi todo lo que podemos conseguir del intercambio con las máquinas” (Ramon Prat. Comisario General DHUB)

Sniff in Sao Paulo, in daylight from karolina sobecka on Vimeo.

[Sniff es una pieza de Karolina Sobecka y James George que se puede contemplar en la exposición]

Los conceptos claves para entender la colaboración entre humanos y máquinas; y cómo, esta nueva forma de relación, puede ayudar a comprender algunos problemas en Filosofía de la mente o en Neurofilosofía , son los de ‘interactivismo’ y ‘dinamicismo’ y ‘emergencia’.

El ‘interactivismo’ es una concepción de la realidad que propone superar las nociones clásicas de causalidad, utilizadas en la metafísica más tradicional, por la noción de procesos interactivos. La metafísica clásica, nos dice Bickhard, [«Interactivism: A Manifesto».« The Dynamic Emergence of Representation»]  se sustenta sobre la noción de partícula y de campos de interacción entre partículas que se aplica a campos tan complejos como el estudio de los procesos mentales. Lo que el interactivismo propone es un nuevo modelo en el que se sustituye el concepto clásico de interacción entre partículas, por el de ‘procesos’. La ventaja que tiene hablar de procesos en lugar de relaciones causales clásicas, es que los procesos tienen una organización inherente, y esto configura una nueva noción de causalidad que no es rígida, sino más bien flexible, dinámica y en un continuo proceso de adaptación al entorno. Los sistemas naturales o artificiales no mantienen unas relaciones causales rígidas con su entorno, sino que cambian continuamente, se adaptan y responden a los cambios del entorno modificando sus sistemas de representación del medio. Estos cambios en los mecanismos de representación del entorno son autónomos, en el sentido de que no necesitan de un programador, y son también dinámicos.

Andy Clark

Esta noción de interactividad, tiene ya sus años, Andy Clark ya nos habla de ella en el año 1999 [Estar ahí. Cerebro cuerpo y mundo en la nueva ciencia cognitiva. Paidós]. La idea es que se pueden explicar fenómenos muy complejos, como pueden ser los sistemas de aprendizaje en máquinas, o procesos cognitivos de orden superior, a partir de la conducta colectiva de las unidades que integran o que implementan el proceso en cuestión, teniendo en cuenta que ninguno de los componentes por sí mismos, aislados del resto del sistema, pueden  desempeñar un papel crucial en el proceso en cuestión.

La tercera noción implicada es la de emergencia. En esta nueva metafísica, los procesos de los que son capaces los sistemas  son emergentes; esto quiere decir que, si bien los componentes del sistema son los que determinan la conducta global de éste, el comportamiento del sistema también determinará el comportamiento de los componentes.

Para comprender el comportamiento de un sistema desde la perspectiva emergentista, es necesario distinguir entre dos tipos de variables. De un lado tenemos la variable controlada, que determina las conductas que pueden ser manipuladas directamente; y de otro, tendríamos la variable incontrolada, también conocidas como variables colectivas, que refleja propiedades que emergen de la interacción entre múltiples parámetros y que se resisten a ser tratados de forma directa. (Para algo están las ecuaciones diferenciales)

Cuando se trata con procesos emergentes, se tiene que cambiar la noción de agente o de sistema. En los modelos dinamicistas, la noción de agente o de sistema incluye necesariamente a los elementos del entorno como elementos que pueden ser caracterizados en términos de  variables controladas  que determinan el valor que alcanzan las variables colectivas. Lo que buscan los modelos dinamicistas es explicar cómo evoluciona un sistema integrado en un entorno a lo largo del tiempo. El tiempo es una variable más en el sistema de ecuaciones que describe el comportamiento del sistema. En definitiva, una noción de sistema más amplia considera al agente y al entorno como sistemas acoplados cuya interacción y evolución mutua permite explicar fenómenos complejos (ya habrá tiempo en otra ocasión de explicar qué son los states spaces que ayudan a explicar la evolución de los sistemas)

Polygon playground. Whitevoid

La exposición a la que hacía referencia al comienzo de esta entrega que empieza  a resultar demasiado larga, se llama I/O/I (input/output/input) y pretende reflejar esa relación dinámica que se establece entre humanos y máquinas a través de los sentidos. Los sensores y transductores de los sistemas artificiales nos pueden ayudar a comprender los sistemas de representación que usamos en nuestro contacto con el mundo (el famoso ‘ser ahí’, que es el ‘ahí del ser’)

La exposición, por supuesto interactiva, muestra qué es la interacción a partir de distintos niveles, desde dispositivos simples (trasmisión de energía, emisor/receptor), hasta sistemas más complejos que permiten a las máquinas interactuar entre sí para generar conductas más complejas (en enjambre).  Estos sistemas complejos pueden ofrecer nuevas vías  de investigación en Inteligencia Artificial donde la interacción hombre-máquina sea un elemento fundamental en la configuración del “software cognitivo” de la máquina, buscando una conexión directa, sin interfaces, entre agentes naturales y artificiales.

Speaker wireless. Obra de Cheg Xu.

Se trata de una pieza interactiva en la que el dispositivo codifica los sonidos para decodificarlos posteriormente  modelando el alambre de joyería. De esta forma, se crea una obra única resultado de la interacción entre agentes artificiales y naturales

Hal.-  Afirmativo, Dave. Te leo.


Neuroarte

Creación de Charlotte Rae

Nos advierten los «filósofos humanistas», y en general todos aquellos aquejados de neurofobia, que las explicaciones reduccionistas que ofrecen las neurociencias, no digamos ya del intento de comprender la mente humana mediante el estudio de máquinas y programas inteligentes, presentan una imagen del ser humano “deshumanizada”. Dos recientes propuestas que tratan de vincular las neurociencias y la inteligencia artificial con el arte pueden ayudar a calmar los temores sobre la “deshumanización de las ciencias del hombre”, y a tender puentes entre filósofos y neurofilósofos. Aunque no sé si merecerá la pena cruzarlos.

La primera de las propuestas artísticas se ha desarrollado en el Max Planck Institute for Human Cognitive and Brain Sciences. Daniel Margulies ha convocado un concurso en el que los/as investigadores/as puedan expresar las posibilidades estéticas que ofrecen las investigaciones en el campo de las neurociencias. El objetivo último de esta curiosa convocatoria, que según Margulies surgió en la barra de un bar-para que luego digan-, no se centra solamente en ofrecer un lugar en el que los/as neurocientíficos/as puedan volcar sus expectativas o frustraciones estéticas, sino en buscar nuevas formas de presentar la complejidad de los procesos cerebrales que se van descubriendo con ayuda de las técnicas de neuroimagen.

Creación de Simon Drouin a partir de una imagen obtenida mediante una resonancia magnética tatuada en rostro

La competición se ha dividido en cuatro categorías: Representación en 3D; Conexiones cerebrales, obras abstractas y humor. Las obras que se han presentado pueden verse en el blog Neuro Bureau. Los/as ganadores/as y finalistas, así como una colección de obras seleccionadas por el jurado, serán expuestas en the National Art Museum of Québec con ocasión del Human Brain Mappingconference que se celebrará en  Québec  del 26 al 30 de junio.

La obra de R. Matthew Hutchison representa la transferencia de energía entre las redes neuronales que conforman la organización funcional del cerebro.

La segunda propuesta, en este caso musical, se produce dentro del conjunto de actividades que se desarrollan en la inauguración del Congreso Internacional sobre Inteligencia Artificial que se celebra en Barcelona en el mes de julio. En el Palau de la Música se va a representar Casparo, fragmentos de una ópera, una ópera con un trasfondo tragicómico en la que se reflexiona sobre los sistemas de aprendizaje para robots basados en la interacción con seres humanos.

Con música compuesta por el investigador Luc Steels y un libreto escrito por el neurocientífico Óscar Vilarroya, Casparo nos cuenta la historia del pobre Graciano, quien compra un robot para que le sirva de pinche de cocina y le ayude a ganar premios y dinero. Casparo, el robot, necesita interactuar con humanos para aprender, y es aquí donde interviene Rosalinda, la esposa de Graciano, que le enseña al robot habilidades que van más allá de las culinarias. No penséis mal, tan sólo le enseña a cantar, pero la interacción entre Rosalinda y Casparo se va haciendo cada vez más intensa, evidentemente contra el criterio de Graciano. Cuando Graciano piensa que« hasta aquí hemos llegado», el drama se desata y su intento de reducir a Casparo a un montón de chatarra se ve frustrado por la intervención salvadora de Rosalinda. Rosalinda y Casparo inician una feliz vida juntos, explotando las habilidades cantoras del robot.

Independientemente de que cueste trabajo imaginar a un robot cantando “La bien pagá” o “la falsa moneda”, lo que nos plantea la obra musical son dos cuestiones fundamentales en Inteligencia Artificial. La primera cuestión tiene que ver con algunos de los sistemas de aprendizaje que se usan en el diseño y programación de sistemas artificiales inteligentes. La idea es bastante simple, se trata de colocar al agente artificial en un contexto de inmersión con agentes naturales, de la misma manera que para aprender un idioma, la mejor forma de hacerlo es mediante la inmersión lingüística -Esto explica la pasta que nos gastamos para que nuestros hijos/as aprendan idiomas en el extranjero-. La segunda cuestión que se aborda, no es menos inquietante. La interacción entre humanos y robots en contextos cotidianos, y no sólo en condiciones de laboratorio, está cada vez más cerca. Esta situación lleva a los investigadores/as en IA a cuestionarse cómo reaccionarán los humanos ante la presencia de robots inteligentes, pero también a preguntarse por la reacción y la capacidad de aprendizaje que puedan tener los robots al entrar en contacto con humanos.

Un problema fundamental para los modelos de aprendizaje basados en la interacción con humanos, es la comprensión del lenguaje natural. Al congreso de Barcelona asiste Chris Welty, un especialista en lenguaje natural y uno de los ingenieros que diseñaron Watson, el sistema informático de IBM que ganó el concurso de preguntas y respuestas Jeopardy!. Lo que hace realmente interesante a este sistema, no es tanto su capacidad para ofrecer una respuesta en un tiempo extraordinariamente rápido, sino su capacidad para comprender el significado de una pregunta expresada en el lenguaje natural que usamos los humanos. Básicamente Watson es un sistema experto capaz de realizar búsquedas y comparar información en una enorme cantidad de bases de datos. En tanto que sistema experto, puede ser adaptado a múltiples contextos en los que se requiera ofrecer una información que implique cotejar una cantidad enorme de datos y realizar cálculos complejos, y todo ello en tiempo real. En la entrevista publicada por El País el 24 de julio, C. Welty anuncia que están adaptando a Watson para trabajar en un entorno de diagnóstico médico y que podría estar listo para 2012.

La facilidad de Watson para trabajar en entornos con humanos, proviene de su capacidad para comprender el lenguaje natural. La comprensión del lenguaje se realiza mediante la aplicación de algoritmos que le permiten relacionar la cuestión que se plantea con los contenidos de las base de datos a las que tiene acceso, de manera que puede dirigir la búsqueda hacia aquellas bases de datos en las que hay información pertinente obviado la búsqueda en las otras. Mediante esta estrategia las posibilidades de encontrar una respuesta adecuada y trasmitirla en tiempo real aumentan exponencialmente con respecto a las posibilidades limitadas que tenemos los humanos. En este sentido, no se puede afirmar que Watson sea un sistema de Inteligencia Artificial ya que, para su correcto funcionamiento, depende de los algoritmos que le introducen sus programadores, así como de la información contenida en las bases de datos a las que tiene acceso. No es en modo alguno un sistema con una arquitectura que le permita aprender del entorno, al parecer sigue siendo heredero de los modelos de computación simbólicos más tradicionales. Sin embargo, si será un sistema que ayude a mejorar la interacción entre humanos y máquinas.

 


¿Es posible simular el cerebro humano?

¿Pueden los avances producidos en computación, unidos a un mejor conocimiento de cómo funcionan los procesos cerebrales permitirnos construir una simulación del cerebro humano?

La respuesta es afirmativa, al menos así piensa  Luis Bettencourt, investigador en Los Alamos National Laboratory y profesor en el Santa Fe Institute, en una entrevista publicada el 9 de mayo en Scientific American.

El córtex visual humano opera a una velocidad de un petaflops. Un petaflops es una unidad que se usa para medir el rendimiento en computación de operaciones en coma flotante, que son aquellas operaciones en las que se requiere realizar operaciones aritméticas con números reales extremadamente grandes y pequeños. El acrónimo para expresar la operaciones en punto flotante por segundo es FLOPS (Floating poitn operations per seconds). Las operaciones en las que se usan unidades superiores a un FLOPS se expresan en el Sistema Internacional de unidades  mediante prefijos como  mega, giga, tera.  En concreto, un petaflops es 1015, aunque existen unidades mayores todos ellos con nombres de golosinas (zettaflops 1021  o yottaflops 1024). Supercomputadores como Tianhe 1A  de China (2,5 peta) o Blue Waters, desarrollado por la Universidad de Illiniois, pueden tener un rendimiento máximo de 10 petaflops y un rendimiento sostenido de un petaflops, por lo que en principio, se dispondría del potencial de cómputo necesario para simular los procesos cerebrales.

Tianhe 1A1

Se calcula que esta capacidad de cómputo se verá incrementada en los próximos 10 años. Para ello, los investigadores que participan El Proyecto Cerebro Humano ( HBP,) entre los que se integra la Universidad Politécnica de Madrid,  pretenden disponer de supercomputadores en 2023 y un presupuesto de 100 millones de euros anuales durante una década.

El concepto clave al que están vinculadas estas investigaciones es el de ‘simulación’. Hay al menos dos grupos de investigación dedicados a simular el cerebro humano. De un lado, el proyecto liderado por Dharmendra Modha en el IBM Almaden Research Center, y de otro, el que se desarrolla en la Ecole Polytechnique Féderale de Lausanne, dirigido por Henry Markram.

El problema, sostiene Bettencourt, es que las simulaciones que se centran en describir los procesos de sinapsis fracasan debido a la complejidad de los fenómenos que tienen que describir y a la cantidad de energía necesaria para realizar las simulaciones. Lo que el cerebro puede hacer usando 20 o 30 vatios, un supercomputador que trabaje en petaescalas necesita megavatios, así que esta sería una solución energéticamente poco eficiente. Por lo tanto, el intento de simular los disparos neuronales individualmente fracasará en su intento de simular un sistema tan complejo.

Una posible solución al problema, apunta Bettencourt, pasa por comenzar a simular sistemas más simples, como los que podemos encontrar implementados en insectos. O bien, simular estructuras cerebrales aisladas de la totalidad del sistema, por ejemplo, el sistema visual,  el sistema motor, o el lenguaje (neurosemántica).

El problema que subyace a este tipo de investigaciones en los campos de la Neurociencia y de la Inteligencia Artificial es el de si tenemos una teoría adecuada y unificada de cómo funciona un cerebro y en qué consisten los procesos cerebrales que dan lugar a procesos tan complejos como el razonamiento, las emociones o el juicio estético.

Los proyectos de investigación no pueden quedar bloqueados hasta que científicos, filósofos e ingenieros en computación se pongan de acuerdo sobre cómo trabaja el cerebro y cuál es la mejor manera de simular su funcionamiento, si finalmente es esto lo que se quiere hacer. La estrategia de trabajo que el equipo de Bettencourt están siguiendo para simular el sistema visual es la de entrenar modelos de computación  mostrando imágenes y videos obtenidos de internet y analizar cómo el sistema responde. En última instancia se trataría de entrenar un sistema artificial de la misma manera en la que el cerebro de una persona se entrena en los primeros años de su vida, y estudiar cómo el sistema puede evolucionar en el tiempo y en función de los imputs presentados. De esta manera, se pueden crear modelos que simulen la actividad cerebral en niveles de complejidad controlados, con el objetivo final de acoplar esos modelos para obtener una simulación de sistemas de complejidad mayor.

Los problemas no acaban aquí, tan sólo acaban de comenzar. Las dos estrategias de investigación lideradas por  Modha  y Markhram han generado disputas que van más allá de la competición científica. En una carta pública dirigida a Bernad Meyerson – director técnico de IBM- Markhram acusa al proyecto de Modha de ser una gran “estafa” y que su programa para simular el cerebro de un gato no fue más que un fraude.

Los dos proyectos de investigación siguen estrategias muy distintas. El proyecto de Modha trabaja con modelos de neuronas muy simples en el que se incluye tan sólo el cuerpo de la neurona y un modelo de disparo simplificado. Este modelo permite programar arquitecturas con diseño en paralelo que simulan la actividad de amplias redes neuronales. Por el contrario, la estrategia del equipo de Markham incluye modelos más complejos de neuronas en las que se tiene en cuenta las ramificaciones de las dendritas de las neuronas y la posibilidad de que la sinapsis pueda activar o inhibir el funcionamiento de las neuronas, lo que permite simular procesos que integran distintos niveles de complejidad. En definitiva, el sistema de Modha se adapta mejor a las exigencias de la ingeniería de la computación, mientras que el sistema de Markham intenta ser una simulación más cercana a los procesos biológicos reales.

En esta carrera por ser los primeros en diseñar un cerebro artificial, Modha predice que con el desarrollo de las nuevas técnicas de computación y el aumento de la capacidad de cómputo, se podrá disponer de un cerebro que funcione en tiempo real sobre el 2020.

El trasfondo de la disputa es casi de carácter semántico. ¿Qué significa “modelar el cerebro”? ¿la simulación de inteligencia es inteligencia?. Este es un problema que viene de lejos, tan lejos como el test de Turing para detectar inteligencia en programas.  Lo que se argumenta es que una función o un proceso  simulado, por muy bien simulado que esté, no es una función o un proceso genuino. La simulación de un formula 1 de cartón piedra, por muy bien hecha que esté,  dudo mucho que pueda ayudar a Fernando Alonso a ganar algún premio. De ahí que simular las funciones del cerebro, simular la inteligencia no nos aproximará a la inteligencia misma, nos dicen los filósofos que creen que las funciones y procesos cerebrales dependen de algo más que simples algoritmos matemáticos.

Jack Copeland (Inteligencia artificial. Alianza universidad) ofrece una solución a estas objeciones. La solución pasa por distinguir entre lo que podíamos denominar Simulación1, que sería un tipo de simulación simple en la que no se recogen características esenciales de aquello que se quiere simular; y Simulación2, que es aquella que reproduce exactamente lo simulado.

Si los programas de investigación que pretenden simular el cerebro quieren alcanzar un nivel de Simulación2, deben ser arquitecturas complejas en las que se reproduzcan en sus modelos  las peculiaridades biológicas inherentes al cerebro.  En esta línea de investigación resultan especialmente interesantes los trabajos realizados en el campo de la neurosemántica por C. Eliasmith o D. Ryder. Pero eso será una historia para otro día.


A %d blogueros les gusta esto: