Semana del conocimiento del cerebro

Desde hace ya diecisiete años se viene celebrando la “Semana del Conocimiento del Cerebro”. Se trata de una campaña global organizada por la Dana Alliance for Brain Initiatives and European Dana Alliance for the Brain, que tiene como objetivos difundir los progresos que se han realizado en la investigación del cerebro. En esta campaña colaboran universidades, agencias de investigación, hospitales y otras organizaciones que de manera muy diversa aúnan esfuerzos por difundir las investigaciones y avances que se producen en el conocimiento del cerebro.

Durante 2012 en Barcelona se celebrará  la  VIII Conferencia Bienal de la Federación Europea de Sociedades de Neurociencia(FENS) y en Granada, el Parque de las Ciencias en colaboración con Fundación de Neurociencias de Nueva York, acogerá la exposición  “Brain. The inside Story”.

El Parque de las Ciencias de Granada será así el primer centro europeo al que llegará la muestra que es el resultado de la colaboración entre el Museo Americano de Historia Natural (AMNH), el museo chino Guandong Science Center y el propio Parque de las Ciencias. La exposición traza un recorrido por el cerebro y su actividad y está estructurada en cinco áreas: ‘El cerebro que siente’; ‘El cerebro emocional’; ‘El cerebro pensante’; ‘El cerebro en desarrollo’ y ‘El cerebro del siglo XXI’.  Se trata de una exposición interactiva en la que los visitantes podrán medir su memoria o comprobar la influencia de las emociones al tomar decisiones.

El Parque de las Ciencias incluye entre sus actividades previstas para la celebración de la “Semana del Conocimiento del cerebro” un programa de actos desde el 9 al 18 de marzo de 2012 que se inaugura con la conferencia “Los engaños de la mente: cómo los trucos de magia desvelan el funcionamiento del cerebro” a cargo de  Susana Martínez-Conde Drta. Lab. Neurociencia Visual Barrow Neurological Institute. Phoenix. USA y Miguel Puga. “Mago Migue” Mago.

También, en colaboración con el Instituto Federico Oloriz de la Universidad de Granada y el Centro de Profesores de la Consejería de Educación, organiza  el “Curso de actualización científica: El cerebro”, que tiene como objetivo profundizar en la anatomía, fisiología y coordinación del cerebro.

El calendario internacional de actividades puede verse en Brain Awareness Week 


“Idiots, Stupid and Criminal Students”

El análisis de la conducta de los adolescentes ha oscilado entre la comprensión paternalista y el desprecio más absoluto. En la actuación de Les Luthiers “Visita a la universidad de Wildstone”, el guión del documental traduce las palabras que usa el rector para referirse a sus alumnos: “idiots, estupids and criminal students” como “traviesos y pícaros estudiantes”. “A este niño le falta un hervor”; “ ¡ a ver cuándo maduras!” son expresiones que suelen ser utilizadas por los adultos cuando tratan, curiosamente a la vez, de recriminar y de explicar la conducta alocada, pícara, disoluta y en ocasiones idiota, estúpida y criminal de los adolescentes. ¿Es por tanto este un periodo en la vida de las personas que debe ser superado cuanto antes para poder ingresar así en la vida adulta? Una respuesta simple diría que sí, que efectivamente los adolescentes deben superar lo antes posible este estado alterado de su naturaleza para poder centrarse en aquello que realmente tiene importancia y hacerse de este modo unas personas de provecho y con futuro. Sin embargo, los estudios que se han realizado sobre el desarrollo cerebral en adolescentes muestran que esta etapa, con sus locuras e imprudencias, tiene una mayor importancia en el desarrollo de la persona de lo que hasta ahora se pensaba y que, precisamente, alargar el periodo de la adolescencia puede haber sido una respuesta ante los retos que supone la vida adulta.

En el trabajo recientemente publicado de David Dobbs “Beautiful Teenage Brains” (National Geographic, Octubre 2011), se comentan los estudios que se realizaron durante la década de los 90 en el NIH (National Institutes of Health) en adolescentes usando técnicas de imagenería cerebral que permiten conocer la evolución del cerebro desde la etapa infantil a la adulta, pasando por la controvertida adolescencia. El objetivo de estos trabajos era no sólo conocer los cambios anatómicos y neuroquímicos relevantes para explicar la conducta adolescente, si no también encontrar una explicación del papel que juega la adolescencia en la formación de la persona adulta, así como las relaciones, a menudo conflictivas, que se dan entre padres e hijos en esta etapa.

 Lo característico de adolescencia es que el tamaño del cerebro se ha clausurado, sin embargo lo que aumenta significativamente es su “recableado”, esto es, la complejidad de las conexiones entre neuronas que permiten la formación de redes que integran distintas áreas del cerebro. En este proceso tiene un papel fundamental la mielina. La mielina es una sustancia grasienta que recubre los axones de las neuronas y que facilita que los impulsos eléctricos viajen a la velocidad adecuada y lleguen con la sincronización necesaria para que las funciones que son implementadas en la red se realicen de forma eficaz. Se ha detectado que en la etapa comprendida entre los 12 y 25 años la mielinización aumenta significativamente, con lo que se ‘dispara’ la velocidad de conexión entre áreas muy distantes entre sí del cerebro.

En esta etapa de maduración cerebral aumentan también las conexiones del cuerpo calloso, el haz de fibras que unen los dos hemisferios; la complejidad de las conexiones en el córtex frontal y también el hipocampo. Es especialmente interesante las conexiones que se establecen entre el hipocampo y el córtex frontal, esto explicaría el papel que en la adolescencia juega el recuerdo de experiencias pasadas y su integración en la toma de decisiones. Es propio de adolescentes que las experiencias que les suceden, especialmente aquellas relacionadas con la interacción entre iguales y las redes sociales que van tejiendo, se vivan de forma muy intensa, de ahí que integrar las experiencias, las desilusiones y triunfos que se sufren a esta edad jueguen un papel fundamental en la toma de decisiones.

Cuando el desarrollo de una adolescente es normal, el equilibrio entre los impulsos, los deseos y conflictos de todo tipo, se resuelvan normalmente. Sin embargo, el equilibrio es muy inestable y los ajustes se producen de forma chapucera. Al fin y al cabo ya vimos que nuestro cerebro es una monumental chapuza (kluge).

Beatriz Luna, investigadora especializada en la conducta de adolescentes, realizó unos test experimentales sencillos para investigar la capacidad de inhibición de impulsos en adolescentes (Luna, B. y varios (2010)Immaturities in reward processing and its influence on inhibitory control in adolescence. Cereb Cortexl;20(7):1613-29). La tarea es sencilla, en una pantalla, por supuesto a modo de video juego, se le presentan al sujeto unos estímulos visuales. Los monitores les solicitan a los sujetos que intenten evitar dirigir la mirada hacia esos puntos de luz y que se concentren en otras áreas de la pantalla. La monitorización de la actividad cerebral de los sujetos mientras realizan la tarea muestra que a los niños/as a la edad de aproximada de 10 años les cuesta trabajo seguir las instrucciones y suelen sucumbir al impulso de la novedad y la curiosidad por lo prohibido (los estímulos visuales que tienen que tratar de evitar). Es a partir de los 15 años cuando la conducta se asemeja a la de los adultos y consiguen evitar la tentación de mirar al lugar prohibido. Lo realmente interesante es que los adolescentes hacen un uso menor de áreas relacionadas con la planificación y la concentración que los adultos que sí son capaces de utilizar estas áreas de forma automática para realizar la tarea, aunque los resultados mejoran cuando la tarea es recompensada.
Dobbs concluye que la menor utilización de estas áreas explicaría la inconsistencia que es propia en la conducta adolescente. Los adolescentes estarían empezando a aprender cómo usar estas áreas, y es por ello que el estrés, el cansancio o los problemas puedan causar fallos en el recableado de las redes, especialmente las que estarían relacionadas con la planificación de conductas o el análisis de las consecuencias de nuestras acciones.

Los trabajos de Sara-Jayne Blakemore del UCL (Institute Cognitive Neuroscience) apuntan en la misma dirección. Las imágenes tomadas mediante resonancia magnética en jóvenes que hacían un trabajo en el que tenían que planificar una tarea mientras evitaban una labor de distracción mostraron que en el córtex frontal había una gran actividad, aunque siguiendo patrones de trabajo caóticos. La dificultad a distraerse en clase y la facilidad con la que se evaden, especialmente en las clases de filosofía, es algo natural si se piensa que las áreas encargadas de la planificación y concentración están aún en periodo de formación. (Por qué a los adolescentes les cuesta trabajo concentrarse)

[Que fácil es evadirse de las clases ]
Desde una perspectiva evolutiva, la inconsistencia, los repentinos cambios de humor, la imprudencia de los actos de un adolescente, cumpliría una función adaptativa. Los rasgos problemáticos de la conducta adolescente (evitaré poner ejemplos para no delatarme) son fundamentales para la adaptación a un mundo totalmente cambiante y lleno de sorpresas. En definitiva, se trataría del proceso necesario para preparar al adolescente para “abandonar el nido”

Laurence Steinberg, psicólogo especializado en adolescente en la Temple University ha realizado unas investigaciones en las que se valoran los refuerzos sociales que reciben los adolescentes en sus juegos. En los videojuegos que tienen que resolver, la estrategia ganadora es aquella que consigue mantener un equilibrio entre el riesgo y una actitud “más conservadora”. Normalmente los sujetos consiguen resolver bien la tarea aunque hay diferencias entre el nivel de riesgo que algunos están dispuestos a asumir. Sin embargo, la conducta se modifica significativamente cuando hay observadores también adolescentes. En estos casos, el comportamiento es más agresivo y aumenta el riesgo que se normalmente se está dispuesto a asumir.

La verdad es que no se si sería necesario tanto experimento. Cualquiera que ha jugado a baloncesto habrá sufrido los codazos del colega que se sabe observado por alguna chica por la que siente interés, y todos hemos podido ver cómo ese jugador tranquilo, pasador y sacrificado defensor de los intereses de su equipo se vuelve agresivo, egoísta en su juego y un auténtico “idiot, estupid and criminal player”.

Esta conducta muchas veces imprudente y que coloca a los adolescentes ante situaciones de auténtico riesgo, se produce porque evalúan el coste riesgo-recompensa de forma diferente a la de los adultos. En esta etapa la recompensa se valora en mayor medida que las consecuencias de nuestros actos, y esta recompensa es especialmente valorada cuando se trata de una recompensa social. Quizá esto explique la absurda tendencia de colgar en youtube las “hazañas” o los actos, en muchos casos de pésimos gusto, y de alto riesgo, que realizan los jóvenes. Esta tendencia a correr riesgos podría proporcionar una ventaja adaptativa que se concretaría en una mayor capacidad para asumir situaciones novedosas y la toma de decisiones en contextos novedosos.

Dopamina

El aumento de los niveles de dopamina ligados a la recompensa emocional ayuda al fortalecimiento de las redes neuronales que se construyen y al aprendizaje de patrones de conducta. (Pleger B. et al. (2009). Influence of dopaminergically mediated reward on somatosensory decision making. PLoS Biol 7(7) A su vez, un mayor nivel de oxitocina ayudará a mejorar las relaciones sociales. Son los adolescentes los que pueden ofrecer situaciones novedosas y más atractivas que los adultos, de ahí la tendencia a relacionarse entre iguales. Tendencia que se ve acrecentada por la aparición de las redes sociales en internet. El círculo entre redes sociales y sistemas de recompensa social se ha cerrado finalmente.

Por otro lado, y esto es lo novedoso del estudio, una explicación alternativa nos dice que lo que hacen los adolescentes con su extraña conducta es invertir en el futuro. La mayor parte de la vida que le espera a un adolescente cuando pase a su etapa adulta se va a desarrollar entre los que ahora son adolescentes y no en el mundo construido por sus padres/madres. Esto es especialmente evidente en aquellas sociedades abiertas y en continuo cambio frente a las sociedades cerradas y más conservadoras. Conocer a sus iguales y comprender cómo se establecen las relaciones sociales aumentan las posibilidades de éxito.

El difícil papel de los padres. La cultura no crea la adolescencia, este es un fenómeno universal propio de nuestra especie, pero sí la moldea y fija la manera en la que se manifiesta en las distintas tradiciones y también su duración. Es en el seno de una cultura donde los padres tienen que lidiar con sus hijos/as adolescentes. Son estos los momentos de las grandes discusiones en las cocinas de las casas, de las negociaciones interminables para fijar la hora de llegada y la adecuación del vestuario de salida, y donde se pedirán las explicaciones oportunas por unos malos resultados académicos o alguna situación comprometida. Cuando uno ha estado en los dos lados de la trinchera llega a tener un cierto conocimiento de causa, y al parecer los adolescentes, en algún momento de su vida saben que la información y la experiencia que uno ha adquirido pueden serles útiles. Los padres pueden ofrecer algún tipo de guía o de conocimiento sobre cómo funcionan las relaciones sociales y otros grandes enigmas de la juventud. Este es el gran reto, nada fácil por otro lado, porque los adolescentes tienen que considerar que sus padres/madres están capacitados para ofrecer esta información, y los poadres/madres deben ser capaces de dar ese consejo llegado el caso. Y eso en un mundo tan heraclíteo como este es francamente difícil.

La prolongación de la adolescencia puede ser una respuesta evolutiva para adaptarse a un entorno cada vez más confuso y cambiante. La mielinización aporta una mayor velocidad de conexión y firmeza en las redes neuronales que se construyen; sin embargo, dificulta la aparición de nuevas conexiones en los axones, frenando de este modo la plasticidad cerebral. Por ejemplo, las áreas responsables del lenguaje quedan clausuradas a los 13 años. A esta edad se afianza el uso correcto de la lengua, pero con la clausura el precio que se paga es la dificultad para aprender una nueva lengua. La prolongación de la adolescencia, y soportar a adolescentes de 20 años, es la estrategia para conseguir una mayor flexibilidad y una mejor capacidad de adaptación a un medio inseguro y en un continuo proceso de cambio.

Las referencias a este artículo y su acusación de paternalismo no se han tardado. Simon Fischweicher “ The Neurological Excuse for Your Teen’s Idiotic Decisions” ha comentado que el artículo de Dobbs no debe caer en manos de adolescentes para evitar que estos recurran a explicaciones neurobiológicas que les permitan justificar su alocado comportamiento. La verdad es que no me imagino a mi hija diciendo “lo siento papá pero estoy neuroquímicamente programada para sobrevalorar las recompensas sociales, y eso bloquea la acción de mi córtex frontal para evaluar las consecuencias de mis actos, por lo que debes considerar normal que no dedicase el tiempo suficiente a preparar mi examen y si a ir al ‘Oboe’ (pub de moda entre la juventud motrileña). Sinceramente no veo peligro alguno en que los adolescentes lean los trabajos de Dobbs y los demás investigadores especializados en conducta de adolescentes. Es como se prohibiésemos a los hombres casados leer los trabajos en antropología evolutiva o sociobiología sobre la infidelidad, por temor a que los usen como argumentos ante una posible demanda de divorcio. Comprender el funcionamiento de la mente de los adolescentes, si es que esto es posible, puede servir de ayuda a los padres para tratar con sus hijos las posibles situaciones conflictivas a las que se puedan enfrentar, pero también puede ayudar a los jóvenes a comprender aspectos de su comportamiento que les resultan extraños y que aprendan a sopesar si merece la pena correr determinados riesgos.
Wordle: Adolescencia


Inteligencia Artificial Ecológica y ¡affordances por un tubo!

Imagen de la película EVA

Cuando mi amigo Manuel Heras, predoctoral  filosoia y neurociencias.) me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue “¡¡affordances por un tubo!!”. Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra ‘affordance’ en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.

“En veinte años las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda llevar acabo”.  Probablemente esta debería ser una de esas frases que encabezaran la lista de frases desafortunadas en la historia. Cuando en 1965 Herbert Simon  dijo esto,  debía de estar en la fase de “exaltación de la amistad y euforia” que antecede a la de “cánticos populares” y que termina con “insultos a la autoridad y al clero”. No recuerdo si “negación de la evidencia” (yo estoy bien mira, mira, -conectando con la mano abierta rodilla y nariz- era el principio o el final del proceso). El caso es que en aquellos años se las veían muy felices desarrollando programas informáticos que trataban de simular la conducta humana.

Genghis scrambling over rough terrain, and following a mammal

El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church , todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial. Dado que los sistemas cognitivos son sistemas que pueden ser descritos computacionalmente,  no hay en principio restricción alguna de tipo formal para diseñar programas que realicen las actividades que realiza todo ser humano.  Este es el origen de lo que se ha conocido como la GOFAI (“Good Old-Fashioned Artificial Intelligence“) ampliada ahora a la GOFAIR (“Good Old-Fashioned Artificial Intelligence and Robotics”).  Todo parecía tan fácil como manipular símbolos, diseñando programas, e implementar esos programas en un sistema de cómputo que siguiese el esquema E-P-S [Entrada (de información)-Procesamiento-Salida(de información)]

La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: “Por “inteligencia artificial”, en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular”

Sin embargo, la cosa no iba a ser tan simple. Marvin Minsky en su libro La sociedad de la mente (1986) nos alertaba de  lo complejo que resulta programar a una máquina para que realice tareas tan sencillas como construir una torre con los típicos bloques de construcción con los que juegan los niños. El diseño, en los años setenta, de un programa llamado Constructor, realizado por el propio Minsky y Seymour Papert , que integraba una mano mecánica equipada con sensores táctiles y cámara de televisión y que tenía como tarea distinguir y seleccionar los bloque apropiados para hacer una construcción estable, permitió descubrir en palabras de Minsky que: […] muchas cuestiones cotidianas eran mucho más complicadas que la clase de problemas, acertijos y juegos que los adultos consideran difíciles. […] Limitémonos a considerar ese problema, aparentemente simple, de no volver a utilizar bloques que ya han sido incorporados a la torre. A una persona esto se le antoja mero sentido común: «no utilices un objeto para cumplir un nuevo propósito si ese objeto ya está dedicado a realizar un propósito anterior». Nadie sabe con exactitud cómo es que la mente humana resuelve esto.”

 Parece por lo tanto evidente que el cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que  debe resolver. Esta situación da lugar a lo que Tienson llama una “explosión computacional inmanejable”. La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.

El segundo de los problemas que tienen los sistemas de computación simbólicos es que su arquitectura es muy distinta de los sistemas naturales. Los sistemas neuronales naturales son muy lentos, unas 1016 veces más lentos que los ordenadores. Un cambio de posición de 0 a 1 en un dispositivo electrónico tarda una milmillonésima de segundo, mientras que una neurona necesita una milésima de segundo para responder a una estimulación. Esta limitación en la velocidad de procesamiento se conoce como «la limitación de los 100 pasos». La idea es que si un cerebro natural tuviese que realizar las tareas habituales siguiendo el modelo que propone la IA clásica, entonces, dado el tiempo que tarda una neurona en responder a la estimulación electroquímica, el cerebro necesitaría al menos de esa cantidad de tiempo, una milésima de segundo, para realizar cada instrucción del programa. Por lo tanto, el número máximo de operaciones que puede ejecutar en una décima de segundo es 100. Esto supondría una restricción importante a la hora de diseñar programas que hicieran cosas interesantes.

La segunda diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación “armoniosa” o “elegante”. La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual. Una lesión en el cerebro puede afectar a ciertas tareas, funciones o propiedades mentales que están directamente relacionadas con las áreas que se vean afectadas por la enfermedad o por la lesión, sin que el resto de las funciones que dependen de otras áreas no dañadas se pierdan o se alteren. Por el contrario, los sistemas computacionales artificiales se degradan, en palabras de Francis Crick, catastróficamente. La más mínima alteración de uno de sus componentes colapsa al sistema entero.

Estas diferencias entre los sistemas cognitivos naturales y los sistemas cognitivos artificiales de la vieja IA  tienen  que ver con el hecho de que la GOFAI olvidó leer a Heidegger (vale, yo tampoco). La idea de diseñar programas en los que el entorno no juega papel alguno salvo ser un simple suministrador de información es un error conceptual importante. La cognición no es algo que se produce en el interior de un sistema independientemente de las relaciones que el sistema mantiene con su entorno.

María Muñoz -Universidad Autónoma de Madrid (Dpto. de Lingüística, Lógica y Filosofía de la Ciencia)-, y Alex Díaz -Universidad Autónoma de Madrid (Dpto. de Psicología Básica)- . resumen muy bien la situación. “Aquellas capacidades que parecen dar gran ventaja a los seres vivos son la capacidad de detectar información clave sin necesidad de muestrear todo el entorno, y la coordinación de estos sistemas con el medio. Las interacciones entre ambos no se reducen a una captura de datos, más bien son un intercambio de fuerzas, de momentos de inercia y de relaciones espaciotemporales” . (Inteligencia Artificial Ecológica para una nueva generación de robots. Factótum 7, 2010, pp. 53-61). La posibilidad de construir sistemas cognitivos artificiales que se integren en su entorno y que sean capaces de dar respuestas autónomas en tiempo real pasa por lo que M. Muñoz y A. Díaz llaman “el ajuste on-line de la máquina y su entorno”

Las arquitecturas cognitivas de este tipo se les conoce como arquitecturas dinámicas.  Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal, esto es, cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt o el planímetro polar de Runeson. Dejaremos para otro día una descripción de estos sistemas. Por ahora, baste decir que son sistemas que adaptan su conducta a los cambios del entorno  al considerarlo como un medio activo cuya dinámica va a determinar los estados a través de los cuales va evolucionando el  sistema; y a su vez, la interacción que el agente mantiene con el medio va a alterar la dinámica propia del entorno, creando de esta manera un bucle entre agente y entorno en el que  los procesos cerebrales, los estados físicos del agente y el medio constituyen un único sistema acoplado. El comportamiento de este sistema acoplado puede ser descrito mediante  ecuaciones diferenciales.

Es en este contexto de arquitecturas dinámicas de sistemas cognitivos donde entra en juego la noción de affordance. El entorno en el que se encuentra un agente o los objetos que integran el entorno poseen unas propiedades que permiten al agente interactuar con ellos, percibir estas propiedades es captar las posibilidades de acción que el agente tiene en ese entorno y las posibilidades de adaptación al mismo. Adaptarse al entorno, el Dasein (perdón) consiste en percibir las affordances. Saber las posibilidades que tiene el abrebotellas es todo lo que necesito para interactuar con el objeto y no tanto los datos relativos a su peso, tamaño etc.

Este nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos.  María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno  sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.

El trabajo de María Muñoz y de Alex Díaz termina haciendo un breve repaso histórico a los intentos por construir robots con arquitecturas dinámicas. Empezando por los primeros robots ecológicos en los años 40 (Elmer & Elsie). Un primer intento de acoplar agentes entre sí para que produzcan conductas interactivas e impredecibles (tampoco gran cosa), hasta BigDog (2005) auténtica mula de carga, imagino que aptas para moverse por las montañas afganas.o su versión pequeña LittleDog (2007) desarrollados por DARPA (Defence Advanced Research Project Agency).

 Hay que reconocer que esta gente se lo pasa bien

Como al parecer nadie escarmienta en cabeza ajena, Joseph Ritter, jefe tecnológico de Intel y miembro del SIAI(Instituto de la Singularidad para la Inteligencia Artificial) ha puesto una nueva fecha: el 2050. Para este año, las capacidades de los sistemas cognitivos artificiales habrán alcanzado las habilidades del ser humano. Y nosotros que estemos para verlo


Hola, HAL. ¿Me estás leyendo, HAL?

Desde el 21 de junio de 2011 al 31 de agosto de 2012 el DHUB (Disseny Hub Barcelona) organiza una exposición sobre interactividad entre humanos y máquinas. El DHUB es un novedoso concepto en la organización y presentación de exposiciones que no debe ser considerado como un museo al uso, sino que integra una sala de exposiciones con un laboratorio en el que se experimenta con el diseño.

La exposición “Los sentidos de las máquinas I/O/I” pretende ser un lugar de reflexión sobre el desarrollo de la tecnología, sus implicaciones sociales y económicas, así como los cambios que van a generar la irrupción en nuestras vidas de sistemas artificiales con los que tendremos que lidiar. La interacción entre humanos y máquinas, y habría que añadir y de máquinas entre sí, es una consecuencia directa del desarrollo tecnológico que se está viviendo, y que va a tener, o está teniendo ya, consecuencias importantes en la concepción que tenemos de los sistemas inteligentes artificiales, y de nuestra propia noción de inteligencia. “ si la tecnología consigue desarrollar máquinas más capaces, con mayores prestaciones, más inteligentes, nuestra relación con ellas se hace más rica y compleja día a día. Nuestro «diálogo» es más proactivo, sobrepasa la acción –respuesta que hasta ahora ha definido nuestra interacción y nos permite ampliarla hasta la acción- respuesta-acción, lo que añade un nuevo peldaño en el proceso de producción de mayor inteligencia en los cerebros artificiales. Nuestras máquinas tienen cada vez más sentidos y son más inteligentes. Así, el catálogo de sus capacidades es cada vez mayor, y nuestras oportunidades de interactuar aumenta enormemente; por lo tanto, desconocemos casi todo lo que podemos conseguir del intercambio con las máquinas” (Ramon Prat. Comisario General DHUB)

Sniff in Sao Paulo, in daylight from karolina sobecka on Vimeo.

[Sniff es una pieza de Karolina Sobecka y James George que se puede contemplar en la exposición]

Los conceptos claves para entender la colaboración entre humanos y máquinas; y cómo, esta nueva forma de relación, puede ayudar a comprender algunos problemas en Filosofía de la mente o en Neurofilosofía , son los de ‘interactivismo’ y ‘dinamicismo’ y ‘emergencia’.

El ‘interactivismo’ es una concepción de la realidad que propone superar las nociones clásicas de causalidad, utilizadas en la metafísica más tradicional, por la noción de procesos interactivos. La metafísica clásica, nos dice Bickhard, [«Interactivism: A Manifesto».« The Dynamic Emergence of Representation»]  se sustenta sobre la noción de partícula y de campos de interacción entre partículas que se aplica a campos tan complejos como el estudio de los procesos mentales. Lo que el interactivismo propone es un nuevo modelo en el que se sustituye el concepto clásico de interacción entre partículas, por el de ‘procesos’. La ventaja que tiene hablar de procesos en lugar de relaciones causales clásicas, es que los procesos tienen una organización inherente, y esto configura una nueva noción de causalidad que no es rígida, sino más bien flexible, dinámica y en un continuo proceso de adaptación al entorno. Los sistemas naturales o artificiales no mantienen unas relaciones causales rígidas con su entorno, sino que cambian continuamente, se adaptan y responden a los cambios del entorno modificando sus sistemas de representación del medio. Estos cambios en los mecanismos de representación del entorno son autónomos, en el sentido de que no necesitan de un programador, y son también dinámicos.

Andy Clark

Esta noción de interactividad, tiene ya sus años, Andy Clark ya nos habla de ella en el año 1999 [Estar ahí. Cerebro cuerpo y mundo en la nueva ciencia cognitiva. Paidós]. La idea es que se pueden explicar fenómenos muy complejos, como pueden ser los sistemas de aprendizaje en máquinas, o procesos cognitivos de orden superior, a partir de la conducta colectiva de las unidades que integran o que implementan el proceso en cuestión, teniendo en cuenta que ninguno de los componentes por sí mismos, aislados del resto del sistema, pueden  desempeñar un papel crucial en el proceso en cuestión.

La tercera noción implicada es la de emergencia. En esta nueva metafísica, los procesos de los que son capaces los sistemas  son emergentes; esto quiere decir que, si bien los componentes del sistema son los que determinan la conducta global de éste, el comportamiento del sistema también determinará el comportamiento de los componentes.

Para comprender el comportamiento de un sistema desde la perspectiva emergentista, es necesario distinguir entre dos tipos de variables. De un lado tenemos la variable controlada, que determina las conductas que pueden ser manipuladas directamente; y de otro, tendríamos la variable incontrolada, también conocidas como variables colectivas, que refleja propiedades que emergen de la interacción entre múltiples parámetros y que se resisten a ser tratados de forma directa. (Para algo están las ecuaciones diferenciales)

Cuando se trata con procesos emergentes, se tiene que cambiar la noción de agente o de sistema. En los modelos dinamicistas, la noción de agente o de sistema incluye necesariamente a los elementos del entorno como elementos que pueden ser caracterizados en términos de  variables controladas  que determinan el valor que alcanzan las variables colectivas. Lo que buscan los modelos dinamicistas es explicar cómo evoluciona un sistema integrado en un entorno a lo largo del tiempo. El tiempo es una variable más en el sistema de ecuaciones que describe el comportamiento del sistema. En definitiva, una noción de sistema más amplia considera al agente y al entorno como sistemas acoplados cuya interacción y evolución mutua permite explicar fenómenos complejos (ya habrá tiempo en otra ocasión de explicar qué son los states spaces que ayudan a explicar la evolución de los sistemas)

Polygon playground. Whitevoid

La exposición a la que hacía referencia al comienzo de esta entrega que empieza  a resultar demasiado larga, se llama I/O/I (input/output/input) y pretende reflejar esa relación dinámica que se establece entre humanos y máquinas a través de los sentidos. Los sensores y transductores de los sistemas artificiales nos pueden ayudar a comprender los sistemas de representación que usamos en nuestro contacto con el mundo (el famoso ‘ser ahí’, que es el ‘ahí del ser’)

La exposición, por supuesto interactiva, muestra qué es la interacción a partir de distintos niveles, desde dispositivos simples (trasmisión de energía, emisor/receptor), hasta sistemas más complejos que permiten a las máquinas interactuar entre sí para generar conductas más complejas (en enjambre).  Estos sistemas complejos pueden ofrecer nuevas vías  de investigación en Inteligencia Artificial donde la interacción hombre-máquina sea un elemento fundamental en la configuración del “software cognitivo” de la máquina, buscando una conexión directa, sin interfaces, entre agentes naturales y artificiales.

Speaker wireless. Obra de Cheg Xu.

Se trata de una pieza interactiva en la que el dispositivo codifica los sonidos para decodificarlos posteriormente  modelando el alambre de joyería. De esta forma, se crea una obra única resultado de la interacción entre agentes artificiales y naturales

Hal.-  Afirmativo, Dave. Te leo.


Neuroarte

Creación de Charlotte Rae

Nos advierten los «filósofos humanistas», y en general todos aquellos aquejados de neurofobia, que las explicaciones reduccionistas que ofrecen las neurociencias, no digamos ya del intento de comprender la mente humana mediante el estudio de máquinas y programas inteligentes, presentan una imagen del ser humano “deshumanizada”. Dos recientes propuestas que tratan de vincular las neurociencias y la inteligencia artificial con el arte pueden ayudar a calmar los temores sobre la “deshumanización de las ciencias del hombre”, y a tender puentes entre filósofos y neurofilósofos. Aunque no sé si merecerá la pena cruzarlos.

La primera de las propuestas artísticas se ha desarrollado en el Max Planck Institute for Human Cognitive and Brain Sciences. Daniel Margulies ha convocado un concurso en el que los/as investigadores/as puedan expresar las posibilidades estéticas que ofrecen las investigaciones en el campo de las neurociencias. El objetivo último de esta curiosa convocatoria, que según Margulies surgió en la barra de un bar-para que luego digan-, no se centra solamente en ofrecer un lugar en el que los/as neurocientíficos/as puedan volcar sus expectativas o frustraciones estéticas, sino en buscar nuevas formas de presentar la complejidad de los procesos cerebrales que se van descubriendo con ayuda de las técnicas de neuroimagen.

Creación de Simon Drouin a partir de una imagen obtenida mediante una resonancia magnética tatuada en rostro

La competición se ha dividido en cuatro categorías: Representación en 3D; Conexiones cerebrales, obras abstractas y humor. Las obras que se han presentado pueden verse en el blog Neuro Bureau. Los/as ganadores/as y finalistas, así como una colección de obras seleccionadas por el jurado, serán expuestas en the National Art Museum of Québec con ocasión del Human Brain Mappingconference que se celebrará en  Québec  del 26 al 30 de junio.

La obra de R. Matthew Hutchison representa la transferencia de energía entre las redes neuronales que conforman la organización funcional del cerebro.

La segunda propuesta, en este caso musical, se produce dentro del conjunto de actividades que se desarrollan en la inauguración del Congreso Internacional sobre Inteligencia Artificial que se celebra en Barcelona en el mes de julio. En el Palau de la Música se va a representar Casparo, fragmentos de una ópera, una ópera con un trasfondo tragicómico en la que se reflexiona sobre los sistemas de aprendizaje para robots basados en la interacción con seres humanos.

Con música compuesta por el investigador Luc Steels y un libreto escrito por el neurocientífico Óscar Vilarroya, Casparo nos cuenta la historia del pobre Graciano, quien compra un robot para que le sirva de pinche de cocina y le ayude a ganar premios y dinero. Casparo, el robot, necesita interactuar con humanos para aprender, y es aquí donde interviene Rosalinda, la esposa de Graciano, que le enseña al robot habilidades que van más allá de las culinarias. No penséis mal, tan sólo le enseña a cantar, pero la interacción entre Rosalinda y Casparo se va haciendo cada vez más intensa, evidentemente contra el criterio de Graciano. Cuando Graciano piensa que« hasta aquí hemos llegado», el drama se desata y su intento de reducir a Casparo a un montón de chatarra se ve frustrado por la intervención salvadora de Rosalinda. Rosalinda y Casparo inician una feliz vida juntos, explotando las habilidades cantoras del robot.

Independientemente de que cueste trabajo imaginar a un robot cantando “La bien pagá” o “la falsa moneda”, lo que nos plantea la obra musical son dos cuestiones fundamentales en Inteligencia Artificial. La primera cuestión tiene que ver con algunos de los sistemas de aprendizaje que se usan en el diseño y programación de sistemas artificiales inteligentes. La idea es bastante simple, se trata de colocar al agente artificial en un contexto de inmersión con agentes naturales, de la misma manera que para aprender un idioma, la mejor forma de hacerlo es mediante la inmersión lingüística -Esto explica la pasta que nos gastamos para que nuestros hijos/as aprendan idiomas en el extranjero-. La segunda cuestión que se aborda, no es menos inquietante. La interacción entre humanos y robots en contextos cotidianos, y no sólo en condiciones de laboratorio, está cada vez más cerca. Esta situación lleva a los investigadores/as en IA a cuestionarse cómo reaccionarán los humanos ante la presencia de robots inteligentes, pero también a preguntarse por la reacción y la capacidad de aprendizaje que puedan tener los robots al entrar en contacto con humanos.

Un problema fundamental para los modelos de aprendizaje basados en la interacción con humanos, es la comprensión del lenguaje natural. Al congreso de Barcelona asiste Chris Welty, un especialista en lenguaje natural y uno de los ingenieros que diseñaron Watson, el sistema informático de IBM que ganó el concurso de preguntas y respuestas Jeopardy!. Lo que hace realmente interesante a este sistema, no es tanto su capacidad para ofrecer una respuesta en un tiempo extraordinariamente rápido, sino su capacidad para comprender el significado de una pregunta expresada en el lenguaje natural que usamos los humanos. Básicamente Watson es un sistema experto capaz de realizar búsquedas y comparar información en una enorme cantidad de bases de datos. En tanto que sistema experto, puede ser adaptado a múltiples contextos en los que se requiera ofrecer una información que implique cotejar una cantidad enorme de datos y realizar cálculos complejos, y todo ello en tiempo real. En la entrevista publicada por El País el 24 de julio, C. Welty anuncia que están adaptando a Watson para trabajar en un entorno de diagnóstico médico y que podría estar listo para 2012.

La facilidad de Watson para trabajar en entornos con humanos, proviene de su capacidad para comprender el lenguaje natural. La comprensión del lenguaje se realiza mediante la aplicación de algoritmos que le permiten relacionar la cuestión que se plantea con los contenidos de las base de datos a las que tiene acceso, de manera que puede dirigir la búsqueda hacia aquellas bases de datos en las que hay información pertinente obviado la búsqueda en las otras. Mediante esta estrategia las posibilidades de encontrar una respuesta adecuada y trasmitirla en tiempo real aumentan exponencialmente con respecto a las posibilidades limitadas que tenemos los humanos. En este sentido, no se puede afirmar que Watson sea un sistema de Inteligencia Artificial ya que, para su correcto funcionamiento, depende de los algoritmos que le introducen sus programadores, así como de la información contenida en las bases de datos a las que tiene acceso. No es en modo alguno un sistema con una arquitectura que le permita aprender del entorno, al parecer sigue siendo heredero de los modelos de computación simbólicos más tradicionales. Sin embargo, si será un sistema que ayude a mejorar la interacción entre humanos y máquinas.

 


Yo, mi Smartphone y yo mismo

¿Es Bruce Banner responsable moral o penal de los desmanes que va causando Hulk por el mundo?

_______________________________________________________________

Póster de la película

Lo reconozco, de pequeño no leí El Principito ni Juan Salvador gaviota. Y en mis años de instituto, pronto descubrí que me resultaban más interesantes los dilemas morales, políticos y metafísicos que me encontraba en los comics de Marvel, que los problemas que me presentaba El conde de Lucanor (menudo peñazo). Probablemente la lectura de comics ha ocasionado algún tipo de trastorno neurocognitivo del que ya no cabe solución alguna. A mi edad, la plasticidad cerebral  no me puede ayudar ya mucho. Así que para aquellos que eran formales y  dedicaron su tiempo a leer los libros que proponían  los profesores, en lugar de disfrutar con los vuelos siderales de Estela Plateada, los pondré en antecedentes. (Que pena que entonces no existiera” el rincón del vago”, cuantos comics me quedaron por leer de la saga de los Vengadores)

El doctor Bruce Banner era un eminente científico dedicado a la investigación con rayos gamma,  hasta que un fatídico día, como suele pasar en estos casos, un accidente provocó que recibiera una dosis de los dichosos rayos gamma. Como consecuencia, B. Banner se transformó en el terrible Hulk, un sujeto de color verde cuya capacidad intelectual estaba en una relación inversamente proporcional a su masa corporal, vamos que Hulk era tonto, pero eso sí con una fuerza descomunal, capaz de apartar un tanque de un puntapié. La transformación de Banner en Hulk no era permanente. En condiciones normales Banner intentaba buscar una cura a su problema, pero cuando algo le enfadaba no podía controlar su otro yo y se transformaba en Hulk destrozando entonces todo lo que se encontraba a su paso.

Esta es la situación de partida que nos propone Keven Kinghorn (tutor de filosofía en Oxford) en su artículo «Cuestiones de identidad: ¿es el increíble Hulk la misma persona que Bruce Banner» publicado en el libro Los superhéroes y la filosofía. -Tom Morris –Mat Morris (ed.)- y aquí es donde empiezan los quebraderos de cabeza filosóficos. ¿Podría un magistrado juzgar a Bruce Banner por los destrozos que causa Hulk?. En otros términos, ¿Qué es lo que hace que tengamos la sensación de que existen un yo continuo en el tiempo? ¿Dónde reside el yo? ¿O acaso el yo puede cambiar y  ellas tienen razón cuando, después de que pases un verano de marcha con los colegas, comentan con sus amigas, ese no es mi Juan de Dios, que me lo han cambiado?Los superheroes y la Filosofía

El doctor Kinghorn propone algunos intentos de solución a este problema y las paradojas a las que dan lugar. Comentaremos algunas de las propuestas, y buscaremos dentro del cerebro (o fuera, como podremos ver) algunas explicaciones.

Una de las teorías que podrían explicar la “mismidad del yo” que dirían Ortega o Heidegger (joder que día llevamos) se basa en la identidad corporal. Identificamos el yo o la identidad personal con la identidad corporal. Incluso con el paso de los años, la foto de Carmen vestida de gitanilla en la feria del Corpus cuando tenía cuatro años nos remite a Carmen la que taconea y pasea su arte por los escenarios de Motril y sus alrededores, unos cuantos años más tarde. Decimos que ambas fotografías son imágenes de la misma persona porque pensamos que existe una continuidad corporal, y aunque evidentemente ha cambiado y ha mejorado con el tiempo, la persona, su yo, sigue siendo el mismo.

Esta teoría comúnmente compartida, puede dar lugar a extrañas paradojas. Supongamos que en un estado muy desarrollado de la cirugía y de la robótica, se podrían sustituir partes de un ser humano por prótesis artificiales o por trasplantes de órganos naturales. Si a un sujeto se le cambiase poco a poco todas las partes de su cuerpo, ya no habría continuidad entre la identidad personal y la identidad corporal, así que la identidad personal debe estar en otro lado.

Se podría argumentar, que en realidad no hace falta una continuidad entre la identidad física y la identidad personal en un sentido estricto, sino que bastaría con que se diese una relación causal entre las acciones y los estados mentales de un sujeto en un tiempo t y las acciones y estados mentales del mismo sujeto en un tiempo t’ anterior a t. El yo es algo que se va construyendo en el tiempo, y somos una consecuencia de nuestros actos pasados. Pero entonces tendríamos que asumir que ese yo es algo muy inestable. Si una persona que ha sufrido una ablación del cuerpo calloso, y como consecuencia se han separado sus dos hemisferios cerebrales generando dos consciencias radicalmente distintas, una considera que la obra “Einstein in the beach” de Philip Glass es algo sublime, mientras que la otra daría su vida por asistir en primera fila a un concierto de Kamela, ¿podríamos establecer una relación causal cuando el yo original se ha escindido? Multihombre era un superhéroe de dibujos animados que tenía la capacidad de multiplicarse a sí mismo para combatir a los supervillanos. Todos esos nuevos multihombres estaban controlados por la voluntad del original, pero ¿y si perdiese el control sobre algunos de ellos? ¿Sería responsable de lo que estos hicieran?

¿Y si la idea de la existencia de un “yo unificado” fuese una mera ilusión generada por nuestro cerebro? Ramachandran y su colega  William Hirstein mantienen una parecida. Consideran que el yo unificado del que somos conscientes es en realidad un yo que tiene muchas caras. Vamos a indagar dentro del cerebro para analizar las distintas caras del yo y buscar dónde se alojan.

Lóbulos parietales

De un lado tenemos un primer yo encarnado, al que asociamos con nuestro cuerpo (las res extensa de Descartes) y que es responsable de que tengamos una imagen corporal. En la construcción de esta imagen corporeizada del yo intervienen circuitos de los lóbulos parietales y zonas de los lóbulos frontales a las que están conectados. Una lesión en los lóbulos parietales puede generar una hemiasomatognosia, que impide al enfermo reconocer mitades de su propio cuerpo, o provocar distorsiones de la imagen corporal. Ramachandran cita el caso de una paciente que aseguraba que la mitad izquierda de su cuerpo permanecía sentada cuando ella se levantaba.

Un segundo rasgo del yo es el yo pasional. El sistema amigdalino y el sistema límbico son los responsables regular nuestras emociones. Las amígdalas reciben información de la corteza insular encargada de transmitir información de la piel o de órganos internos. Las patologías ligadas a lesiones en estas zonas son responsables de auténticos cambios en el yo o en el reconocimiento de otras personas (Sindrome de Capgras); de la acentuación de los rasgos personales como consecuencia de una epilepsia del lóbulo temporal; o incluso generar la sensación de que uno se ha muerto llegando incluso a oler la carne podrida (Sindrome de Cotard) -Dios nos libre-. En algunos casos, las epilepsias del lóbulo temporal dan lugar a que las personas que las padecen tiendan a generar continuamente “pensamientos abstractos”, se les identifica porque son discutidores (cuando agarran un tema no lo sueltan), egocéntricos (suelen hablar de sus problemas o centrar la discusión en torno a sus problemas) y les da por tener pensamientos aparentemente complejos y de una abstracción exagerada, vamos unos/as auténticos  pelmazos (no hay estudios de que sean adictos a Intereconomía, pero se sabe que en algunos casos de epilepsia del lóbulo temporal (quiero recordar que el izquierdo), se hacían votantes del partido republicano en EE.UU, y ultraconservadores) .

Sistema límbico

El yo ejecutivo es el responsable del control de nuestras acciones cotidianas y limitan nuestras acciones a aquellas que son razonables. Nos dice lo que podemos y lo que no podemos hacer. El cerebro ejecutivo nos proporciona una representación tanto del cuerpo como del entorno en el que está situado, de manera que ambas representaciones puedan interactuar. Cuando se produce una lesión en el giro angulado anterior, el sujeto es incapaz de tomar decisiones (mutismo acinético). En ocasiones se produce un efecto realmente sorprendente en el que partes del cuerpo, la mano realiza acciones independientes de la voluntad del sujeto.

El yo mnemotécnico. El poder que juega la memoria en la consolidación de un yo estable y unificado es esencial, y aquí interviene el hipocampo, nuestro disco duro temporal. La pérdida de una parte del hipocampo puede provocar, dependiendo de lo severa que sea la lesión, que el sujeto no pueda adquirir nuevos recuerdos.

La conciencia de las sensaciones  asociadas a las percepciones que recibimos están ligadas a la actividad  que se genera en torno al giro cingulado anterior y estructuras límbicas que se prolongan hacia células situadas en el núcleo talámico, que a su vez se activan por células del tronco encefálico.  Todas estas estructuran conformarían el yo vigilante. Cuando hay alteraciones en estas zonas, una hiperactividad de las células del tronco encefálico provocan alucinaciones visuales de dibujos animados, figuras geométricas, animales o personas (alucinosis penduncular). Las personas que padecen esquizofrenia poseen el doble de células en los núcleos del tronco encefálico, lo que podría explicar sus alucinacines.

La necesidad de integrar nuestras vivencias de una forma coherente daría lugar al yo unificado. También es necesario que el yo pueda tener reflexiones sobre sí mismo, y para ello el yo tiene que tener acceso a su autobiografía, a la información sobre la imagen corporal que genera y a la representación de su entorno, en el que se incluye de manera especial el entorno social. Todos estos procesos están regulados por lo que Ramachandran llama el yo  conceptual y social.

Para Kinghorn, es precisamente esta identidad social, la que nos permite mantener relaciones con otras personas, la que permite construir el yo unificado, continuo y consciente. Esta necesidad del cerebro de ir más allá de los confines del cráneo e involucrar al entorno para generar una identidad consciente encaja muy bien en una concepción dinamicista de la mente. Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal. De esta forma se explica cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

La idea de una mente extendida se debe a los filósofos Andy Clark y David Chalmers. En 1988 publicaron “ The extended mind” (Analysis 58:10-23, 1998)en el que sostienen que los elementos externos del entorno social y material forman parte de los sistemas cognitivos, y en gran medida, responsables de estos procesos.

En un artículo publicado por Andy Clark en las páginas de opinión del NY Times (Out of Our Brains. Diciembre, 2010) lanza la sorprendente hipótesis de que en esos elementos culturales externos a nuestros cerebros que ayudan a conformar nuestra vida consciente, intervienen de forma fundamental nuestras últimas adquisiciones tecnológicas –iPad, Smartphones y BlackBerrys- amplían nuestros recursos biológicos de muchas formas. En su forma más extrema, no sólo como herramientas que nos ayudan a tomar decisiones o de organizar el tiempo, sino como elementos que pueden ser incorporados a nuestras estructuras biológicas naturales, la posibilidad de reparar funciones cognitivas deterioradas mediante el implante de neuronas artificiales y circuitos no biológicos, nos permitirían interactuar con los dispositivos electrónicos con los que ya estamos familiarizados de forma directa mediante vínculos que conecten estos dispositivos directamente a nuestra actividad mental.

Android

Acabo de encontrar el asiento del alma (res cogitans cartesiana), se ha desplazado de la silla turca al sistema operativo android de mi Smartphone. Espero que no tenga que resetearla.


¿Es posible simular el cerebro humano?

¿Pueden los avances producidos en computación, unidos a un mejor conocimiento de cómo funcionan los procesos cerebrales permitirnos construir una simulación del cerebro humano?

La respuesta es afirmativa, al menos así piensa  Luis Bettencourt, investigador en Los Alamos National Laboratory y profesor en el Santa Fe Institute, en una entrevista publicada el 9 de mayo en Scientific American.

El córtex visual humano opera a una velocidad de un petaflops. Un petaflops es una unidad que se usa para medir el rendimiento en computación de operaciones en coma flotante, que son aquellas operaciones en las que se requiere realizar operaciones aritméticas con números reales extremadamente grandes y pequeños. El acrónimo para expresar la operaciones en punto flotante por segundo es FLOPS (Floating poitn operations per seconds). Las operaciones en las que se usan unidades superiores a un FLOPS se expresan en el Sistema Internacional de unidades  mediante prefijos como  mega, giga, tera.  En concreto, un petaflops es 1015, aunque existen unidades mayores todos ellos con nombres de golosinas (zettaflops 1021  o yottaflops 1024). Supercomputadores como Tianhe 1A  de China (2,5 peta) o Blue Waters, desarrollado por la Universidad de Illiniois, pueden tener un rendimiento máximo de 10 petaflops y un rendimiento sostenido de un petaflops, por lo que en principio, se dispondría del potencial de cómputo necesario para simular los procesos cerebrales.

Tianhe 1A1

Se calcula que esta capacidad de cómputo se verá incrementada en los próximos 10 años. Para ello, los investigadores que participan El Proyecto Cerebro Humano ( HBP,) entre los que se integra la Universidad Politécnica de Madrid,  pretenden disponer de supercomputadores en 2023 y un presupuesto de 100 millones de euros anuales durante una década.

El concepto clave al que están vinculadas estas investigaciones es el de ‘simulación’. Hay al menos dos grupos de investigación dedicados a simular el cerebro humano. De un lado, el proyecto liderado por Dharmendra Modha en el IBM Almaden Research Center, y de otro, el que se desarrolla en la Ecole Polytechnique Féderale de Lausanne, dirigido por Henry Markram.

El problema, sostiene Bettencourt, es que las simulaciones que se centran en describir los procesos de sinapsis fracasan debido a la complejidad de los fenómenos que tienen que describir y a la cantidad de energía necesaria para realizar las simulaciones. Lo que el cerebro puede hacer usando 20 o 30 vatios, un supercomputador que trabaje en petaescalas necesita megavatios, así que esta sería una solución energéticamente poco eficiente. Por lo tanto, el intento de simular los disparos neuronales individualmente fracasará en su intento de simular un sistema tan complejo.

Una posible solución al problema, apunta Bettencourt, pasa por comenzar a simular sistemas más simples, como los que podemos encontrar implementados en insectos. O bien, simular estructuras cerebrales aisladas de la totalidad del sistema, por ejemplo, el sistema visual,  el sistema motor, o el lenguaje (neurosemántica).

El problema que subyace a este tipo de investigaciones en los campos de la Neurociencia y de la Inteligencia Artificial es el de si tenemos una teoría adecuada y unificada de cómo funciona un cerebro y en qué consisten los procesos cerebrales que dan lugar a procesos tan complejos como el razonamiento, las emociones o el juicio estético.

Los proyectos de investigación no pueden quedar bloqueados hasta que científicos, filósofos e ingenieros en computación se pongan de acuerdo sobre cómo trabaja el cerebro y cuál es la mejor manera de simular su funcionamiento, si finalmente es esto lo que se quiere hacer. La estrategia de trabajo que el equipo de Bettencourt están siguiendo para simular el sistema visual es la de entrenar modelos de computación  mostrando imágenes y videos obtenidos de internet y analizar cómo el sistema responde. En última instancia se trataría de entrenar un sistema artificial de la misma manera en la que el cerebro de una persona se entrena en los primeros años de su vida, y estudiar cómo el sistema puede evolucionar en el tiempo y en función de los imputs presentados. De esta manera, se pueden crear modelos que simulen la actividad cerebral en niveles de complejidad controlados, con el objetivo final de acoplar esos modelos para obtener una simulación de sistemas de complejidad mayor.

Los problemas no acaban aquí, tan sólo acaban de comenzar. Las dos estrategias de investigación lideradas por  Modha  y Markhram han generado disputas que van más allá de la competición científica. En una carta pública dirigida a Bernad Meyerson – director técnico de IBM- Markhram acusa al proyecto de Modha de ser una gran “estafa” y que su programa para simular el cerebro de un gato no fue más que un fraude.

Los dos proyectos de investigación siguen estrategias muy distintas. El proyecto de Modha trabaja con modelos de neuronas muy simples en el que se incluye tan sólo el cuerpo de la neurona y un modelo de disparo simplificado. Este modelo permite programar arquitecturas con diseño en paralelo que simulan la actividad de amplias redes neuronales. Por el contrario, la estrategia del equipo de Markham incluye modelos más complejos de neuronas en las que se tiene en cuenta las ramificaciones de las dendritas de las neuronas y la posibilidad de que la sinapsis pueda activar o inhibir el funcionamiento de las neuronas, lo que permite simular procesos que integran distintos niveles de complejidad. En definitiva, el sistema de Modha se adapta mejor a las exigencias de la ingeniería de la computación, mientras que el sistema de Markham intenta ser una simulación más cercana a los procesos biológicos reales.

En esta carrera por ser los primeros en diseñar un cerebro artificial, Modha predice que con el desarrollo de las nuevas técnicas de computación y el aumento de la capacidad de cómputo, se podrá disponer de un cerebro que funcione en tiempo real sobre el 2020.

El trasfondo de la disputa es casi de carácter semántico. ¿Qué significa “modelar el cerebro”? ¿la simulación de inteligencia es inteligencia?. Este es un problema que viene de lejos, tan lejos como el test de Turing para detectar inteligencia en programas.  Lo que se argumenta es que una función o un proceso  simulado, por muy bien simulado que esté, no es una función o un proceso genuino. La simulación de un formula 1 de cartón piedra, por muy bien hecha que esté,  dudo mucho que pueda ayudar a Fernando Alonso a ganar algún premio. De ahí que simular las funciones del cerebro, simular la inteligencia no nos aproximará a la inteligencia misma, nos dicen los filósofos que creen que las funciones y procesos cerebrales dependen de algo más que simples algoritmos matemáticos.

Jack Copeland (Inteligencia artificial. Alianza universidad) ofrece una solución a estas objeciones. La solución pasa por distinguir entre lo que podíamos denominar Simulación1, que sería un tipo de simulación simple en la que no se recogen características esenciales de aquello que se quiere simular; y Simulación2, que es aquella que reproduce exactamente lo simulado.

Si los programas de investigación que pretenden simular el cerebro quieren alcanzar un nivel de Simulación2, deben ser arquitecturas complejas en las que se reproduzcan en sus modelos  las peculiaridades biológicas inherentes al cerebro.  En esta línea de investigación resultan especialmente interesantes los trabajos realizados en el campo de la neurosemántica por C. Eliasmith o D. Ryder. Pero eso será una historia para otro día.


A %d blogueros les gusta esto: