Archivo de la categoría: Dinamicismo

Spaun, un cerebro virtual que genera representaciones

No sé si el mundo es voluntad, pero sí que es representación. Aclarar qué es una representación o cómo la mente construye representaciones del mundo es uno de los problemas fundamentales en la Filosofía de la mente, incluso para aquellos que se declaran abiertamente antirrepresentacionalistas.

Chris Eliamisth

Chris Eliamisth

El carácter interdisciplinar de las neurociencias y de la filosofía de la mente o de la neurofilosofía se muestra precisamente cuando se abordan estos problemas. El equipo de investigadores del Centre for Theoretical Neuroscience de la Universidad de Waterloo en Canadá dirigido por Chris Eliasmith acaba de publicar una investigación (Science. 30 Noviembre, 2012 Vol 338) en la que mediante el diseño de un modelo virtual de un cerebro capaz de realizar tareas que requieren del uso de representaciones, se pueden empezar a analizar estas viejas cuestiones desde la nueva perspectiva que ofrece la Neurosemántica.

El modelo virtual de cerebro se llama “Spaun” (Semantic Pointer Architecture Unified Network) y en términos muy generales se presenta como una contribución más al intento de ofrecer una explicación de la conducta humana en términos neurobiológicos. Desde una perspectiva filosófica el proyecto encajaría dentro de una explicación naturalista, de carácter fisicalista, del contenido representacional.

El modelo en cuestión dispone de 2,5 millones de neuronas virtuales y utiliza las herramientas conceptuales y matemáticas que ofrece la Teoría de Sistemas Dinámicos para simular tareas propias de la cognición que integren las restricciones que tienen los sistemas biológicos reales. En definitiva, no se trata de crear un modelo artificial abstracto, sino de diseñar un modelo que explique y simule la actividad que genera un cerebro. Para ello Spaun incorpora en su diseño las estructuras anatómicas del cerebro y los mecanismos de disparo propios de las neuronas.

Spaun es un indicador semántico (semantic pointer) que realiza representaciones en un espacio n-dimensional mediante un método basado en un proceso de compresión y descompresión. En un espacio semántico n-dimensional, como los que se encuentra descritos en los ya clásicos trabajos de Paul y Patricia Churchalnd, una representación es un vector que indica un punto en ese espacio, de manera que, por ejemplo, aquellas representaciones que tengan un significado parecido, ocuparán lugares muy próximos dentro de ese espacio semántico. El significado de una representación vendría dado por su vector de activación correspondiente. Lo que la Teoría de Sistemas Dinámicos (TSD) añade es la posibilidad de estudiar cómo evolucionan los espacios a través del tiempo.

La TSD considera a los agentes cognitivos como un único sistema integrado compuesto por cerebro, cuerpo y entorno. De esta manera los modelos teóricos que se desarrollan pueden ser estudiados teniendo en cuenta las limitaciones que supone tratar con sistemas biológicos reales, superando así los problemas que presentan los modelos estrictamente computacionales o simbólicos presos todavía de un esquema cartesiano que escinde al sujeto de su medio.

Arquitectura funcional de Spaun. Crédito. C. Eliasmith at al. Science (2012)

La descripción de Spaun se hace desde una doble perspectiva. De un lado tenemos la estructura anatómica del modelo. Esta estructura se corresponde con el modelo anatómico que se define a partir del estudio de las áreas cerebrales y de las propiedades específicas de las poblaciones de neuronas. De otro, se dispone de una descripción funcional del modelo que incluye las funciones que puede realizar el sistema y que se corresponden con las áreas anatómicas descritas. Así, por ejemplo, el área visual se estructura en capas jerarquizadas que permiten recibir las señales del entorno y enviarlas a través del sistema representando patrones espaciales. Cada capa recoge las señales que recibe de la capa anterior, las agrupa y las envía al siguiente nivel simulando las funciones de las capas visuales del cerebro, del córtex visual estriado y del córtex visual interior en el que finalmente se produce la representación de objetos complejos.

Credito. C. Eliasmith et al. Science

Funcionalmente Spaun se organiza en cinco subsistemas que incluyen desde un sistema visual capaz de codificar y decodificar entradas de señales hasta un sistema motor de salida que permite dar una respuesta mediante un brazo articulado virtual.

Para comprender como Spaun puede generar una representación hay que entender el funcionamiento de NEF. NEF (Neural Engineering Framework) es una teoría aplicable a sistemas neurobiológicos que permite entender las representaciones como procesos de codificación no lineal y decodificación lineal de disparo de neuronas. Los procesos dinámicos que caracterizan las representaciones son tratados mediante un conjunto de herramientas matemáticas desarrolladas en la década de los 60 para describir el comportamiento de sistemas físicos complejos. La conducta de los sistemas físicos puede ser descrita a partir de ecuaciones diferenciales que se construyen sobre el valor que van tomando un conjunto de variables.

El funcionamiento de la Teoría Control para describir el comportamiento de un sistema físico queda recogido en el siguiente esquema

NEF

NEF (Eliasmith C. , 2009 y (Eliasmith, C. y Anderson, C. H., 2003)

El vector x(t) reúne las variables que describen el estado del sistema a partir de las entradas que recibe en un tiempo dado. Estas entradas se representan mediante el vector u(t) que también se usa para determinar las salidas futuras que el sistema ofrece (vector y(t)). Las matrices B, A, C y D actúan sobre cada uno de los vectores y ayudan a definir la conducta del sistema mediante la función de transferencia que realiza la integral o.

El modelo NEF puede ser modificado para que incorpore aspectos propios de la dinámica interna de las poblaciones de neuronas. La idea central es que un grupo de disparos de neuronas puede representar un vector en un espacio en un tiempo dado y que las conexiones entre un grupo de neuronas pueden computar las funciones de ese vector. Lo realmente interesante de este modelo es que permite entender las representaciones como procesos de codificación y de decodificación transformacionales de señales.

Una descripción naturalizada de las representaciones como esta evita las objeciones que se hacen a las teorías representacionalistas clásicas en las que el contenido de una representación depende de nuestra capacidad para operar proposicionalmente (Fodor), o de la habilidad para manipular símbolos (Teoría Computacional de la Mente).

Lo que hace Spaun es usar los patrones de disparo de las neuronas para implementar las representaciones neuronales que constituyen los indicadores semánticos. El proceso se realiza mediante la compresión y descompresión de señales. Por ejemplo, el número de células del córtex visual decrece desde el córtex visual primario al córtex temporal inferior que constituye la última etapa del sistema visual y se encarga del reconocimiento de objetos (Áreas 20 and 21 de Brodman). El sistema opera comprimiendo las señales que envía desde las capas iniciales a las finales que son descomprimidas cuando llegan al sistema motor y se ejecuta un movimiento. La compresión permite enviar paquetes de señales para que puedan ser manipuladas de un modo más eficiente, lo que facilita la generación de representaciones.

Más vídeos de Spaun resolviendo tareas

La tarea principal de Spaun es el reconocimiento de números o de letras que posteriormente debe copiar mediante un brazo articulado. Estas tareas incluyen el reconocimiento de imágenes, reconocimiento de series mediante su memoria de trabajo, el aprendizaje y otras habilidades que no pueden ejecutar los sistemas artificiales que se basan exclusivamente en modelos de disparos de redes neuronales. Además de copiar y dibujar, Spaun puede pasar con facilidad test de inteligencia (test de Raven) en los que hay que inferir, a partir de unas imágenes previas, la imagen que falta en una serie. (Ejemplo de un test de Raven)

Los resultados de estos test muestran que Spaun no sólo alcanza un nivel de aciertos del 88% frente al 89% de los humanos, sino que es capaz de ofrecer respuestas flexibles como hacen los sistemas biológicos.

Aunque la arquitectura de Spaun está diseñada para responder únicamente al tipo de tareas descritas, el modelo permitirá comprobar la viabilidad de teorías sobre el funcionamiento del cerebro y la posibilidad de que la neurosemántica ofrezca una explicación al problema de la representación, el último refugio del dualismo.

Referencias

  • Churchland, P. S. (1986). Neurophilosophy. Cambridge: MIT Press
  • Churchland, P. M. (1993). A Neurocomputational Perspective. Cambridge: The MIT Press.
  • Churchland, P. M. (1996). The Engine of Reason, the Seat of the Soul. Cambridge, Massachusetts: MIT Press.
  • Eliasmith, C y (varios) (2012) «A large-Scale Model of the Functioning Brain» Science. 30 de noviembre, Vol. 338
  • Eliasmith, C. y Anderson, C. H. (2003). Neural Engineering. Computation, Representation, and Dynamics in Neurobiological Systems. Cambridge: MIT Press.
  • Eliasmith, C. (2009). Neurocomputational Model: Theory, application, philosophical consequences. En J. Bickle, The Oxford Handbook of Philosophy and Neuroscience (págs. 346-370). Oxford: Oxford University Press.
  • van Gelder, T. (1998). The dynamical hypothesis in cognitive science. Behavioral and Brain Sciences (21) , 615-665
Anuncios

Inteligencia Artificial Ecológica y ¡affordances por un tubo!

Imagen de la película EVA

Cuando mi amigo Manuel Heras, predoctoral  filosoia y neurociencias.) me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue “¡¡affordances por un tubo!!”. Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra ‘affordance’ en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.

“En veinte años las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda llevar acabo”.  Probablemente esta debería ser una de esas frases que encabezaran la lista de frases desafortunadas en la historia. Cuando en 1965 Herbert Simon  dijo esto,  debía de estar en la fase de “exaltación de la amistad y euforia” que antecede a la de “cánticos populares” y que termina con “insultos a la autoridad y al clero”. No recuerdo si “negación de la evidencia” (yo estoy bien mira, mira, -conectando con la mano abierta rodilla y nariz- era el principio o el final del proceso). El caso es que en aquellos años se las veían muy felices desarrollando programas informáticos que trataban de simular la conducta humana.

Genghis scrambling over rough terrain, and following a mammal

El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church , todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial. Dado que los sistemas cognitivos son sistemas que pueden ser descritos computacionalmente,  no hay en principio restricción alguna de tipo formal para diseñar programas que realicen las actividades que realiza todo ser humano.  Este es el origen de lo que se ha conocido como la GOFAI (“Good Old-Fashioned Artificial Intelligence“) ampliada ahora a la GOFAIR (“Good Old-Fashioned Artificial Intelligence and Robotics”).  Todo parecía tan fácil como manipular símbolos, diseñando programas, e implementar esos programas en un sistema de cómputo que siguiese el esquema E-P-S [Entrada (de información)-Procesamiento-Salida(de información)]

La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: “Por “inteligencia artificial”, en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular”

Sin embargo, la cosa no iba a ser tan simple. Marvin Minsky en su libro La sociedad de la mente (1986) nos alertaba de  lo complejo que resulta programar a una máquina para que realice tareas tan sencillas como construir una torre con los típicos bloques de construcción con los que juegan los niños. El diseño, en los años setenta, de un programa llamado Constructor, realizado por el propio Minsky y Seymour Papert , que integraba una mano mecánica equipada con sensores táctiles y cámara de televisión y que tenía como tarea distinguir y seleccionar los bloque apropiados para hacer una construcción estable, permitió descubrir en palabras de Minsky que: […] muchas cuestiones cotidianas eran mucho más complicadas que la clase de problemas, acertijos y juegos que los adultos consideran difíciles. […] Limitémonos a considerar ese problema, aparentemente simple, de no volver a utilizar bloques que ya han sido incorporados a la torre. A una persona esto se le antoja mero sentido común: «no utilices un objeto para cumplir un nuevo propósito si ese objeto ya está dedicado a realizar un propósito anterior». Nadie sabe con exactitud cómo es que la mente humana resuelve esto.”

 Parece por lo tanto evidente que el cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que  debe resolver. Esta situación da lugar a lo que Tienson llama una “explosión computacional inmanejable”. La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.

El segundo de los problemas que tienen los sistemas de computación simbólicos es que su arquitectura es muy distinta de los sistemas naturales. Los sistemas neuronales naturales son muy lentos, unas 1016 veces más lentos que los ordenadores. Un cambio de posición de 0 a 1 en un dispositivo electrónico tarda una milmillonésima de segundo, mientras que una neurona necesita una milésima de segundo para responder a una estimulación. Esta limitación en la velocidad de procesamiento se conoce como «la limitación de los 100 pasos». La idea es que si un cerebro natural tuviese que realizar las tareas habituales siguiendo el modelo que propone la IA clásica, entonces, dado el tiempo que tarda una neurona en responder a la estimulación electroquímica, el cerebro necesitaría al menos de esa cantidad de tiempo, una milésima de segundo, para realizar cada instrucción del programa. Por lo tanto, el número máximo de operaciones que puede ejecutar en una décima de segundo es 100. Esto supondría una restricción importante a la hora de diseñar programas que hicieran cosas interesantes.

La segunda diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación “armoniosa” o “elegante”. La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual. Una lesión en el cerebro puede afectar a ciertas tareas, funciones o propiedades mentales que están directamente relacionadas con las áreas que se vean afectadas por la enfermedad o por la lesión, sin que el resto de las funciones que dependen de otras áreas no dañadas se pierdan o se alteren. Por el contrario, los sistemas computacionales artificiales se degradan, en palabras de Francis Crick, catastróficamente. La más mínima alteración de uno de sus componentes colapsa al sistema entero.

Estas diferencias entre los sistemas cognitivos naturales y los sistemas cognitivos artificiales de la vieja IA  tienen  que ver con el hecho de que la GOFAI olvidó leer a Heidegger (vale, yo tampoco). La idea de diseñar programas en los que el entorno no juega papel alguno salvo ser un simple suministrador de información es un error conceptual importante. La cognición no es algo que se produce en el interior de un sistema independientemente de las relaciones que el sistema mantiene con su entorno.

María Muñoz -Universidad Autónoma de Madrid (Dpto. de Lingüística, Lógica y Filosofía de la Ciencia)-, y Alex Díaz -Universidad Autónoma de Madrid (Dpto. de Psicología Básica)- . resumen muy bien la situación. “Aquellas capacidades que parecen dar gran ventaja a los seres vivos son la capacidad de detectar información clave sin necesidad de muestrear todo el entorno, y la coordinación de estos sistemas con el medio. Las interacciones entre ambos no se reducen a una captura de datos, más bien son un intercambio de fuerzas, de momentos de inercia y de relaciones espaciotemporales” . (Inteligencia Artificial Ecológica para una nueva generación de robots. Factótum 7, 2010, pp. 53-61). La posibilidad de construir sistemas cognitivos artificiales que se integren en su entorno y que sean capaces de dar respuestas autónomas en tiempo real pasa por lo que M. Muñoz y A. Díaz llaman “el ajuste on-line de la máquina y su entorno”

Las arquitecturas cognitivas de este tipo se les conoce como arquitecturas dinámicas.  Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal, esto es, cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt o el planímetro polar de Runeson. Dejaremos para otro día una descripción de estos sistemas. Por ahora, baste decir que son sistemas que adaptan su conducta a los cambios del entorno  al considerarlo como un medio activo cuya dinámica va a determinar los estados a través de los cuales va evolucionando el  sistema; y a su vez, la interacción que el agente mantiene con el medio va a alterar la dinámica propia del entorno, creando de esta manera un bucle entre agente y entorno en el que  los procesos cerebrales, los estados físicos del agente y el medio constituyen un único sistema acoplado. El comportamiento de este sistema acoplado puede ser descrito mediante  ecuaciones diferenciales.

Es en este contexto de arquitecturas dinámicas de sistemas cognitivos donde entra en juego la noción de affordance. El entorno en el que se encuentra un agente o los objetos que integran el entorno poseen unas propiedades que permiten al agente interactuar con ellos, percibir estas propiedades es captar las posibilidades de acción que el agente tiene en ese entorno y las posibilidades de adaptación al mismo. Adaptarse al entorno, el Dasein (perdón) consiste en percibir las affordances. Saber las posibilidades que tiene el abrebotellas es todo lo que necesito para interactuar con el objeto y no tanto los datos relativos a su peso, tamaño etc.

Este nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos.  María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno  sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.

El trabajo de María Muñoz y de Alex Díaz termina haciendo un breve repaso histórico a los intentos por construir robots con arquitecturas dinámicas. Empezando por los primeros robots ecológicos en los años 40 (Elmer & Elsie). Un primer intento de acoplar agentes entre sí para que produzcan conductas interactivas e impredecibles (tampoco gran cosa), hasta BigDog (2005) auténtica mula de carga, imagino que aptas para moverse por las montañas afganas.o su versión pequeña LittleDog (2007) desarrollados por DARPA (Defence Advanced Research Project Agency).

 Hay que reconocer que esta gente se lo pasa bien

Como al parecer nadie escarmienta en cabeza ajena, Joseph Ritter, jefe tecnológico de Intel y miembro del SIAI(Instituto de la Singularidad para la Inteligencia Artificial) ha puesto una nueva fecha: el 2050. Para este año, las capacidades de los sistemas cognitivos artificiales habrán alcanzado las habilidades del ser humano. Y nosotros que estemos para verlo


Hola, HAL. ¿Me estás leyendo, HAL?

Desde el 21 de junio de 2011 al 31 de agosto de 2012 el DHUB (Disseny Hub Barcelona) organiza una exposición sobre interactividad entre humanos y máquinas. El DHUB es un novedoso concepto en la organización y presentación de exposiciones que no debe ser considerado como un museo al uso, sino que integra una sala de exposiciones con un laboratorio en el que se experimenta con el diseño.

La exposición “Los sentidos de las máquinas I/O/I” pretende ser un lugar de reflexión sobre el desarrollo de la tecnología, sus implicaciones sociales y económicas, así como los cambios que van a generar la irrupción en nuestras vidas de sistemas artificiales con los que tendremos que lidiar. La interacción entre humanos y máquinas, y habría que añadir y de máquinas entre sí, es una consecuencia directa del desarrollo tecnológico que se está viviendo, y que va a tener, o está teniendo ya, consecuencias importantes en la concepción que tenemos de los sistemas inteligentes artificiales, y de nuestra propia noción de inteligencia. “ si la tecnología consigue desarrollar máquinas más capaces, con mayores prestaciones, más inteligentes, nuestra relación con ellas se hace más rica y compleja día a día. Nuestro «diálogo» es más proactivo, sobrepasa la acción –respuesta que hasta ahora ha definido nuestra interacción y nos permite ampliarla hasta la acción- respuesta-acción, lo que añade un nuevo peldaño en el proceso de producción de mayor inteligencia en los cerebros artificiales. Nuestras máquinas tienen cada vez más sentidos y son más inteligentes. Así, el catálogo de sus capacidades es cada vez mayor, y nuestras oportunidades de interactuar aumenta enormemente; por lo tanto, desconocemos casi todo lo que podemos conseguir del intercambio con las máquinas” (Ramon Prat. Comisario General DHUB)

Sniff in Sao Paulo, in daylight from karolina sobecka on Vimeo.

[Sniff es una pieza de Karolina Sobecka y James George que se puede contemplar en la exposición]

Los conceptos claves para entender la colaboración entre humanos y máquinas; y cómo, esta nueva forma de relación, puede ayudar a comprender algunos problemas en Filosofía de la mente o en Neurofilosofía , son los de ‘interactivismo’ y ‘dinamicismo’ y ‘emergencia’.

El ‘interactivismo’ es una concepción de la realidad que propone superar las nociones clásicas de causalidad, utilizadas en la metafísica más tradicional, por la noción de procesos interactivos. La metafísica clásica, nos dice Bickhard, [«Interactivism: A Manifesto».« The Dynamic Emergence of Representation»]  se sustenta sobre la noción de partícula y de campos de interacción entre partículas que se aplica a campos tan complejos como el estudio de los procesos mentales. Lo que el interactivismo propone es un nuevo modelo en el que se sustituye el concepto clásico de interacción entre partículas, por el de ‘procesos’. La ventaja que tiene hablar de procesos en lugar de relaciones causales clásicas, es que los procesos tienen una organización inherente, y esto configura una nueva noción de causalidad que no es rígida, sino más bien flexible, dinámica y en un continuo proceso de adaptación al entorno. Los sistemas naturales o artificiales no mantienen unas relaciones causales rígidas con su entorno, sino que cambian continuamente, se adaptan y responden a los cambios del entorno modificando sus sistemas de representación del medio. Estos cambios en los mecanismos de representación del entorno son autónomos, en el sentido de que no necesitan de un programador, y son también dinámicos.

Andy Clark

Esta noción de interactividad, tiene ya sus años, Andy Clark ya nos habla de ella en el año 1999 [Estar ahí. Cerebro cuerpo y mundo en la nueva ciencia cognitiva. Paidós]. La idea es que se pueden explicar fenómenos muy complejos, como pueden ser los sistemas de aprendizaje en máquinas, o procesos cognitivos de orden superior, a partir de la conducta colectiva de las unidades que integran o que implementan el proceso en cuestión, teniendo en cuenta que ninguno de los componentes por sí mismos, aislados del resto del sistema, pueden  desempeñar un papel crucial en el proceso en cuestión.

La tercera noción implicada es la de emergencia. En esta nueva metafísica, los procesos de los que son capaces los sistemas  son emergentes; esto quiere decir que, si bien los componentes del sistema son los que determinan la conducta global de éste, el comportamiento del sistema también determinará el comportamiento de los componentes.

Para comprender el comportamiento de un sistema desde la perspectiva emergentista, es necesario distinguir entre dos tipos de variables. De un lado tenemos la variable controlada, que determina las conductas que pueden ser manipuladas directamente; y de otro, tendríamos la variable incontrolada, también conocidas como variables colectivas, que refleja propiedades que emergen de la interacción entre múltiples parámetros y que se resisten a ser tratados de forma directa. (Para algo están las ecuaciones diferenciales)

Cuando se trata con procesos emergentes, se tiene que cambiar la noción de agente o de sistema. En los modelos dinamicistas, la noción de agente o de sistema incluye necesariamente a los elementos del entorno como elementos que pueden ser caracterizados en términos de  variables controladas  que determinan el valor que alcanzan las variables colectivas. Lo que buscan los modelos dinamicistas es explicar cómo evoluciona un sistema integrado en un entorno a lo largo del tiempo. El tiempo es una variable más en el sistema de ecuaciones que describe el comportamiento del sistema. En definitiva, una noción de sistema más amplia considera al agente y al entorno como sistemas acoplados cuya interacción y evolución mutua permite explicar fenómenos complejos (ya habrá tiempo en otra ocasión de explicar qué son los states spaces que ayudan a explicar la evolución de los sistemas)

Polygon playground. Whitevoid

La exposición a la que hacía referencia al comienzo de esta entrega que empieza  a resultar demasiado larga, se llama I/O/I (input/output/input) y pretende reflejar esa relación dinámica que se establece entre humanos y máquinas a través de los sentidos. Los sensores y transductores de los sistemas artificiales nos pueden ayudar a comprender los sistemas de representación que usamos en nuestro contacto con el mundo (el famoso ‘ser ahí’, que es el ‘ahí del ser’)

La exposición, por supuesto interactiva, muestra qué es la interacción a partir de distintos niveles, desde dispositivos simples (trasmisión de energía, emisor/receptor), hasta sistemas más complejos que permiten a las máquinas interactuar entre sí para generar conductas más complejas (en enjambre).  Estos sistemas complejos pueden ofrecer nuevas vías  de investigación en Inteligencia Artificial donde la interacción hombre-máquina sea un elemento fundamental en la configuración del “software cognitivo” de la máquina, buscando una conexión directa, sin interfaces, entre agentes naturales y artificiales.

Speaker wireless. Obra de Cheg Xu.

Se trata de una pieza interactiva en la que el dispositivo codifica los sonidos para decodificarlos posteriormente  modelando el alambre de joyería. De esta forma, se crea una obra única resultado de la interacción entre agentes artificiales y naturales

Hal.-  Afirmativo, Dave. Te leo.


A %d blogueros les gusta esto: