Inteligencia Artificial Ecológica y ¡affordances por un tubo!

Imagen de la película EVA

Cuando mi amigo Manuel Heras, predoctoral  filosoia y neurociencias.) me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue “¡¡affordances por un tubo!!”. Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra ‘affordance’ en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.

“En veinte años las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda llevar acabo”.  Probablemente esta debería ser una de esas frases que encabezaran la lista de frases desafortunadas en la historia. Cuando en 1965 Herbert Simon  dijo esto,  debía de estar en la fase de “exaltación de la amistad y euforia” que antecede a la de “cánticos populares” y que termina con “insultos a la autoridad y al clero”. No recuerdo si “negación de la evidencia” (yo estoy bien mira, mira, -conectando con la mano abierta rodilla y nariz- era el principio o el final del proceso). El caso es que en aquellos años se las veían muy felices desarrollando programas informáticos que trataban de simular la conducta humana.

Genghis scrambling over rough terrain, and following a mammal

El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church , todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial. Dado que los sistemas cognitivos son sistemas que pueden ser descritos computacionalmente,  no hay en principio restricción alguna de tipo formal para diseñar programas que realicen las actividades que realiza todo ser humano.  Este es el origen de lo que se ha conocido como la GOFAI («Good Old-Fashioned Artificial Intelligence«) ampliada ahora a la GOFAIR («Good Old-Fashioned Artificial Intelligence and Robotics»).  Todo parecía tan fácil como manipular símbolos, diseñando programas, e implementar esos programas en un sistema de cómputo que siguiese el esquema E-P-S [Entrada (de información)-Procesamiento-Salida(de información)]

La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: “Por “inteligencia artificial”, en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular”

Sin embargo, la cosa no iba a ser tan simple. Marvin Minsky en su libro La sociedad de la mente (1986) nos alertaba de  lo complejo que resulta programar a una máquina para que realice tareas tan sencillas como construir una torre con los típicos bloques de construcción con los que juegan los niños. El diseño, en los años setenta, de un programa llamado Constructor, realizado por el propio Minsky y Seymour Papert , que integraba una mano mecánica equipada con sensores táctiles y cámara de televisión y que tenía como tarea distinguir y seleccionar los bloque apropiados para hacer una construcción estable, permitió descubrir en palabras de Minsky que: […] muchas cuestiones cotidianas eran mucho más complicadas que la clase de problemas, acertijos y juegos que los adultos consideran difíciles. […] Limitémonos a considerar ese problema, aparentemente simple, de no volver a utilizar bloques que ya han sido incorporados a la torre. A una persona esto se le antoja mero sentido común: «no utilices un objeto para cumplir un nuevo propósito si ese objeto ya está dedicado a realizar un propósito anterior». Nadie sabe con exactitud cómo es que la mente humana resuelve esto.”

 Parece por lo tanto evidente que el cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que  debe resolver. Esta situación da lugar a lo que Tienson llama una “explosión computacional inmanejable”. La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.

El segundo de los problemas que tienen los sistemas de computación simbólicos es que su arquitectura es muy distinta de los sistemas naturales. Los sistemas neuronales naturales son muy lentos, unas 1016 veces más lentos que los ordenadores. Un cambio de posición de 0 a 1 en un dispositivo electrónico tarda una milmillonésima de segundo, mientras que una neurona necesita una milésima de segundo para responder a una estimulación. Esta limitación en la velocidad de procesamiento se conoce como «la limitación de los 100 pasos». La idea es que si un cerebro natural tuviese que realizar las tareas habituales siguiendo el modelo que propone la IA clásica, entonces, dado el tiempo que tarda una neurona en responder a la estimulación electroquímica, el cerebro necesitaría al menos de esa cantidad de tiempo, una milésima de segundo, para realizar cada instrucción del programa. Por lo tanto, el número máximo de operaciones que puede ejecutar en una décima de segundo es 100. Esto supondría una restricción importante a la hora de diseñar programas que hicieran cosas interesantes.

La segunda diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación “armoniosa” o “elegante”. La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual. Una lesión en el cerebro puede afectar a ciertas tareas, funciones o propiedades mentales que están directamente relacionadas con las áreas que se vean afectadas por la enfermedad o por la lesión, sin que el resto de las funciones que dependen de otras áreas no dañadas se pierdan o se alteren. Por el contrario, los sistemas computacionales artificiales se degradan, en palabras de Francis Crick, catastróficamente. La más mínima alteración de uno de sus componentes colapsa al sistema entero.

Estas diferencias entre los sistemas cognitivos naturales y los sistemas cognitivos artificiales de la vieja IA  tienen  que ver con el hecho de que la GOFAI olvidó leer a Heidegger (vale, yo tampoco). La idea de diseñar programas en los que el entorno no juega papel alguno salvo ser un simple suministrador de información es un error conceptual importante. La cognición no es algo que se produce en el interior de un sistema independientemente de las relaciones que el sistema mantiene con su entorno.

María Muñoz -Universidad Autónoma de Madrid (Dpto. de Lingüística, Lógica y Filosofía de la Ciencia)-, y Alex Díaz -Universidad Autónoma de Madrid (Dpto. de Psicología Básica)- . resumen muy bien la situación. “Aquellas capacidades que parecen dar gran ventaja a los seres vivos son la capacidad de detectar información clave sin necesidad de muestrear todo el entorno, y la coordinación de estos sistemas con el medio. Las interacciones entre ambos no se reducen a una captura de datos, más bien son un intercambio de fuerzas, de momentos de inercia y de relaciones espaciotemporales” . (Inteligencia Artificial Ecológica para una nueva generación de robots. Factótum 7, 2010, pp. 53-61). La posibilidad de construir sistemas cognitivos artificiales que se integren en su entorno y que sean capaces de dar respuestas autónomas en tiempo real pasa por lo que M. Muñoz y A. Díaz llaman “el ajuste on-line de la máquina y su entorno”

Las arquitecturas cognitivas de este tipo se les conoce como arquitecturas dinámicas.  Los modelos cognitivos basados en arquitecturas dinamicistas interpretan la cognición como un proceso emergente y autoorganizado en el que se deben integrar tanto los factores relacionados con la actividad neuronal como los cambios producidos en el organismo y el medio en el que el sujeto está inserto. El modelo resultante es por lo tanto un modelo extendido que concibe tanto al sujeto y al medio como elementos que configuran un mismo sistema en el que cobra una especial importancia la dimensión temporal, esto es, cómo los procesos cognitivos resultantes de la interacción del agente con el entorno van evolucionando a través del tiempo.

El ejemplo clásico de sistemas acoplados al entorno y capaces de autorregular su conducta lo encontramos en el gobernador centrífugo de Watt o el planímetro polar de Runeson. Dejaremos para otro día una descripción de estos sistemas. Por ahora, baste decir que son sistemas que adaptan su conducta a los cambios del entorno  al considerarlo como un medio activo cuya dinámica va a determinar los estados a través de los cuales va evolucionando el  sistema; y a su vez, la interacción que el agente mantiene con el medio va a alterar la dinámica propia del entorno, creando de esta manera un bucle entre agente y entorno en el que  los procesos cerebrales, los estados físicos del agente y el medio constituyen un único sistema acoplado. El comportamiento de este sistema acoplado puede ser descrito mediante  ecuaciones diferenciales.

Es en este contexto de arquitecturas dinámicas de sistemas cognitivos donde entra en juego la noción de affordance. El entorno en el que se encuentra un agente o los objetos que integran el entorno poseen unas propiedades que permiten al agente interactuar con ellos, percibir estas propiedades es captar las posibilidades de acción que el agente tiene en ese entorno y las posibilidades de adaptación al mismo. Adaptarse al entorno, el Dasein (perdón) consiste en percibir las affordances. Saber las posibilidades que tiene el abrebotellas es todo lo que necesito para interactuar con el objeto y no tanto los datos relativos a su peso, tamaño etc.

Este nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos.  María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno  sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.

El trabajo de María Muñoz y de Alex Díaz termina haciendo un breve repaso histórico a los intentos por construir robots con arquitecturas dinámicas. Empezando por los primeros robots ecológicos en los años 40 (Elmer & Elsie). Un primer intento de acoplar agentes entre sí para que produzcan conductas interactivas e impredecibles (tampoco gran cosa), hasta BigDog (2005) auténtica mula de carga, imagino que aptas para moverse por las montañas afganas.o su versión pequeña LittleDog (2007) desarrollados por DARPA (Defence Advanced Research Project Agency).

 Hay que reconocer que esta gente se lo pasa bien

Como al parecer nadie escarmienta en cabeza ajena, Joseph Ritter, jefe tecnológico de Intel y miembro del SIAI(Instituto de la Singularidad para la Inteligencia Artificial) ha puesto una nueva fecha: el 2050. Para este año, las capacidades de los sistemas cognitivos artificiales habrán alcanzado las habilidades del ser humano. Y nosotros que estemos para verlo

Acerca de José Luis Fernández Moreno

Profesor de Filosofía (Secundaria). Intereses: Neurofilosofía Ver todas las entradas de José Luis Fernández Moreno

7 respuesta a «Inteligencia Artificial Ecológica y ¡affordances por un tubo!»

  • Pilar R.R. 1BachB.

    ¡Buenas!

    Que curioso lo que han llegado a hacer estas personas,es impresionante en este sentido lo que ha avanzado la ciencia.He de admitir que me ha causado gran expectación ver los vídeos y observar como el robot iba de un lado a otro pasando por una pequeña montaña de bloques y lo conseguía pasar y como un señor le empujaba y ¡mantenía el equilibrio!
    lo curioso es que a la misma vez,han conseguido que imite también a animales,que interesante la verdad.

    he encontrado un vídeo en el que aparece uno de esos robots corriendo a gran velocidad por una cinta,y otro (este a dos patas) que hace hasta flexiones muy curiosos también.Otro que aparece muy interesante(pero ya sin pinta de humano) es uno que es capaz de saltar muros y es muy pequeño(aunque supongo que será muy complejo por dentro)

    Y acerca de animales pues bueno,he encontrado este que simula el movimiento de un pez muy bonito cuando nada muy bien.

    Por ultimo otro que está relacionado con lo que has dicho hoy de relacionar caras es este.Es un robot que habla 30 idiomas y reconoce las caras de las personas y se queda con algunos de sus rasgos.Pero por otro lado,¿no quita este robot digamos algo de «intimidad»a la persona?porque si dice que analiza datos de las personas a raíz de sus caras para averiguar sus preferencias y se queda con ellos,ya se queda con cierta información de esa persona y sus rasgos.Y,también,si se da la situación que hemos dicho en clase en la cual un robot de un aeropuerto puede detectar los rasgos de una persona peligrosa,si lo que analizan es eso ,las caras,¿no podría darse el caso de que confundiesen los rasgos de una persona normal con la de una de esas personas peligrosas?¿que pasaría entonces?.No podríamos tampoco acusar o intentar investigar a esa persona por tener algún rasgo parecido con una persona peligrosa.

    ¡Un saludo!

    Me gusta

  • M.

    Hola camaradas,

    Realmente es un tema interesante este. Tengo un par de cosas que decir sobre esto: 1) sobre la idea central de qué es la IA, 2) sobre la frase de Javier » Si un robot es “creativo”, supongo que es porque sus creadores le han brindado esa capacidad creativa, y no la tiene per se.».
    1) La IA no quiere crear un robot que piense como un humano. Realmente la IA lo que pretende es encontrar modelos artificiales que expliquen ciertas capacidades cognitivas humanas. La idea no es crear a Frankenstein, sino encontrar un programa (una red que funcione igual que un sistema vestibular, un programa que prediga estadísticamente qué genes van a formar qué estructuras en una drosophila, etc) modelice y por lo tanto anticipe y en conclusión explique cómo pensamos (o cómo oímos, memorizamos,hablamos, etc. Si tomamos todos estos procesos como cayendo dentro del conjunto ‘cognición’). De hecho, ya existen robots y redes que emulan sistemas sensoriales como los de una cucaracha. Para eso sirve la IA, no para hacernos un Pinocho metálico. Por tanto, lo interesante de la IA es su capacidad explicativa.
    2) La objeción viene ya de varios filósofos. Ellos llaman ‘intencionalidad derivada’ a lo que se supone es intencionalidad del creador transmitida a la creación: el humano a la máquina. Por tanto, la máquina no tiene lo que llaman ‘intencionalidad intrínseca’. Hay un contraargumento interesante en «La peligrosa idea de Darwin» de Dennett: imagina que a un robot lo programan para salvar a su dueño en el futuro, mientras él está dormido o yo qué sé cómo. El robot salva innumerables obstáculos en situaciones adversas a las que se tuvo que adaptar. Podría decirse que el robot por sí mismo no hizo nada, que fue el programador el que lo hizo, aunque no contase con los peligros nuevos a los que tuvo que adaptarse. Pese a ello, Dennett señala que nuestra intencionalidad también es derivada: deriva de nuestros genes, que es la infromación que lidia con situaciones nuevas en el entorno. Sé que no os convence, como a mí tampoco. Pero a no ser, Javi, que no encuentres un contraargumento que lo rebata, la idea de la intencionalidad derivada está perdiendo atractivo, verdad? Mi idea es que estas máquinas tienen intencionalidad propia ya que desde un punto de vista agencial son ellas las que lidian con el entorno, aprendiendo y adaptándose a los cambios (porque muchos robots aprenden, y muchos robots se adaptan, le pese a quien le pese). Por tanto, desde un punto de vista agencial y desde el aprendizaje, esos sistemas en relación con el entorno son agentes autónomos.

    Hasta aquí lo dicho. Espero respuestas. Veo que J.L. va subiendo el nivel del alumnado en las promociones siguientes de Filosofía. Like it!

    Saludos,

    M.

    Me gusta

    • Javier Osorio

      Es bastante atractivo el primer punto de tu comentario, sobre lo que pretende la IA. En relación con el segundo punto: supongo que hablas de intencionalidad como acto volitivo, por tanto te respondo con esta acepción del concepto. El argumento de Dennett no me seduce mucho, puesto que la intencionalidad, como ya he dicho, es una capacidad de la voluntad. Es necesario que se hable de una intencionalidad «consciente», es decir, que se posea voluntad. Teniendo en cuenta que los genes no disponen de facultad volitiva, no podría hablarse de una «intencionalidad» estricta, sino sólo de un determinante para nuestra constitución. De nuevo puede entrar incluso el emergentismo: la mente no es reducible a sus partes, y los genes condicionan, pero no determinan nuestra voluntad. O eso considero. Claro que también podemos debatir sobre si la sensación de voluntad que procesamos es real o sólo es producto de las cuantiosas variables que no llegamos a captar y que, por otro lado, nos «determinan».

      Sobre tu idea de intencionalidad propia, estaría respondido con lo anteriormente dicho. Si la intencionalidad es producto de la voluntad, y las máquinas no tienen, sino que están totalmente determinadas, en última instancia se aduce que una máquina no se caracterizaría concretamente por tener «intención»; la autonomía de una máquina sería tal, como las variables físicas le afectaran en la situación y el entorno, y actuarían en base a estos factores.

      Gracias por tomaros vuestro tiempo en responderme. Salud.

      PD: Jose Luis, he de responderte aún. Volveré (léase emulando la voz de Terminator)

      Me gusta

  • Javier Osorio

    No sabía que habías respondido. Supongo que te avisarán por e-mail. Bueno, a lo que vamos:

    No, no niego la capacidad creativa en los animales, ni mucho menos. De hecho, el otro día vi fragmentos de un documental donde un cuervo se las ingeniaba para coger una larva con un palo. Increíble. Lo único que quiero manifestar con mi mensaje es que una máquina no tendrá una capacidad innata tan potencial como los humanos, tal es el caso que se le llama «inteligencia artificial». Si un robot es «creativo», supongo que es porque sus creadores le han brindado esa capacidad creativa, y no la tiene per se. Claro que no niego que la materia en cuestión es fascinante y abre muchos puntos de vista y, sobre todo, temas éticos, políticos, tecnológicos, etc.

    En cuanto a la incapacidad de componer un tema musical o pictórico, que tú no puedas no invalida dicha incapacidad. Concretamente tú no podras, pero sí alguien de tu especie. Sin embargo, ningún robot es capaz de hacer esas creaciones.

    Me gusta

    • Jose Luis

      Efectivamente te avisan por correo.
      La creatividad en sistemas, sean estos naturales o artificiales, pueden entenderse como una disposición, es decir, una propiedad que, si se dan las circunstancias apropiadas se ejecuta, o si quieres se implementa en el sistema. El tema de qué son las disposiciones es algo complejo, pero es suficiente con saber que «Dar un lata de coca-cola» es una disposición que presentan algunas máquinas expendedoras de refrescos (no todas) y que si se dan las circunstancias apropiadas, la disposición se hace efectiva.
      Bien, con la creatividad pasaría algo similar. Un sistema -natural o artificial-, con una arquitectura lo suficientemente compleja, creo que de tipo dinamicista, en las circunstancias adecuadas, puede manifestar una conducta creativa. La creatividad es una propiedad emergente de los sistemas. No hay que programar a la máquina para que sea creativa. Lo que hay que hacer es diseñar arquitecturas que le permitan al agente interactuar con el entorno y disponer de un mecanismo de aprendizaje simple. En estos casos podría emerger una conducta creativa o si se quiere, ofrecer una solución creativa a un problema.
      Efectivamente, las implicaciones sociales, epistemológicas y éticas están abiertas, y hoy día, la filosofía de la inteligencia artificial es uno de los campos más atractivos en filosofía.
      ¿Componer temas musicales? Joder, después de escuchar a Kamela aún crees que somos una especie inteligente. Además, ya existen sistemas con capacidad para componer textos, por ejemplo, y engañar a humanos. Sistemas que pasan el test de Turing. Otra cosa es que consideres que pasar el test de Turing no es suficiente.
      Gracias por el comentario.
      PD seguimos teniendo pendiente el partido de baloncesto. Te vas a enterar lo que es un gorro emergente.

      Me gusta

  • Jose Luis

    Bueno Javier, no se qué quieres decir cuando afirmas que la creatividad es algo intrínseco del ser humano mientras que en los sistemas artificiales es «vacuo».
    Al parecer niegas la capacidad creativa en otras especies animales. ¿Acaso cuando un chimpancé o un cuervo se las ingenian para hacer un uso novedoso de un objeto para solucionar un problema, no es algo creativo?
    Por otro lado, existen sistemas artificiales que se acercan mucho a la creatividad. Por ejemplo, se les propone una determinada hipótesis y el sistema genera los experimentos necesario (incluyendo el control de variables) para confirmar la hipótesis . Si esto no es creatividad, es algo que se parece mucho.
    El argumento de que los agentes artificiales no son creativos porque no serían capaces de componer un tema musical, un soneto o pintar un cuadro, no es válido porque yo tampoco soy capaz, aunque nop me tengas por muy inteligente.
    Gracias por tu comentario.

    Me gusta

  • Javier Osorio

    Es bastante interesante, pero no todo es un camino de rosas, y seguro que surgirán un millar de problemas antes de que puedan «emular» (si es que lo consiguen) una mente humana. Yo es que soy de esos que piensan que una máquina no podrá asemejarse a un ser humano. Bueno, sí en el aspecto lógico-racional, pero nada más. La capacidad creativa del hombre, por ejemplo, es algo intrínseco; siendo, en la máquina, algo vacuo (corrígeme si me equivoco, por favor).

    Dejando a un lado las cuestiones puramente científicas en torno a habilidades cognitivas (que es casi la totalidad del artículo), y acercándonos más al plano ético: ¿Para qué servirán en un futuro estas máquinas? Dudo que para hacernos la vida mejor. No en primera instancia, por lo menos. Me refiero a que, como ya habrás pensado también, serán las grandes corporaciones las que tengan el monopolio de salida de estos robots, y no serán asuntos limpios para los que obrarán estas máquinas.

    Me gusta

Deja un comentario