En noviembre del año pasado, el equipo de DeepMind presentó su nueva arquitectura de inteligencia artificial: MuZero. Hasta ahora, el buque insignia de las arquitecturas de deep learning era AlphaZero, capaz de defenestrar, sin el más mínimo problema, tanto a los mejores jugadores del mundo al ajedrez, al Go o al soghi, como a los mejores programas de juego existentes como Stockfish o Elmo.
Sin embargo, AlphaZero padece una limitación muy importante a la hora de percibir su entorno: toma decisiones a partir de una información completa de su universo. Cuando jugamos al ajedrez, disponemos en todo momento de un conocimiento completo de dónde están situadas las piezas del tablero, y en virtud de esa información elegimos nuestra estrategia de juego. Pero, en la vida real, esto no sucede así: nunca tenemos toda la información sobre lo que va a pasar y nuestro entorno no está tan formalizado ni tan reglamentado como una partida de ajedrez.
En lógica matemática solemos decir que nuestro entorno está lleno de conjuntos borrosos, es decir, que los límites de las cosas no son tan precisos como a un programa de ordenador clásico le gustaría que fueran. Nuestro mundo es caótico, desordenado, lleno de sucesos fortuitos, impredecibles? ¿cómo una máquina puede enfrentarse a algo así?
Esta es la gran novedad de MuZero. Su arquitectura está formada por la clásica red de aprendizaje profundo, pero lleva incorporadas otras tres redes. Una sería la de "control", encargada de valorar la situación y de elegir en función de las recompensas obtenidas, pero las otras dos son capaces de "imaginar" simulaciones del mundo en el que MuZero actúa. Al igual que parece que lo hacemos los seres humanos, el programa tiene "ideas" de cómo es probable que funcione la realidad, pero ideas esquemáticas, imperfectas, y completamente desacertadas en muchos casos. Y, atención, lo más brutal es que cuando se ha puesto a MuZero en acción, ha mejorado el estado del arte en la mayoría de los juegos a los que se ha enfrentado. La relevancia científica de este hecho es muy grande porque estamos ante una posible explicación del porqué de la mente.
Durante los últimos tiempos, el marco conceptual que ha dominado todo el estudio científico de la psicología humana ha sido eminentemente materialista. Nuestra mente es aquello que hace el cerebro, y el cerebro es un órgano biológico tan explicable en términos físicos como puede serlo el riñón o los pulmones. Sin embargo, el problema ha estado en que lo que tradicionalmente entendemos como mente tiene una serie de propiedades que son muy difíciles, si no imposibles, de explicar en términos estrictamente materialistas.
Mis pensamientos o sentimientos no se ven, no puedo observarlos por un microscopio, no son cuantificables, al menos de manera directa? Con un electroencefalograma o una resonancia magnética puedo observar qué zona de mi cerebro se activa cuando pienso tal o cual cosa, pero ese pensamiento se parece en muy poco a actividad electroquímica en una zona de mi neocórtex. Es por ello por lo que muchos filósofos y científicos han defendido teorías que, de uno u otro modo, eliminaban la mente. El filósofo norteamericano Paul Feyerabend fue el primero en postular el materialismo eliminativo, al que se adhirieron neurocientíficos como Paul y Patricia Churchland. Así mismo, desde posturas filosóficas actuales como el conductismo o el pragmatismo, autores tan populares como Wittgenstein, Gilbert Ryle, Daniel Dennett o Richard Rorty, han negado, con diversos grados y matices, distintos aspectos de la mente.
Y es que el argumento es claro: ¿para qué hace falta tener una mente si podemos crear un computador que puede hacer lo mismo y mucho mejor sin ella? AlphaZero no tiene un "lugar" en donde se pone a deliberar qué jugada hacer. No siente ningún deseo de ganar ni ningún miedo a perder, no tiene ningún mundo interno subjetivo, no tiene ningún yo que no desea que lo desconecten como tantas veces nos ha mostrado la literatura y el cine de ciencia ficción. Pero, sin embargo, es endiabladamente bueno haciendo lo que hace, muchísimo mejor que un humano. Entonces, ¿por qué la evolución biológica va a invertir recursos en generar una mente si sin ella se pueden hacer las cosas mucho mejor? ¿No será la mente tan solo una ilusión? ¿O no será un subproducto de la evolución, un epifenómeno sin función alguna, como lo es el mero ruido del motor de un coche?
El caso es que MuZero representa, cómo mínimo, evidencia a favor de la existencia de contenidos mentales con una función muy clara, y eficaz, a la hora de realizar tareas. Ahora, cualquiera que niegue la existencia de la mente apelando a su supuesta carencia de funcionalidad, debería explicar el éxito de MuZero.
Pero, si queremos tener una buena explicación de la mente nos queda un último escollo. Hay una faceta de la psique que se nos ha resistido muchísimo: la consciencia. Ya de por sí nos cuesta definirla: ¿qué diablos es la consciencia? Sabemos bien diferenciarla de su estado opuesto: sabemos muy bien que cuando dormimos la consciencia se apaga y que cuando despertamos se enciende de nuevo. ¿Pero qué es lo que se enciende? Un mundo. Abro los ojos y siento los molestos rayos de luz que entran en mi dormitorio por las rendijas de la persiana. Siento la suavidad de la almohada, la textura de la manta. Huelo el delicioso olor café que está preparando mi mujer? Y no solo el mundo exterior, sino también un mundo dentro de mí: recuerdo, "en mi cabeza", que tengo que entregar un informe a mi jefe y, al hacerlo, "veo" su cara severa regañándome si no lo hago a tiempo. Soy consciente de mis pensamientos, emociones, sensaciones, deseos, miedos?
Las máquinas no han conseguido acercarse ni un ápice a la experiencia consciente: ni AlphaZero, ni siquiera MuZero, tienen unas migajas de consciencia. Son tan inconscientes como mi tostadora. Vale pero ¿no hay forma de implementar consciencia en máquinas? Sí: vayamos a ver qué nos dice la psicología o las neurociencias de la consciencia y, a partir de ahí, pongámonos a la obra.
Eso es lo que hizo el científico cognitivo de la Universidad de Memphis, Stan Franklin. La teoría más famosa en la actualidad sobre el funcionamiento de la consciencia es la Teoría del Espacio de Trabajo Global (Global Workspace Theory) del psicólogo holandés Bernard Baars. En ella se nos dice que nuestra mente funciona como una especie de obra de teatro. El escenario representaría nuestra memoria de trabajo, es decir, la memoria que utilizamos para realizar cualquier labor.
Por ejemplo, si yo soy un carpintero fabricando un armario, en mi memoria de trabajo estarán las funciones de las herramientas que estoy usando, los tipos de madera que tengo a mano, el "plano mental" del armario que quiero construir, etc., sin embargo en mi memoria de trabajo será difícil que esté el recuerdo de mis últimas vacaciones en Ibiza, y si aparece será como una interferencia que, seguramente, me distraerá de mis objetivos. Dicho de otro modo: la memoria de trabajo es toda la información y habilidades de las que dispongo para hacer una tarea (en términos informáticos podríamos decir que es nuestra memoria RAM).
El foco de luz que se mueve a lo largo del escenario para iluminar a los actores representaría el foco de atención de la consciencia, es decir, de lo que yo soy consciente ahora mismo. Entre bambalinas, multitud de procesos inconscientes atienden a situaciones contextuales de la realidad y, en virtud de ellos, "sacan actores a escena", es decir, hacen emerger a la consciencia elementos que permanecen inconscientes en función de las necesidades del individuo.
Por ejemplo, necesito reunirme con un amigo y, de repente, aflora en mi consciencia el recuerdo de que está de vacaciones, por lo que no podré verlo hasta dentro de unas semanas. Ese "recuerdo" sería un elemento inconsciente que ha sido "sacado a la luz" de la consciencia en virtud de mis necesidades. El "foco luminoso" sería el instrumento que el "director de orquesta" utilizaría para tomar decisiones. La idea clave, y que constituye una aportación muy original, es que el contenido "iluminado" en el escenario se hace globalmente disponible o accesible para otros tantos procesos que quedarían representados en la metáfora como "el público de la obra". Lo característico de los estados conscientes es que están disponibles para su uso para muchos otros procesos, mientras que los estados inconscientes serían más específicos y, por tanto, menos utilizables globalmente.
Franklin y su equipo se pusieron entonces manos a la obra: había que implementar la teoría de Baars en un computador ¿Quién financiaría la empresa? El Tío Sam. En Estados Unidos, una buena parte de investigación en IA la lleva a cabo el ejército. La Office of Naval Research contrató a Franklin para resolver un problema que, en principio, no tenía nada que ver con la consciencia. Cuando un marinero terminaba de realizar cualquier servicio, había que darle alojamiento y asignarle nuevas tareas. Esta tarea logística era compleja y para ella se dedicaba el trabajo de hasta unas trescientas personas denominadas detailers. La marina quería automatizar tan costosa tarea y encargó a Franklin el trabajo, y Franklin lo aprovechó para llevar a cabo sus ideas: automatizaremos la tarea sí, pero lo haremos mediante un sistema que implemente la teoría de la consciencia de Baars.
Y así nació IDA (Intelligent Distribution Agent), un cuarto de millón de líneas de código en Java que han constituido el intento más poderoso de crear una máquina que pueda, al menos, emular el comportamiento consciente de un ser humano. IDA debía optimizar los costes de cada mudanza a la vez que atendía a las necesidades y deseos de los marineros, siempre ajustándose a la normativa y políticas de la marina que, usualmente, cambiaban según circunstancias. Para hacer todo esto, IDA se comunicaba con los marineros por email, por lo que debía usar y comprender el lenguaje natural con un cierto nivel de competencia.
IDA "percibía" el mundo a través de tres "modalidades sensoriales": lectura de correos, análisis de base de datos (que contendría registros de personal, ofertas de trabajo, lista de marineros a asignar, etc.) y procesamiento de información a través de comandos del sistema operativo. Cada sensor requería una base de conocimientos y un espacio de trabajo propios. Cada base de conocimientos era una red semántica fluida (slipnet). En el centro de todo el sistema estaba el foco que representaba la información supuestamente "consciente". Tal y como indica la teoría de Baars, la información consciente se caracteriza por ser accesible para todo el sistema.
Toda la arquitectura está basada en la presencia de multitud de codelets, pequeños programas especializados para monitorizar un determinado suceso, que compiten entre ellos tanto para ocupar el foco de atención consciente como para indicar que acción debe realizar el sistema. El comportamiento de los codelets está inspirado en el modelo de pandemónium propuesto por primera vez por el matemático Oliver Selfridge a finales de la década de los 50 del siglo pasado.
Supongamos que queremos construir un programa que reconozca competentemente letras, a pesar de que éstas estén escritas en diferentes estilos caligráficos. El modelo de Selfridge consistiría en construir una arquitectura basada en la presencia de multitud de pequeños programas muy especializados llamados diablillos (demons) establecidos en tres capas.
Primero estarían los diablillos de la forma, especializados en apreciar únicamente un aspecto muy concreto de cada letra. Por ejemplo, uno podría estar especializado en detectar líneas rectas, otro curvas, otro un círculo, etc. Después habría otra capa de diablillos cognitivos, uno por cada letra del abecedario. Éstos "gritarían" si reciben la información pertinente a su letra de los diablillos de la forma. Por ejemplo, el diablillo cognitivo "A" gritaría mucho si recibe información de los diablillos de la forma cuando alertaran de la existencia de triángulos, líneas rectas o una línea transversal tal y como suele tener la letra "A". El diablillo "O", por el contrario, solo recibiría información de formas redondeadas o de ausencia de cualquier línea transversal. Entonces, en una tercera capa estaría el diablillo decisor, quien "escucharía" a todos los demás diablillos y seleccionaría cuál es el que grita más.
Los codelets serían los diablillos de IDA, estarían "sentados viendo la función teatral" y tendrían un valor que crecería o decrecería (los codelets "gritarían") en función de si observaban en el escenario cierto parámetro en el que se estuvieran especializados. Ese valor se transmite a otros codelets específicos para tomar decisiones (diablillos decisores) que se activarán si dicho valor supera un determinado umbral.
Muy interesante es que IDA tenía un módulo emocional que interactuaba con el módulo de conducta a través de un tercer módulo de impulsos (drives). IDA podía sentir cierto "estrés" si cometía errores, por ejemplo, al no entender bien el correo electrónico recibido de un marinero. Emociones de este tipo, al igual que en los humanos, tendrían una función moduladora: si IDA estaba estresada por un asunto era más probable que dedicará más recursos a ese asunto que a otros.
En la actualidad IDA está siendo ampliada a un nuevo sistema denominado LIDA (Learning IDA), el cual incorpora nuevos mecanismos de aprendizaje y pretende tener un mayor rango de implementaciones que no tan solo servir como detailer en la marina, por ejemplo, en robots. Quizá lo más interesante de esta nueva implementación sea el concepto de ciclo cognitivo: un bucle de actividad flexible que, habitualmente, comienza por la percepción y termina con la acción, que en humanos se realizaría de entre cinco a diez veces cada segundo.
Los ciclos se ejecutarían en paralelo, si bien su linealidad se garantizaría mediante la consciencia. Franklin nos describe su funcionamiento en varios pasos: percepción, activación de memoria preconsciente, competencia de los codelets por el foco de la consciencia, emisión consciente, reclutamiento de recursos en virtud de lo que se es consciente, jerarquización de objetivos, y ejecución y ponderación de la acción. Parece muy plausible, dado lo que sabemos, entender nuestra mente como muchos procesos cíclicos funcionando en paralelo e interactuando entre sí.
A la hora de almacenar la información LIDA incorpora varios tipos de memorias funcionales propios de la literatura psicológica contemporánea como son la memoria sensorial, sensoriomotora, procedimental, episódica, declarativa? buscando replicar con la mayor precisión posible la arquitectura mental humana.
De acuerdo, un modelo muy completo y sofisticado, pero vamos a lo importante ¿Es LIDA un artefacto consciente? ¿Siente algo? ¿Hay una x tal que esa x es ser LIDA al igual que hay una y tal que ser esa y es ser Donald Trump o usted mismo? Franklin nos dice que el único tipo de consciencia que él atribuiría a su creación sería la consciencia funcional, es decir, que LIDA puede realizar unas funciones similares a los que hace una consciencia real. Sin embargo, a la que los filósofos consideran la auténtica consciencia, la consciencia fenoménica, LIDA no llega, aunque Franklin sostiene que, si lo pensamos bien, tampoco hay tantas razones convincentes para negársela rotundamente.
Pensémoslo: ¿cómo sabemos que otra persona es consciente? Porque su conducta se asemeja mucho a la nuestra en tanto que seres conscientes. Las personas hablan, caminan, mueven sus brazos? acciones para las que nosotros usamos la consciencia. Entonces, por analogía, aunque sin ninguna certeza, suponemos que los otros son conscientes. Pero piense el lector que el mundo fuese una broma de un dios macabro en el que usted es la única persona consciente siendo todo el resto de los seres, por ejemplo, robots programados para parecerlo, o meras alucinaciones propias de un sueño? Podría ser, porque yo no tengo acceso a la consciencia de los demás. No sé si los demás sienten el dolor o la alegría de la misma manera que yo ¡Podría ser yo el único organismo sufriente del universo!
Entonces, si nosotros no somos capaces de decir, con certeza científica, que los otros son conscientes ¿por qué les exigimos tanto a las máquinas? ¿No podríamos pensar, por analogía, que si una máquina hace exactamente lo mismo que una persona consciente, esa máquina es consciente, al igual que hacemos con nuestros hermanos, amigos y familiares?
Al negar, en principio, esa consciencia a las máquinas por el hecho de serlas, estaríamos cayendo en un cierto tipo de discriminación, en lo que se ha llamado el chauvinismo del carbono: como los seres humanos somos organismos biológicos hechos con química orgánica o del carbono y, de momento, solo podemos decir con rigor que los seres humanos tenemos consciencia, deducimos erróneamente que solo los organismos biológicos podemos tener consciencia. Evidentemente, eso no se sostiene. Antes los pájaros eran los únicos seres que podían volar y también eran organismos hechos de química carbónica, mientras que ahora tenemos aviones hechos de la más ruda química inorgánica que vuelan mucho mejor y más rápido.
Otro famoso argumento que Franklin trae a colación es el del ingrediente mágico. Y es que si negamos que la consciencia puede replicarse en una máquina porque las máquinas no pueden replicar ciertos de sus aspectos? ¿qué es lo que tiene la consciencia de especial para no poder replicarse? Desde el materialismo naturalista de la ciencia, cualquier ingrediente extra que se tuviese que añadir a una computadora para hacerla consciente, y que se saliera de lo estrictamente permitido por las leyes de la física, sería un añadido sobrenatural inaceptable. La consciencia debería ser un proceso natural tal y como lo es la digestión o la fotosíntesis, y como tal, debería ser replicable en su totalidad utilizando medios materiales.
Franklin se acerca a la posición de uno de los filósofos de la mente más famosos del momento, el australiano David Chalmers, quien sostiene que la consciencia es algo muy parecido a una magnitud física fundamental como la masa o la energía. Como tal, solo es indirectamente observable a través de sus efectos, por lo que deducir su estructura o sus cualidades intrínsecas únicamente a partir de ellos, se antoja una tarea muy difícil para los psicólogos, tanto más para los ingenieros observando máquinas: ¿cómo comprender los detalles del lenguaje de programación de una máquina solo contemplando su conducta?
Franklin parece resignarse a la imposibilidad de una solución profunda del problema, pero sugiere, citando al ingeniero de la Universidad de Sussex, Inman Harvey, que, "el ingrediente mágico" necesario para conseguir máquinas conscientes quizá solo sea un cambio en nuestra actitud como observadores. Quizá solo sea una cuestión de lo que estemos dispuestos a atribuir a nuestras máquinas. Franklin cuenta que muchos de los marineros que mantenían correspondencia regular por correo electrónico con IDA no tenían ningún reparo en afirmar que la máquina era consciente ¿En qué, verdaderamente, nos basamos nosotros para tender más razón que los marineros al negarlo?
En cualquier caso, Franklin apuesta por seguir trabajando en hacer máquinas cada vez más complejas, inteligentes y comunicativas pues, citando ahora a Hans Moravec, quizá cuando lo sean lo suficiente, todo el mundo asumirá sin más que son conscientes y, entonces, este tema no tendrá ya ninguna relevancia.
Fotos | iStock
.