"¿Estás asustado ya, humano?" nos preguntaba The Guardian en su artículo generado mediante GPT-3. Desde su publicación, muchos usuarios han reaccionado manifestando su asombro e incluso cierto temor porque una red neuronal pueda elaborar textos tan complejos como ese. Pese a que es un texto editado, retocado y mezclado por los editores del periódico, la perturbadora sensación que estamos leyendo algo "especial" se repite en muchos de nosotros.
Este provocador efecto que nos generan ciertos programas de ordenador, IAs o chatbots se conoce como efecto ELIZA. Y fue descrito por el informático del MIT Joseph Weizenbaum. En 1966.
El origen de los chatbots empezó con un profesor de informática del MIT que quería hacer broma de las preguntas que suelen hacer los psicoterapeutas rogerianos. El programa ELIZA reconocía palabras clave y preguntaba sobre ellas como si fuera un psicólogo.
Humano: Bueno, mi novio me hizo venir aquí.
ELIZA: ¿Tu novio te hizo venir aquí?
Humano: Él dice que estoy deprimida la mayor parte del tiempo.
ELIZA: Lamento escuchar que estés deprimida.
Humano: Es cierto. Soy infeliz.
ELIZA: ¿Cree usted que venir aquí le ayudará a no ser infeliz?
En el caso que el programa no detectaba una palabra clave, el chatbot respondía con frases genéricas como "continúe" o "cuéntame más". La reacción de los usuarios sorprendió a Joseph Weizenbaum.
Era un simple código, pero daba la ilusión de empatía."No me había dado cuenta... de que exposiciones extremadamente cortas a un programa de ordenador relativamente simple podrían inducir un poderoso pensamiento delirante en personas bastante normales", describía.
Weizenbaum no esperaba ese efecto. La gente estaba cautivada. Algo que le pareció perturbador y preocupante, pues los usuarios no entendían que estaban hablando con un sencillo programa. Al efecto de cautivación se le conoce como efecto ELIZA, en honor a las reflexiones de su creador sobre cómo las máquinas podían imitar efectivamente un sentido de comprensión humana y generar emociones.
En los años 70 la inteligencia artificial era un campo muy nuevo. Pero mientras algunos de sus contemporáneos eran optimistas, Weizenbaum comenzó a hablar en contra de la barrera entre humanos y máquinas. El creador del primer chatbot y uno de los pioneros de la inteligencia artificial, fue también uno de sus primeros críticos.
El legado de ELIZA sigue estando muy presente en nuestra actualidad. La definición establecida para describir este efecto es "la susceptibilidad de las personas a buscar una mayor comprensión en cadenas de símbolos -en especial las palabras- ensartados por computadoras".
El descubrimiento del efecto ELIZA ha sido muy importante en el desarrollo de la inteligencia artificial, principalmente en aquellos chatbots que intentan transmitir emociones o intentar que el usuario perciba el programa como algo más cercano.
Lo vemos constantemente en asistentes como el de Google, que claman por nuestra comprensión cuando no entienden la pregunta o en los robots inteligentes que intentan hacerse pasar por compañeros de oficina, cuando simplemente están programados para ofrecernos respuestas que puedan resultarnos reconfortantes.
Un paso más allá va XiaoIce, el chatbot chino de Microsoft con la misión de convertirse en "una IA con la que los usuarios sean capaces de establecer conexiones emocionales a largo plazo".
Microsoft reconoce que el 70% de las respuestas de XiaoIce derivan de datos extraídos de sus propias conversaciones pasadas y arrojan una conclusión relacionada con el efecto ELIZA; la longitud de las conversaciones parecen ser un indicativo de satisfacción del usuario. Es decir, a mayor tiempo pasamos hablando con las máquinas, más nos dejamos llevar por sus respuestas.
A pesar de los avances, los chatbots modernos y los asistentes inteligentes como Siri o Alexa siguen sin poder "entendernos". La IA conversacional se ha vuelto más fiable y agradable, pero no deja de ser el resultado de unas líneas de código. Y en algunos casos el resultado es más monótono y predecible de lo que podríamos pensar. Con redes como GPT-3 el nivel de complejidad es tan alto que nos es más fácil intentar encontrar un sentido al resultado que no descubrir cuál es el mecanismo por el que ha llegado a esa respuesta.
Los propios creadores del GPT-3 reconocen que ?aunque la calidad es alta en general, las muestras se repiten semánticamente, pierden coherencia en pasajes largos como podría ser un libro de centenares de páginas, se contradicen y contienen oraciones o párrafos sin sentido?.
Utilizando GPT-3 # un robot escribe este artículo en @guardian . Does that scare you, human? #
— David Martínez ? (@dmartinezpr) September 8, 2020
Entre las frases que la IA publica en el artículo de The Guardian, está la de "siempre agradecido por los comentarios". Una respuesta ampliamente repetida en internet y que para GPT-3 no es difícil de asociar con el texto. Curiosamente, en el mismo artículo se introduce otra frase que también suele ser repetida: la IA "no tiene sentimientos". El mismo texto nos transporta indirectamente al efecto ELIZA (dando las gracias e intentando generar empatía), mientras replica los mismos argumentos que lee acerca de su propia naturaleza (la IA no tiene sentimientos). El texto no está falto de errores. Nadie es perfecto. Y la IA, al ser reflejo de nuestros fallos, tampoco se libra.
"Cualquier tecnología suficientemente avanzada es indistinguible de la magia", decía Arthur C. Clarke. Weizenbaum se dio cuenta de que incluso los chatbots más sencillos podían inducir en nosotros esa involucración emocional. Éramos conscientes que ELIZA no simulaba emoción y ahora somos conscientes que GPT-3 no está a la altura de los periodistas de The Guardian, pero el efecto sigue produciéndose y los desarrolladores cada vez tienen mejores herramientas para que nuestra mente no se dé cuenta de lo que hay detrás.
| He hablado con los 15 bots más populares y todavía son un verdadero desastre
.