Andres McAfee es un científico del MIT que trabaja para entender qué va a pasar en la sociedad cuando los robots con inteligencia artificial estén mucho más integrados con nosotros, los humanos. Aunque tiene varios libros publicados, en su última obra, Machine, Platform, Crowd lanza un mensaje ciertamente polémico: dejar nuestro orgullo a un lado y permitir que la IA tome mucho más la iniciativa.
"Deberíamos ser lo suficientemente humildes para dejar que las máquinas exploren nuevas opciones y territorios, y trabajar junto a ellas para avanzar más de lo que estamos avanzando ahora", concluía Andrew en su charla en el evento Hoy Es Marketing 2019 de hace unos días.
Pudimos conversar con él durante unos minutos sobre todo eso que dice que la inteligencia artificial puede hacer, el miedo a un futuro en el que los robots tomen las calles (singularidad) o cómo ve el progreso del coche autónomo.
Uno de los mensajes principales que lanzas es que no deberíamos subestimar las capacidades de la inteligencia artificial porque puede ayudarnos de maneras que aún ni sabemos. Pero, al mismo tiempo, se podría decir que puede hacernos daño en los mismos términos. ¿Cómo podemos confiar en la inteligencia artificial cuando no sabemos todo lo que puede implicar?
Hay varias respuestas para esto. La primera es que cualquier herramienta importante o poderosa puede utilizarse para hacer cosas malas. Podría usar un martillo para asesinar a alguien. Esto no es nuevo. ¿Qué cambia entonces? Mucha gente dice que es el hecho de que no podemos ver dentro de la inteligencia artificial, no podemos saber por qué toma las decisiones que toma, de la misma manera que sucede con los humanos. Si nos preguntan a los humanos por qué hemos hecho algo, normalmente la explicación que damos es errónea. Nuestros cerebros nos mienten.
Así que, sí, los sistemas de inteligencia artificial no son transparentes, al igual que los seres humanos tampoco lo somos. Sin embargo, si miras a cualquier software medianamente grande, verás que es transparente. Fíjate en los programas que conceden créditos. Hay un montón de inputs para que funcionen y al final te dicen si se te concede o no un crédito, y si es que no, conocerás la razón o razones exactas.
Podemos construir sistemas que entiendan cuáles son las cuatro o cinco cosas principales o prioritarias, y cómo de sensibles son para que yo pague o no un préstamo de vuelta, así que no veo por qué los sistemas de inteligencia artificial tengan que funcionar de una manera diferente.
Es decir, que al contrario de limitar la inteligencia artificial, proponer fomentarla.
Por supuesto, es la única manera de avanzar más de lo que lo estamos haciendo. Tienes el ejemplo de DeepMind, que es capaz de convertirse en un jugador excepcional de ajedrez en cuatro horas. Es un juego que los humanos llevamos perfeccionando cientos de años. Pero es que cuando AlphaGo venció al campeón de Go en 2016, vimos que la máquina empleaba una manera de jugar que ningún humano habría utilizado. Era simplemente diferente, y creo que es solo un ejemplo de todas las oportunidades que debemos considerar al trabajar con inteligencia artificial.
¿Crees que las máquinas tendrán sentido común algún día?
Nunca digas nunca. El sentido común es una de esas cosas increíblemente difíciles de enseñar a una computadora. Puedes observar a niños pequeños desarrollando el sentido común, pero es un misterio cómo lo hacen. Estamos tratando de averiguarlo, hay mucha investigación al respecto, pero no es fácil y no es el asunto principal en el que estamos centrados ahora mismo sobre inteligencia artificial.
¿Cómo te imaginas el futuro de la inteligencia artificial en cinco años?
Es importante ser humildes aquí porque hace cinco años habría estado equivocado sobre lo que ha acabado pasando en la actualidad. Vamos a ver un progreso más rápido en los próximos cinco años, pero mi respuesta más honesta es que no sé qué pasará. Pero lo que sí sé es que vamos a ver más machine learning e inteligencia artificial en la industria y en la sociedad porque es la única manera de conseguir las cosas que no podemos ahora. Será más rápido, barato y eficaz, será mejor.
Y escucho las preocupaciones de la gente sobre inteligencia artificial y creo que son legítimas, pero no olvidemos que también nos preocupamos cuando empezamos a usar las hojas de cálculo. Creo que con la inteligencia artificial deberíamos preocuparnos a ese nivel, pero no más.
Cómo resolverías los problemas éticos que hay ahora, por ejemplo, sobre el coche autónomo. En caso de accidente, el coche tendrá que decidir qué hacer, y puede que el resultado no nos guste en algunas ocasiones.
Esto se ha conocido tradicionalmente como el dilema del tranvía por razones históricas. Me da la sensación de que las sociedades solo van a permitir los coches autónomos si su solución al dilema del tranvía es aceptable para nosotros. Quizá tengamos que hacer firmar a toda la industria a que firme cinco pautas para saber qué hacer en caso de emergencia. Eso me parece plausible, pero creo que antes debemos preguntarnos qué estamos haciendo ahora, y es hacer que una persona al volante tome una decisión crucial en una fracción de segundo. En esa fracción de segundo no tenemos tiempo para plantearnos problemas éticos, giramos el volante y seguramente siguiendo el instinto de supervivencia.
Vale. Yo te digo que los coches autónomos pueden hacerlo mejor que eso y definitivamente no pueden hacerlo peor que nosotros.
¿Crees que acabaremos encontrando la cura del cáncer con la ayuda de la inteligencia artificial?
Por supuesto, ya nos está ayudando a ello. Estamos logrando avances muy rápidos para algunos tratamientos de cáncer. Estamos haciendo operaciones más precisas, entendiendo mejor las raíces del cáncer, etc. No diría que vamos a curar el cáncer, porque el cáncer es muchas cosas, pero sí que si alguien tiene la mala suerte de ser diagnosticado con un cáncer, tendrá mejores tratamientos en cinco, diez o veinte años que ahora. De hecho, solo pensar todas las vidas que hemos perdido por no apostar más por la inteligencia artificial me hacen sentir mal, creo que es hasta inmoral.
¿Y crees que una inteligencia artificial podrá acabar siendo el nuevo Mozart o Picasso?
Ya tenemos sistemas que generan música que es indistinguible de otra hecha por humanos. El arte es muy complicado. Cuando te muestro un Picasso piensas que es increíble porque a todos nos han enseñado que Picasso es increíble. Eso que llamamos ground truth en arte, ¿cómo de objetivo es? Simplemente no existe, es una cuestión cultural y social. Ya hemos visto casos de cuadros pintados por niños pequeños o elefantes que hacen que los expertos digan que son maravillosos, así que en el caso de las máquinas creo que puede suceder lo mismo.
Pero, entonces, ¿pueden ser las máquinas creativas?
Sí, pero las máquinas aún no entienden la condición humana. No saben lo que es vivir mi vida o la tuya. No entienden el lenguaje muy bien tampoco. Es más, yo mismo me sorprendería mucho cuando una inteligencia artificial escriba una novela y yo, como humano, no detecte que ha sido escrita por una máquina.
¿Y crees que eso acabará pasando?
Una vez más, nunca digas nunca, pero no creo que vaya a suceder a corto plazo.
¿Qué tipo de trabajos haremos los humanos cuando las máquinas sepan hacer todo mejor que nosotros?
Es una pregunta que se responde por sí misma, pero no me gusta la premisa. Las máquinas siguen siendo terribles con el sentido común, haciendo preguntas como los humanos, motivando a otras personas o siendo creativos de alguna manera. Creo que en esas áreas hay mucho que los humanos podríamos hacer. Piensa en una profesora de preescolar. Quizá no sea un trabajo con un sueldo muy alto, pero es un trabajo muy importante para la sociedad. ¿Vamos a permitir robots profesores de preescolar? Espero que no, es una idea terrible.
Por todo lo que hemos hablado supongo que no crees demasiado en la singularidad, ¿no?
Siempre me apoyo en lo que dice Andrew Ng sobre esto: preocuparse por robots asesinos y una inteligencia artificial que da miedo es como preocuparse por la población en Marte. Teóricamente es posiblemente, una vez más, nunca digas nunca, y está en nuestra lista de preocupaciones, pero cuando comparamos ese miedo a curar el cáncer, reducir los gases del efecto invernadero o mejorar la salud de todo el mundo, me pregunto, ¿vamos a frenar esos avances por ese miedo? Creo que frenar los avances por miedo es un error, que es estúpido y que es inmoral.
¿Crees que podremos llegar a acuerdos globales sobre inteligencia artificial?
Sociedades diferentes tomarán decisiones diferentes. Pregúntate qué gobiernos o instituciones internacionales hay ahora. La ONU existe, pero, ¿decide sobre el mundo? No. ¿Lo hará en diez años? Puedo decirte con seguridad que Estados Unidos no permitirá que la ONU gobierne por encima del país.
¿Pero no necesitamos gobiernos globales para cuestiones que nos afecten a todos?
No. Creo que es una mala idea, de hecho. En tiempos de incertidumbre y cambio, creer que sabes la respuesta por adelantado es un idea muy mala. Cuando escucho conversaciones sobre IA y los retos en torno a ella, hay dos aproximaciones.
Una yo la llamo de "gobernantes ascendentes", que dice que los riesgos son tan grandes y los problemas son tantos que hace falta poner cuerpos regulatorios inteligentes, objetivos y sabios que vean el futuro y nos guíen correctamente por el camino de la IA. El problema es que esa gente no existe. Toda persona increíblemente bien informada e imparcial puede acabar siendo comprada e influenciada. ¿Y anticipar el futuro? Sería Santa Claus, simplemente no existe.
Yo soy más de la escuela de innovación sin permiso, que se resumen en lo que Jimmy Bales dice sobre Wikipedia: haz que sea fácil corregir los errores en vez de dificultar o imposibilitar que se cometan errores. Habrá problemas que surjan, claro, pero intervendremos cuando veamos el problema. Te pongo un ejemplo que yo he vivido en Nueva York. Hubo un tiempo en el que la gente tomaba fotos por debajo de la falda de las mujeres en el metro. Ok, lo primero, qué verguenza. Lo segundo, eso debe ser ilegal.
Claro que cuando las cámaras eran algo aparatoso nadie pensó en algo así, pero ahora que todos llevamos una cámara en el bolsillo hay que repensarlo. ¿Qué hicimos? ¿Prohibimos los smartphones o las cámaras? No, dijimos que si te vemos haciendo eso estarás cometiendo un crimen, te arrestaremos y sufrirás el castigo. Ese es el enfoque adecuado. No prohíbas el smartphone, no intentes predecir todo lo malo que puede provocar por adelantado y luego lo prohíbas, si no que cuando veas un mal uso, prohíbelo y persíguelo.
¿Qué opinas de la inteligencia artificial en los teléfonos o en las televisiones? ¿Es solo marketing?
No, no, es genial. Le hablo a mi teléfono casi todo el tiempo. Es más, casi nunca le hablo a otro ser humano con mi teléfono. Un teléfono ya no es solo un teléfono. Le dicto mensajes, le pregunto cosas a Siri, así que diría que interactúo con la IA de mi teléfono mucho y ha mejorado mi experiencia.
¿Pero no crees que puede dar el mensaje equivocado de lo que puede realmente alcanzar la inteligencia artificial? Como que es una inteligencia artificial muy sencilla con respecto a lo que puede ser.
No. El reconocimiento por voz era algo que se pensaba muy difícil hasta hace poco tiempo. El término ?sencillo? es retrospectivo.
.