La seguridad es la gran prioridad de los fabricantes de vehículos autónomos: cada accidente ocurrido durante la fase de pruebas de algún nuevo coche o sistema de navegación ha atraído titulares y publicidad negativa, y parece alejar un poco más al gran público de esta clase de transporte.
Pero, cuestiones de marketing al margen, es legítimo preguntarse si alguna vez la IA de los vehículos autónomos podrá suplir de manera efectiva a los conductores humanos, con todo lo que ello supone.
Sam Anthony es el co-fundador de Perceptive Automata, una compañía de desarrollo de software para vehículos autónomos, y el año pasado reflexionaba en su blog corporativo acerca de los elementos necesarios para desarrollar un coche autónomo.
Pensemos: para moverse por una carretera, una IA necesita se capaz de reconocer los límites de la misma, de leer las señales de tráfico, de reconocer las luces de los semáforos y de determinar la trayectoria de los vehículos y personas que se cruzan en nuestro camino.
Los primeros requisitos están siendo solventados gracias al uso de software de reconocimiento de objetos, si bien empresas del sector como Propelmee nos recuerdan que las tecnologías de percepción constituyen todo un reto para los vehículos autónomos,
"porque es increíblemente difícil desarrollar un modelo generalizable y robusto que permita describir entornos de tráfico complejos, ya sea explícitamente o mediante datos. Los vehículos autónomos pueden encontrar obstáculos extraños y nunca antes vistos, nuevos tipos de señales de tráfico u obstáculos de un tipo conocido en una configuración extraña, como un grupo de niños con disfraces de Halloween".
Pero si la percepción es -como decíamos- un reto, el último factor es mucho más complejo, porque se trata de duplicar una capacidad humana en la que interviene un factor fundamental: la intuición.
Y es que, según Anthony, además de contar con vehículos capaces de percibir los límites de la carretera, de leer las señales de tráfico y los semáforos, de reaccionar rápidamente a obstáculos imprevistos, necesitamos que los coches autónomos sea intuitivos.
Gerd Gigerenzer es un defensor a ultranza del papel de la intuición. También es un divulgador y neurocientífico alemán, director del Instituto Max Planck de Desarrollo Humano, que afirma que las decisiones que tomamos con mayor premeditación no son mejores que aquellas más instintivas.
Pero, ¿qué es la intuición? Según Gigerenzer, es la acción del cerebro, no dejando nunca de inferir la realidad, realizando constantes conjeturas sobre todo aquello que perciben nuestros sentidos. De no ser por este proceso inconsciente, deberíamos pensarlo todo y no haríamos nada.
Bien sabemos que la intuición humana es falible, pero la usamos con éxito miles o millones de veces a lo largo del día. La usamos, por ejemplo, cuando nos aproximamos a un paso de peatones en condiciones de baja visibilidad y no está muy claro si el peatón más cercano tiene la intención de cruzar. Y sin embargo, acostumbramos a valorar exitosamente (y en milésimas de segundo) dichas situaciones.
El 14 de febrero de 2016, en Mountain View (California), tuvo lugar un leve accidente de tráfico, a consecuencia de que un coche golpeara el lateral de un autobús municipal. El coche era un vehículo autónomo de Google, que interpretó erróneamente que el autobús frenaría para que pudiera incorporarse a su carril y así evitar un obstáculo.
Tras aquello, fuentes de Google afirmaron que "a partir de ahora, nuestros coches entienden más profundamente que los autobuses son menos propensos a ceder el paso que otros tipos de vehículos".
Una mera alteración de parámetros realizada por un programador. Útil en muchos casos, sin duda, pero que no tiene nada que ver con anticiparse a las decisiones de los futuros conductores de autobús con los que el coche tenga que lidiar en el futuro.
En una ocasión, Sam Anthony llevó a cabo un pequeño experimento situando una cámara en una intersección con poco tráfico para "ver con qué frecuencia los humanos recurrimos a las interacciones inconscientes en la carretera".
Relataba cómo en 30 segundos de vídeo es posible contar más de 45 de estas interacciones de una fracción de segundo en la que conductores y peatones intuyen si el otro les ha visto, si están dispuestos a cruzar o hacer un ceda el paso, etc. "Estos juicios humanos instantáneos son vitales para nuestra seguridad cuando conducimos".
Douglas Hofstadter, profesor de ciencias cognitivas y autor del reputado libro de divulgación científica 'Gödel, Escher, Bach' dijo en una ocasión, en referencia a los éxitos de los supercomputadores jugando partidas contra seres humanos, que no creía que esos fueran buenos ejemplos de 'inteligencia'.
A su modo de ver, no debemos llamar 'inteligencia' (aunque sea artificial) a contar con grandes conjuntos de reglas para resolver situaciones muy concretas:
"Si observas situaciones reales, no están delimitadas como una partida de ajedrez, de Go, o de algo por el estilo. Una situación real es algo en lo que no tienes claro qué afecta y que no. No creo que en este campo estemos replicando lo que hacen los cerebros".
El ejemplo que Hofstadter elige para ilustrar un 'caso real' es, muy adecuadamente, la conducción. Entonces, si la capacidad de conducir por una carretera normal y corriente es un ejemplo paradigmático de algo que hoy en día las máquinas no pueden realizar, ¿cómo podemos aspirar a automatizarla de manera fiable en el futuro?
Un camino posible sería intentar controlar (esto es, simplificar) el entorno, que es lo que hacemos ya con los trenes y su sistema de raíles, el equivalente en el mundo del transporte a una partida de ajedrez. Sin embargo, sabemos que esto es inaplicable cuando hablamos de coches y carreteras.
El otro camino es intentar enseñar a la IA a 'dominar el entorno' y conducir como un humano, haciendo uso para ello del machine learning.
El problema de esto es... ¿cómo lo programamos? ¿Cómo convertimos la intuición en un modelo de machine learning?
En su libro 'La dimensión tácita', el filósofo húngaro Michael Polanyi afirma que el ser humano puede actuar instintivamente gracias al conocimiento tácito derivado de la naturaleza, de la cultura o de la costumbre. O, como él mismo resume, porque "sabemos más de lo que podemos contar".
Muchas cosas sólo somos capaces de explicarlas eficientemente con el ejemplo y, si ya se antoja complicado explicarlas a un niño (prueba a detallarle a uno los pormenores de la técnica para saltar a la comba, como el momento exacto para entrar sin tocar la cuerda)... imagina a hacerlo con una IA.
Volviendo a Sam Anthony, éste nos recuerda que "si los coches autónomos quieren convertirse en una revolución del transporte urbano tendrán que existir en igualdad de condiciones con los humanos que ya utilizan esas mismas vías. [Y para eso] primero tenemos que descubrir cómo funcionan los humanos, y ya vendrá luego el entrenamiento de las máquinas".
Aquí es donde entra el concepto de 'teoría de la mente': la habilidad para comprender y predecir la conducta de otras personas, así como sus conocimientos y deseos; es la capacidad de percibir que las otras personas poseen un estado interno igual que el de un mismo y a la vez diferente de él.
La teoría de la mente comporta la representación interna de los estados mentales de las otras personas (el "ponerse en el lugar del otro"). Cuando existe un déficit en este campo (le ocurre, por ejemplo, a las personas autistas) su capacidad de interacción social se resiente, y las relaciones con los demás pueden volverse conflictivas.
Eso es lo que ocurre a nivel de tráfico con los coches autónomos que no son capaces de 'ponerse en el lugar del otro (vehículo)' con éxito. Y así pasa, que se terminan 'comiendo' buses municipales en Mountain View. U ocurren cosas como las que explica Anthony en su post:
"Los coches autónomos recurren con frecuencia a disminuir su velocidad, o a detenerse por completo, cuando no hay necesidad de hacerlo [...] Este estilo de conducción resulta desagradable para los pasajeros y molesto para los conductores y peatones humanos [lo que puede provocar] que los conductores humanos también se comporten de manera errática".
Eso animó a los ingenieros de Perceptive Automata a diseñar
"un modelo que pudiera usar toda la información inconsciente que nosotros, usamos para tomar decisiones increíblemente sofisticadas sobre lo que le está pasando por la cabeza a otra persona. Se podría decir que, en cierto sentido, nuestros modelos desarrollan su propia 'intuición' similar a la humana".
"Tomamos datos de sensores de vehículos relativos a interacciones con personas, porque cada vez que una persona interactúa con un vehículo emite cientos de señales que otro humano podría usar para comprender su estado mental".
"Mostramos los clips a grupos de personas que responden preguntas sobre el nivel de intención y conciencia del peatón (o motorista o ciclista) representado en función de lo que están viendo [y] repetimos este proceso cientos de miles de veces, con todo tipo de interacciones, usando luego esos datos para entrenar modelos que interpretan el mundo como lo hace la gente.
"Una vez entrenados, nuestros modelos de aprendizaje profundo permiten que los coches autónomos comprendan y predigan el comportamiento humano".
Estos avances no representan, ojo, ningún remedio infalible a la hora de evitar accidente: la Teoría de la Mente guía a los humanos de manera innata en todas nuestras interacciones, y eso no ha impedido que nos sigamos chocando cuando andamos por la calle o cuando conducimos por la carretera. Pero la mejora potencial que aportan estas tecnologías constituyen una mejora obvia para nuestra protección.
.