La interacción entre peatones y coches autónomos constituye uno de los aspectos más complejos de cara a lograr la popularización (o la mera aprobación legal) de estos últimos. Los investigadores responsables de los sistemas de conducción autónoma suelen quejarse del comportamiento imprevisible de los humanos.
Por eso, resulta crucial para los fabricantes desarrollar una tecnología que permita que los coches autónomos sean conscientes de qué están haciendo los peatones circundantes, para reaccionar (o incluso anticiparse) en consecuencia.
Pese a la gran cantidad de trabajos académicos publicados sobre la detección y/o predicción de comportamientos de los peatones, hay pocas compañías que se dediquen específicamente a desarrollar tecnología que aborde esta tarea. Pero algunas empiezan a despuntar en este campo.
Humanising Autonomy, una startup londinense, es una de ellas, y aspira a convertir su tecnología en un componente omnipresente no ya sólo en los coches autónomos que recorran las carreteras del planeta, sino en general de todos los sistemas de visión por ordenador enfocados al seguimiento de personas. Según explican en su web,
"Queremos ver ciudades donde [los vehículos autónomos] tengan en cuenta a los usuarios vulnerables de la carretera fuera de los mismos, no sólo la experiencia interior: los peatones, ciclistas y otros usuarios de la carretera deberían poder interactuar con estos vehículos, y éstos deberán comprenderlos para poder navegar de manera segura y eficiente en entornos urbanos complejos".
Con este fin, la compañía ha logrado recaudar 5,3 millones de dólares aportados por un grupo de "inversores internacionales" liderados por Anthemis Group, para reforzar tecnología de inteligencia artificial.
Dicha tecnología se basa en el uso de un conjunto de módulos de machine learning, entrenados con el fin de identificar cada uno de ellos los diferentes comportamientos que puedan estar adoptando los peatones, detectando si están a punto de cruzar la calle, si han establecido contacto visual con el vehículo o, por el contrario, si están con la vista fija en la pantalla de su móvil.
Según la compañía, una de las claves de su sistema radica en la variedad de sus datos y de las fuentes de donde los extrae: cámaras de salpicadero, de circuitos cerrados de televisión, con mayor o menor resolución, etc. También ha establecido alianzas con diversas instituciones (como gobiernos municipales) para que aporten sus propios vídeos.
El equipo de Humanising Autonomy se ha centrado ante todo en adquirir y analizar imágenes de accidentes, pues son las que más información pueden aportar sobre los patrones de conducta que desembocan en las situaciones que se buscan evitar.
Curiosamente, sus modelos se basan únicamente en datos RGB (luz y color), renunciando a cualquier información sobre distancias y profundidades que pudiera proporcionar un sistema lídar o similar.
Según explica Maya Pindeus, CEO de la compañía, no es incompatible usar ambas fuentes de datos, pero ésta última no es tan frecuente como la primera (de cara a entrenar la IA) ni, por lo que han podido detectar, tan relevante aportando información.
Pindeus también destaca que la estructura modular de su tecnología permitirá también personalizarla según la capacidad de procesamiento de cada vehículo, uno de los obstáculos que han de afrontar todos los desarrollos de tecnologías de IA para vehículos autónomos.
Vía | TechCrunch
.