Hace unas semanas, Bill Gates publicaba en el MIT Technology Review su selección de "10 tecnologías de vanguardia" que, en su opinión, iban a generar titulares (y, quizás, pasar a a la historia) este año.
Así, al lado de vacunas personalizadas para el cáncer, los reactores de fisión nuclear de 4ª generación o la carne cultivada en laboratorio, Gates habla también de la citada 'destreza robótica', la búsqueda de robots con la capacidad, por ejemplo, para seguir realizando su tarea cuando los objetos que tenían que manipular variaban ligeramente su posición, o eran sustituidos por otro.
Hoy en día es habitual encontrar en las fábricas brazos robóticos, máquinas capaces de sustituirnos realizando tareas como las de ensamblar piezas, soldarlas o pintarlas; más recientemente se han añadido las manos robóticas, que reproducen la forma de las manos humanas y mejoran la capacidad de recoger y trasladar objetos.
Sin embargo, en el sector industrial sigue habiendo tareas -aparentemente nimias, pero fundamentales- que los robots de hoy en día no son capaces de llevar a cabo, por requerir movimientos extremadamente sutiles de dedos y manos, cosas como pelar un cable, desatar un nudo o alinear ciertos destornilladores con las ranuras de un tornillo.
Todas ellas son tareas en las que el manejo humano de las manos está muy por delante de la capacidad de percepción, movimiento y precisión de cualquier alternativa robótica (y ya no hablemos de tareas que requieren el uso simultáneo de dos manos, como el reemplazo de las pilas de un mando a distancia).
La amplia porción de la corteza motora humana dedicada a la manipulación, así como el alto número y el grado de sensibilidad de los mecanorreceptores en nuestras palmas y yemas de los dedos son indicaciones de la importancia de que la manipulación tiene en nuestras vidas (y, sobre todo, de la que tuvo para nuestros más directos antepasados).
Pensamos que nuestra mano es un complejo sistema que incluye huesos, piel y 26 huesos, coordinados a nivel inconsciente por el cerebro. Cuando agarramos algo y lo manipulamos, podemos estar haciendo presión con cierta parte de la superficie de los dedos, pero estar deslizando, simultáneamente, otra parte de la misma por el objeto.
Adam Spiers, investigador del Laboratorio GRAB ('Grasping & Manipulation, Rehabilitation Robotics, and Biomechanics') la Universidad de Yale, explica que esa conjunción "de interacciones de fuerza y fricción son, en realidad, algo bastante complicado, pero damos por sentado que es algo muy simple de hacer".
Muchas de nuestras reacciones durante el proceso de manipulación manual de objetos son intuitivas: no somos consciente de cómo las llevamos a cabo, y eso repercute en nuestra capacidad para reproducirlas recurriendo a la tecnología.
Sin embargo, hay científicos trabajando (y realizando prometedores avances) en dotar a los robots de lo que se ha dado en llamar 'destreza robótica'. Y están atrayendo la atención de los grandes emprendedores del sector tecnológico.
Citando un paper publicado hace ya una década por investigadores del Instituto de Ciencia y Tecnología Avanzada de Corea, "la destreza es un concepto bastante amplio en el lenguaje común, en el que intervienen aspectos vinculados tanto a la habilidad como la estabilidad a la hora de realizar movimientos con el fin de manipular objetos".
Y aunque un robot no puede ser programado para descubrir la manera de agarrar cualquier objeto con sólo mirarlo, sí contamos con técnicas para que aprenda por sí mismo a hacerlo. Por lo general, la opción favorita de los investigadores para tratar de enseñar a una IA a controlar un robot físico es recurrir al aprendizaje por refuerzo.
Pero incluso esta revolucionaria técnica conlleva una serie de contratiempos; recordemos que el aprendizaje por refuerzo se basa en constantes procesos de prueba y error: aprender a manejar algo, ya sean las estrategias de un videojuego o la manipulación de una caja física, requiere de tiempo (generalmente, años).
Cuando hablamos de un videojuego el asunto es más o menos sencillo: recurrimos a un entorno virtual acelerado en el que un bot puede aprender lo equivalente a 45.000 de nuestros años en tan sólo 10 meses. Pero ¿qué hacer cuando se trata de una tarea a realizar en el mundo real?
Los investigadores de OpenAI se propusieron hace unos meses enseñar a un una mano robótica a manipular un cubo hasta que consiguiera cambiarlo de posición y recurrieron para ello, también, a los entornos virtuales acelerados. Pero con una diferencia: empezaron a introducir cambios aleatorios en determinadas condiciones de la misma, para que el sistema aprendiera a lidiar con lo inesperado.
Así, podían cambiar los colores y tamaños de la mano y/o del cubo virtual, o bien lo resbaladizo y/o pesado que éste fuera; alteraron la gravedad y hasta agregaron ruido visual aleatorio. La alteración de la gravedad, por ejemplo, resultó fundamental para que la IA aprendiera la importancia del grado de inclinación de la mano a la hora de evitar que el cubo se caiga.
Durante nuestros primeros meses de vida aprendemos de manera muy similar, aunque no nos acordemos. Aunque, eso sí, aprendemos más rápido: el sistema desarrollado por OpenAI, bautizado como Dactyl, requirió de 6114 CPUs y 8 GPUs de Nvidia funcionando durante 100 años virtuales hasta que logró hacer esto:
Smruti Amarjyoti, del Instituto de Robótica de la Universidad Carnegie Mellon, destaca que aunque el método de entrenamiento (bautizado como 'aleatorización de dominios' por OpenAI) no es 100% novedoso, sus resultados sí lo son: "Los movimientos [de Dactyl] son elegantes [...] y altamente sofisticados".
Por otra parte Antonio Bicchi, profesor de robótica en el Istituto Italiano di Tecnologia, señaló sus limitaciones: la tarea "se sigue limitando a una tarea específica y en condiciones altamente favorables (la mano está hacia arriba, de modo que el dado cae en la palma)".
Pero, ¿es aún Dactyl el último grito en lo que se refiere a destreza robótica? Quizá sí en el campo de las manos artificiales, pero existen más tipos de destreza. TossingBot, presentado hace unas semanas por Google, es un ejemplo de ello.
Se trata de un robot 'pick-and-place' (de recogida y colocación) capaz de agarrar objetos y tirarlos dentro de cajas situadas fuera de su rango natural de movimientos, todo ello recurriendo al análisis de la información sobre su entorno captada a través de varias cámaras (incluyendo, por ejemplo, el lugar donde los objetos caen tras lanzarlos). Tras realizar 10.000 lanzamientos de objetos de todo tipo (desde plátanos de plástico a pelotas de ping-pong) su porcentaje de aciertos asciende al 86%.
En el caso de Dactyl, sus propios desarrolladores reconocen que aún es demasiado torpe como para ser usado en en el día a día de fábricas y almacenes, pero sí creen que su creación (y otras similares, como pudiera ser TossingBot) marcan el camino para que, con el tiempo los robots sean capaces montar nuestros aparatos, colocar nuestros lavavajillas, e incluso ayudar a levantar a las personas mayores de sus camas.
Imagen | Bautsch
.