«El vídeo no contiene ninguna teleoperación», afirma el fabricante noruego de robots humanoides 1X. «Sin gráficos por computadora, sin cortes, sin aceleraciones de video, sin reproducción de trayectorias programadas. Todo está controlado a través de redes neuronales, todo autónomo, todo velocidad 1X».
Este es el fabricante de humanoides al que OpenAI apoyó con sus chips el año pasado, como parte de una ronda de financiación Serie A de 25 millones de dólares. Una Serie B posterior de 100 millones de dólares mostró cuánta influencia vale la atención de OpenAI, así como el entusiasmo general en torno a los trabajadores robóticos humanoides de propósito general, un concepto que siempre pareció lejano en el futuro, pero que se ha vuelto absolutamente termonuclear en los últimos dos. años.
Los humanoides de 1X parecen extrañamente insuficientes en comparación con lo que, digamos, están trabajando Tesla, Figure, Sanctuary o Agility. El humanoide Eva ni siquiera tiene pies en este momento, ni manos humanoides diestras. Rueda sobre un par de ruedas motrices, balanceándose sobre una tercera pequeña rueda en la parte trasera, y sus manos son garras rudimentarias. Parece que está vestido para un trineo y tiene una pequeña carita sonriente LED parpadeante que da la impresión de que va a empezar a pedir comida y abrazos como un Tamagotchi.
1X tiene una versión bípeda llamada Neo en proceso, que también tiene manos muy articuladas, pero tal vez estas partes no sean muy importantes en estos primeros días de la frontera de los robots de uso general. La gran mayoría de los primeros casos de uso parecerían ser así: «coge esa cosa y ponla ahí»; apenas necesitas dedos capaces de tocar un piano para hacer eso. Y el lugar principal donde serán desplegados es en fábricas y almacenes planos con piso de concreto, donde probablemente no necesitarán subir escaleras ni pasar por encima de nada.
Es más, muchos grupos han resuelto la marcha bípeda y hermosas herramientas manuales. Ese no es el principal obstáculo. El principal obstáculo es lograr que estas máquinas aprendan tareas rápidamente y luego las ejecuten de forma autónoma, como Toyota lo está haciendo con brazos robóticos montados en escritorio. Cuando el Figura 01 «descubrió» cómo funciona una máquina de café por sí solo, era un gran problema. Cuando Optimus de Tesla dobló una camisa en videoy resultó estar bajo el control de un teleoperador humano, era mucho menos impresionante.
En ese contexto, mira este video de 1X.
Todas las redes neuronales. Todo Autónomo. Toda la velocidad 1X | Estudio 1X
Las tareas anteriores no son tremendamente complejas ni atractivas; no hay dobladoras de camisas ni máquinas de café en funcionamiento. Pero hay una gran cantidad de robots que parecen completos, haciendo una gran cantidad de recoger y dejar cosas. Los agarran desde la altura de los tobillos y la cintura. Los meten en cajas, contenedores y bandejas. Recogen juguetes del suelo y los ordenan.
También se abren puertas, se acercan a las estaciones de carga y se enchufan, utilizando lo que parece una maniobra de cuclillas innecesariamente compleja para conectar el enchufe cerca de sus tobillos.
En resumen, estos jiggers están haciendo prácticamente exactamente lo que necesitan hacer en los primeros casos de uso de humanoides de propósito general, entrenados, según 1X, «puramente de un extremo a otro a partir de datos». Básicamente, la empresa entrenó a 30 robots Eve en una serie de tareas individuales cada uno, aparentemente utilizando aprendizaje por imitación a través de video y teleoperación. Luego, utilizaron estos comportamientos aprendidos para entrenar un «modelo base» capaz de realizar un amplio conjunto de acciones y comportamientos. Luego, ese modelo base se ajustó hacia capacidades específicas del entorno (tareas de almacén, manipulación general de puertas, etc.) y finalmente entrenó a los robots en los trabajos específicos que tenían que realizar.
Cómo avanza la logística | Android EVE por 1X
Este último paso es presumiblemente el que ocurrirá en las ubicaciones de los clientes cuando los bots realicen sus tareas diarias, y 1X dice que solo toma «unos minutos de recopilación de datos y entrenamiento en una GPU de escritorio». Presumiblemente, en un mundo ideal, esto significaría que alguien se queda allí con un casco de realidad virtual y hace el trabajo por un rato, y luego el software de aprendizaje profundo combinará esa tarea con las habilidades clave del robot, la ejecutará unos miles de veces en simulación para probar varios factores y resultados aleatorios, y luego los bots estarán listos para funcionar.
«Durante el último año», escribe Eric Jang, vicepresidente de IA de 1X, en una publicación de blog, «hemos creado un motor de datos para resolver tareas de manipulación móvil de propósito general de una manera completamente de extremo a extremo. «Estamos convencidos de que funciona, por lo que ahora estamos contratando investigadores de IA en el Área de la Bahía de San Francisco para ampliarlo hasta 10 veces más robots y teleoperadores».
Cosas bastante interesantes, nos preguntamos cuándo estarán listas estas cosas para el horario de máxima audiencia.
Fuente: 1X