Figure ha demostrado el primer fruto de una colaboración entre la empresa y OpenAI para mejorar las capacidades de los robots humanoides. En un video publicado hoy, se ve al robot Figura 01 conversando en tiempo real.
El progreso del desarrollo en Figure es nada menos que extraordinario. Sólo el empresario Brett Adcock surgió del sigilo el año pasado, después de reunir a un grupo de actores clave de Boston Dynamics, Tesla, Google DeepMind y Archer Aviation para «crear el primer robot humanoide de propósito general comercialmente viable del mundo».
En octubre, la Figura 01 ya estaba de pie y realizar tareas básicas autónomas. A principios de año, el robot había mira y aprende capacidades, y fue listo para ingresar a la fuerza laboral en BMW a mediados de enero.
tenemos que verlo en el piso del almacén el mes pasado, justo antes de que Figure anunciara una exitosa ronda de financiación Serie B junto con un acuerdo de colaboración con OpenAI «para desarrollar modelos de IA de próxima generación para robots humanoides». Ahora tenemos una idea de lo que eso significa.
Actualización del estado de la figura: razonamiento de voz a voz de OpenAI
adcock confirmado en una publicación X que las cámaras integradas de Figura 01 envían datos a un gran modelo de lenguaje de visión entrenado por OpenAI, mientras que las propias redes neuronales de Figura también «toman imágenes a 10 Hz a través de cámaras en el robot». OpenAI también es responsable de la capacidad de comprender palabras habladas, y toda esta afluencia de información se traduce en «acciones robóticas diestras, rápidas y de bajo nivel» mediante la red neuronal de Figure.
Confirmó que el robot no fue teleoperado durante la demostración y que el vídeo fue filmado a velocidad real. En resumen, un logro notable para una asociación que tiene menos de dos semanas: «nuestro objetivo es entrenar un modelo mundial para operar robots humanoides al nivel de mil millones de unidades», dijo Adcock. A este ritmo, no tendremos que esperar mucho.
Fuente: Cifra