¿Qué acaba de pasar? Trabajando con investigadores internacionales, Meta ha anunciado hitos importantes para comprender la inteligencia humana a través de dos estudios innovadores: han creado modelos de IA que pueden leer e interpretar señales cerebrales para reconstruir oraciones tipadas y asignar los procesos neuronales precisos que transforman los pensamientos en palabras habladas o escritas.
El primero de los estudios, realizados por el laboratorio fundamental de investigación de inteligencia artificial (justa) de Meta en París, colaborando con el Centro Vasco sobre Cognición, Cerebro y Lenguaje en San Sebastián, España, demuestra la capacidad de decodificar la producción de oraciones no grabaciones cerebrales invasivas. Usando magnetoencefalografía (MEG) y electroencefalografía (EEG), los investigadores registraron la actividad cerebral de 35 voluntarios sanos mientras escribían oraciones.
El sistema emplea una arquitectura de tres partes que consiste en un codificador de imagen, un codificador cerebral y un decodificador de imágenes. El codificador de la imagen construye un rico conjunto de representaciones de la imagen independientemente del cerebro. El codificador cerebral luego aprende a alinear las señales de MEG con estos incrustaciones de imágenes. Finalmente, el decodificador de imágenes genera una imagen plausible basada en estas representaciones cerebrales.
Los resultados son impresionantes: el modelo de IA puede decodificar hasta el 80 por ciento de los personajes escritos por participantes cuya actividad cerebral se registró con MEG, que es al menos el doble de efectivo que los sistemas EEG tradicionales. Esta investigación abre nuevas posibilidades para las interfaces no invasivas de la computadora de cerebro que podrían ayudar a restaurar la comunicación para las personas que han perdido la capacidad de hablar.
El segundo estudio se centra en comprender cómo el cerebro transforma los pensamientos en el lenguaje. Al usar la IA para interpretar las señales MEG mientras los participantes escribían oraciones, los investigadores pudieron identificar los momentos precisos en los que los pensamientos se convierten en palabras, sílabas y letras individuales.
Esta investigación revela que el cerebro genera una secuencia de representaciones, comenzando desde el nivel más abstracto (el significado de una oración) y transformándolos progresivamente en acciones específicas, como los movimientos de los dedos en un teclado. El estudio también demuestra que el cerebro usa un «código neuronal dinámico» para encadenar representaciones sucesivas mientras mantiene cada una de ellas durante períodos prolongados.
Si bien la tecnología es prometedora, quedan varios desafíos antes de que se puedan aplicar en entornos clínicos. El rendimiento de decodificación sigue siendo imperfecto, y Meg requiere que los sujetos estén en una habitación magnéticamente blindada y permanezcan quietas. El escáner MEG en sí es grande, costoso y necesita ser operado en una habitación blindada, ya que el campo magnético de la Tierra es un billón de veces más fuerte que el del cerebro.
https://www.youtube.com/watch?v=wmtxterjlyy
Meta planea abordar estas limitaciones en futuras investigaciones mejorando la precisión y confiabilidad del proceso de decodificación, explorando técnicas alternativas de imágenes cerebrales no invasivas que son más prácticas para el uso diario y el desarrollo de modelos de IA más sofisticados que pueden interpretar mejor señales cerebrales complejas. La compañía también tiene como objetivo expandir su investigación para incluir una gama más amplia de procesos cognitivos y explorar posibles aplicaciones en campos como la atención médica, la educación y la interacción humana.
Mientras más investigación Se necesita antes de que estos desarrollos puedan ayudar a las personas con lesiones cerebrales, nos acercan a la construcción de sistemas de IA que pueden aprender y razonar más como los humanos.