Manzana investigadores han publicado un nuevo artículo sobre un inteligencia artificial (IA) que, según afirma, es capaz de comprender el lenguaje contextual. El artículo de investigación aún por revisar por pares también menciona que el modelo de lenguaje grande (LLM) puede funcionar completamente en el dispositivo sin consumir mucha potencia computacional. La descripción del modelo de IA hace que parezca adecuado para el papel de asistente de un teléfono inteligente, y podría actualizar a Siri, el asistente de voz nativo del gigante tecnológico. El mes pasado, Apple publicado otro artículo sobre un modelo de IA multimodal denominado MM1.
El trabajo de investigación Actualmente se encuentra en la etapa de preimpresión y se publica en arXiv, un repositorio en línea de acceso abierto de artículos académicos. El modelo de IA se denominó ReALM, que es la abreviatura de Resolución de referencia como modelo de lenguaje. El artículo destaca que el enfoque principal del modelo es realizar y completar tareas solicitadas utilizando el lenguaje contextual, que es más común en la forma en que hablan los humanos. Por ejemplo, según afirma el documento, podrá entender cuando un usuario dice: «Llévame al que está en segundo lugar desde abajo».
ReALM está diseñado para realizar tareas en un dispositivo inteligente. Estas tareas se dividen en tres segmentos: entidades en pantalla, entidades conversacionales y entidades en segundo plano. Según los ejemplos compartidos en el documento, las entidades en pantalla se refieren a tareas que aparecen en la pantalla del dispositivo, las entidades conversacionales se basan en lo que el usuario ha solicitado y las entidades en segundo plano se refieren a tareas que ocurren en segundo plano, como una canción que se reproduce en una aplicación.
Lo interesante de este modelo de IA es que el artículo afirma que, a pesar de asumir la compleja tarea de comprender, procesar y realizar acciones sugeridas a través de indicaciones contextuales, no requiere grandes cantidades de energía computacional, «lo que convierte a ReaLM en una opción ideal para una aplicación práctica». sistema de resolución de referencia que puede existir en el dispositivo sin comprometer el rendimiento”. Lo logra utilizando muchos menos parámetros que los principales LLM, como GPT-3,5 y GPT-4.
El documento también afirma que a pesar de trabajar en un entorno tan restringido, el modelo de IA demostró un rendimiento «sustancialmente» mejor que OpenAI GPT-3.5 y GPT-4. El documento detalla además que, si bien el modelo obtuvo mejores resultados en pruebas comparativas de solo texto que GPT-3.5, superó a GPT-4 en declaraciones de usuarios de dominios específicos.
Si bien el artículo es prometedor, aún no ha sido revisado por pares y, como tal, su validez sigue siendo incierta. Pero si el artículo recibe críticas positivas, eso podría impulsar a Apple a desarrollar comercialmente el modelo e incluso utilizarlo para fabricar siri más inteligente.