Apple no ha dicho mucho públicamente sobre sus planes de unirse a las muchas empresas que ofrecen productos de IA generativapero esta semana abrió una ventana a su trabajo detrás de escena en el tipo de sistema que impulsa los chatbots de IA y los generadores de imágenes.
El lunes lanzó OpenELM, al que llama un «modelo de lenguaje abierto de última generación». Modelos de lenguaje son los conjuntos masivos de información que herramientas como ChatGPT, Gemini, Perplexity y Dall-E utilizan para responder a las indicaciones que usted escribe cuando desea que una IA prepare un correo electrónico, escriba un código de computadora o cree una imagen fantástica.
Por lo tanto, todavía no es el producto de IA de Apple que todos estábamos esperando, pero es un paso lógico en esa dirección, y potencialmente da pistas sobre las capacidades de IA que Apple podría ofrecer en su próximo software iOS 18 para iPhones.
El lanzamiento de OpenELM llega apenas unas semanas antes Evento WWDC de Apple a principios de junio, donde la compañía tradicionalmente habla sobre su próxima ola de ofertas de software.
Apple no respondió a una solicitud de comentarios.
Pero durante una conferencia telefónica sobre resultados trimestrales en febrero, el director ejecutivo Tim Cook insinuó que Apple revelaría sus planes para IA generativa en algún momento de 2024. También en esa época, se informa que Apple cerró su proyecto de coche eléctrico de larga duración centrarse en la IA generativa y el Apple Vision Proel wearable que salió a la venta ese mismo mes y que el crítico de CNET Scott Stein llama «el dispositivo más extraño y salvaje de Apple».
Aún no está claro cómo encaja OpenELM en estos planes. Sin embargo, en un artículo de investigación publicado en marzo, Apple Discutimos modelos de lenguaje grande multimodal.o aquellos que pueden generar una variedad de formatos de contenido.
Mientras Apple ha estado aguantando el fuego, la mayoría de los gigantes tecnológicos y una serie de nuevas empresas ya han lanzado una o más generaciones de productos de IA de generación. Adobe, antrópico, Google y Abierto AI están en una carrera para lanzar modelos cada vez más capaces que no solo comprendan una variedad más amplia de consultas, sino que también produzcan imágenes y videos más realistas. estan igualados Deseoso de destacar los proyectos de investigación internos. en campos como los videojuegos y la composición musical para mostrar lo que pueden ofrecer para captar su atención y asegurar su lealtad potencial como usuarios de sus productos de inteligencia artificial. (Para conocer las últimas novedades sobre IA, además de reseñas de productos, explicaciones, consejos y más, consulte nuestra nueva guía AI Atlas.)
Algunas conclusiones sobre OpenELM
Un papel publicado en el sitio de investigación de aprendizaje automático de Apple señala que la versión OpenELM incluye todo lo necesario para entrenar y evaluar el modelo de lenguaje en conjuntos de datos disponibles públicamente, incluidos registros de entrenamiento, puntos de control y configuraciones previas al entrenamiento. (La parte ELM del nombre significa «modelo de lenguaje eficiente»).
En LinkedIn, Maxwell Horton, investigador de aprendizaje automático de Apple, escribió que OpenELM es parte de un nuevo repositorio de código abierto llamado CoreNet, que está disponible a través de GitHub. Este recurso también incluye código para convertir modelos en un marco de matriz para la investigación de aprendizaje automático en chips de Apple, que permite la inferencia y el ajuste en dispositivos Apple, así como modelos de visión y lenguaje con recetas de capacitación y publicación de código para 11 publicaciones de investigación de Apple. .
El documento de OpenELM dice que el objetivo es allanar el camino para futuros esfuerzos de investigación abierta.
«La reproducibilidad y transparencia de los grandes modelos lingüísticos son cruciales para avanzar en la investigación abierta, garantizar la confiabilidad de los resultados y permitir investigaciones sobre los sesgos de los datos y los modelos, así como los riesgos potenciales», agrega el documento.
Los modelos de lenguaje grandes se miden en lo que se conoce como parámetros, o el número de variables en un cálculo matemático utilizado para producir una salida a partir de una entrada determinada. A medida que aumenta el número de parámetros, también aumenta la capacidad del modelo para dar sentido al lenguaje. Los modelos previamente entrenados y ajustados por instrucciones de Apple tienen 270 millones, 450 millones, 1,1 mil millones y 3 mil millones de parámetros.
A modo de comparación, ChatGPT 3.5 tiene 175 mil millones de parámetros. La última versión del modelo Llama 3 de Meta tiene 70 mil millones de parámetros.
En julio pasado surgieron informes de que Apple estaba trabajando en un chatbot de IA llamado Apple GPT y un modelo de lenguaje grande llamado Ajax, pero la compañía no ha hecho comentarios.
«Tenemos mucho trabajo en marcha internamente, como he mencionado antes», dijo Cook sobre la IA generativa durante la conferencia telefónica sobre resultados de febrero. «Nuestro modus operandi, por así decirlo, siempre ha sido trabajar y luego hablar sobre el trabajo, y no salir adelante, así que vamos a mantener eso también».
Nota del editor: CNET utilizó un motor de inteligencia artificial para ayudar a crear varias docenas de historias, que están etiquetadas en consecuencia. La nota que está leyendo se adjunta a artículos que tratan de manera sustancial el tema de la IA, pero que fueron creados en su totalidad por nuestros editores y escritores expertos. Para obtener más información, consulte nuestro Política de IA.