Qualcomm ha presentado una gama de nuevas tecnologías generativas inteligencia artificial (IA) para teléfonos inteligentes Android en el evento Mobile World Congress (MWC) 2024. Estas funciones estarán impulsadas por Boca de dragón y plataformas Qualcomm y estará completamente dentro del dispositivo. Además de presentar un modelo de lenguaje grande (LLM) dedicado para respuestas multimodales y una herramienta de generación de imágenes, la compañía también agregó más de 75 modelos de inteligencia artificial que los desarrolladores pueden utilizar para crear aplicaciones específicas.
en un correoQualcomm anunció todas las características de IA que reveló en el CMM. Lo más destacado es que, a diferencia de la mayoría de los modelos de IA modernos, como ChatGPT, Gemini y Copilot, que procesan información en servidores, los modelos de IA de Qualcomm están completamente localizados dentro del dispositivo. Las funciones y aplicaciones del dispositivo creadas con estos modelos se pueden personalizar para los usuarios, además de minimizar los problemas relacionados con la privacidad y la confiabilidad. Para ello, el fabricante de chips ha puesto a disposición de los desarrolladores más de 75 modelos de IA de código abierto, incluidos Whisper, ControlNet, Stable Diffusion y Baichuan 7B, a través de Qualcomm AI Hub, GitHub y Hugging Face.
La compañía dice que estos modelos de IA también requerirán menos potencia computacional y costará menos crear aplicaciones, ya que están optimizados para sus plataformas. Sin embargo, el hecho de que los 75 modelos sean pequeños y estén diseñados para tareas específicas también es un factor que contribuye. Entonces, si bien los usuarios no verán un chatbot de ventanilla única, estos ofrecerán amplios casos de uso para tareas específicas como la edición o transcripción de imágenes.
Para acelerar el proceso de desarrollo de aplicaciones utilizando los modelos, Qualcomm ha agregado múltiples procesos de automatización a su biblioteca de inteligencia artificial. «La biblioteca de modelos de IA maneja automáticamente la traducción del modelo desde el marco fuente a tiempos de ejecución populares y funciona directamente con el SDK directo de Qualcomm AI Engine, luego aplica optimizaciones basadas en hardware», afirmó.
Además de los pequeños modelos de IA, la empresa estadounidense de semiconductores también presentó herramientas LLM. Estos se encuentran actualmente en la fase de investigación y solo se demostraron en el evento del MWC. El primero es Large Language and Vision Assistant (LLaVA), un LLM multimodal con más de siete mil millones de parámetros. Qualcomm dijo que puede aceptar múltiples tipos de entradas de datos, incluidos texto e imágenes, y generar conversaciones de varios turnos con un asistente de inteligencia artificial sobre una imagen.
Otra herramienta que se demostró se llama Adaptación de rango bajo (LoRA). Se demostró en un teléfono inteligente Android y puede generar imágenes impulsadas por IA utilizando Stable Diffusion. No es un LLM en sí, sin embargo, puede reducir la cantidad de parámetros entrenables de los modelos de IA para hacerlos más eficientes y listos para escalar. Además de su uso en la generación de imágenes, Qualcomm afirmó que también se puede utilizar para modelos de IA personalizados para crear asistentes personales personalizados, traducción de idiomas mejorada y más.
Para conocer detalles de los últimos lanzamientos y novedades de Samsung, Xiaomi, Realme, OnePlus, Oppo y otras compañías en el Mobile World Congress de Barcelona, visita nuestro Centro del CMM 2024.