Copilot AI de Microsoft pronto podría ejecutarse localmente en PC en lugar de depender de la nube.
Intel le dijo a Tom’s Hardware que el chatbot podría ejecutarse en futuras PC habilitadas para IA que necesitarían incorporar unidades de procesamiento neuronal (NPU) capaces de superar los 40 billones de operaciones por segundo (TOPS), un nivel de rendimiento que aún no ha sido igualado por ningún procesador de consumo disponible actualmente.
Intel mencionó que estas PC con IA estarían equipadas para manejar «más elementos de Copilot» directamente en la máquina. Actualmente, Copilot depende predominantemente del procesamiento en la nube para la mayoría de las tareas, lo que genera retrasos notables, especialmente para solicitudes menores. Se espera que mejorar la potencia informática local reduzca esos retrasos, lo que podría mejorar el rendimiento y la privacidad.
Intel no respondió de inmediato a una solicitud de comentarios de Computerworld.
Copiloto en tu PC
Como previamente reportado, el uso de Copilot en Windows 11, ChatGPT, Adobe Firefly o herramientas genAI similares en realidad no procesa tareas en su computadora, sino en centros de datos remotos que utilizan importantes recursos y electricidad. Si bien es posible ejecutar aplicaciones como el modelo de texto a imagen de Stable Diffusion o el modelo de lenguaje Llama localmente, lograr resultados de alta calidad generalmente requiere una PC con capacidades de procesamiento sustanciales, especialmente una GPU de alta velocidad, anteriormente buscada para la minería de criptomonedas. .
Los recientes avances en hardware, en particular la inclusión de unidades de procesamiento neuronal en los últimos chips Intel Meteor Lake y las ofertas de AMD, han provocado debates sobre las PC con tecnología de inteligencia artificial. Estas NPU, diseñadas como componentes dedicados y de bajo consumo, tienen como objetivo facilitar la ejecución local de modelos de IA generativa, mejorando la eficiencia del procesamiento de la IA. La expectativa es que las NPU se conviertan en una característica estándar en las futuras PC, permitiendo que las tareas genAI funcionen sin problemas en segundo plano, incluso con batería.
Por ejemplo, el último motor de inteligencia artificial de MSI reconoce las actividades de su computadora portátil y ajusta automáticamente el perfil de la batería, la velocidad del ventilador y la configuración de la pantalla para adaptarse a su tarea. Cuando juegas, aumenta el rendimiento al máximo; cambie a trabajar en documentos de Word y todo volverá a marcar.
IA en movimiento
La tendencia local de la IA no se limita a las PC. Por ejemplo, los teléfonos inteligentes Pixel 8 y Pixel 8 Pro de Google están equipados con el chip Tensor G3, que según Google prepara el escenario para la IA generativa en el dispositivo. Esta tecnología ya admite funcionalidades impulsadas por IA, como el resumen de audio en la aplicación Grabadora y la generación de respuestas inteligentes en el teclado Gboard. Sin embargo, a pesar de estos avances, dicho hardware actualmente no es capaz de ejecutar modelos de IA extensos como Bard AI, Copilot o ChatGPT de Google localmente. En cambio, estos dispositivos ejecutan modelos más compactos.
Un beneficio del procesamiento local de IA es que podría mejorar la ciberseguridad. El consultor de ciberseguridad John Bambenek señaló que un riesgo importante que enfrentan las empresas al integrar la IA en tareas de propiedad intelectual es la gestión del flujo y el acceso a los datos.
«Hemos visto suficientes violaciones de servicios en la nube por parte de terceros como para saber que incluso con promesas, los datos se pueden perder», añadió. «Si las organizaciones pueden implementar Copilot AI de Microsoft localmente, los CISO aún sentirán que tienen el control de sus datos y esto eliminará lo que probablemente sea la barrera más grande para la adopción que existe».
Copyright © 2024 IDG Communications, Inc.