¡¿Qué carajo?! El director ejecutivo de Arm ha hecho sonar una campana de advertencia sobre los requisitos de energía necesarios para avanzar en los algoritmos de IA. Advierte que en unos años, los «centros de datos de IA» podrían requerir tanta electricidad que podría poner en peligro la red eléctrica estadounidense.
El director ejecutivo de Arm, René Haas, destacó la demanda energética insostenible de la tecnología de inteligencia artificial y advirtió sobre posibles consecuencias graves si no se logran avances significativos pronto. Hablando antes del anuncio de un programa de financiación de 110 millones de dólares para la investigación de la IA en universidades de Estados Unidos y Japón, Haas enfatizado la urgente necesidad de una investigación eficaz para evitar el estancamiento en el desarrollo de la IA.
Según Haas, las empresas de inteligencia artificial con sede en Estados Unidos consumen actualmente alrededor del cuatro por ciento de la energía total del país. Sin embargo, para 2030, el funcionamiento de chatbots y servicios generativos remotos en centros de datos de IA podría requerir entre el 20 y el 25 por ciento de toda la red eléctrica de Estados Unidos. Haas enfatizó particularmente la demanda de energía «insaciable» de los grandes modelos de lenguaje (LLM) como ChatGPT.
Estas terribles predicciones sobre el consumo de energía de la IA son cada vez más frecuentes, y la Agencia Internacional de Energía (AIE) saliente que el consumo de energía de este año para los centros de datos de IA será 10 veces mayor que en 2022. A pesar de ser servicios web orientados al consumidor, los chatbots presentan requisitos de energía significativamente mayores en comparación con las simples consultas de búsqueda de Google.
La AIE estima que una sola solicitud ChatGPT consume casi 10 veces más energía que una búsqueda en Google. Si Google adoptara LLM para su servicio de búsqueda, la empresa necesitaría 10 teravatios-hora (TWh) adicionales de energía por año. Un reciente informe en The New Yorker afirmó que ChatGPT consume más de medio millón de kilovatios-hora de electricidad por día, mientras que el hogar promedio de EE. UU. usa solo 29 kilovatios-hora en el mismo período de tiempo.
El gobierno de EE. UU., junto con las autoridades gubernamentales de todo el mundo, probablemente se verá obligado a intervenir e imponer límites estrictos al consumo de energía tanto para los centros de datos tradicionales como para los de IA, como se señala en el informe de la AIE. Haas sugirió que tanto los aceleradores de hardware como los algoritmos de IA deben volverse mucho más eficientes, o esta nueva era de evolución implacable de la IA pronto podría detenerse.
Sin embargo, las grandes empresas tecnológicas y de inteligencia artificial podrían aprovechar la mejora de la eficiencia para mejorar las capacidades informáticas de la IA y al mismo tiempo mantener el mismo nivel de consumo de energía. Otra posible solución al desafío energético de la IA implicaría en expansión capacidad energética, como ya lo están haciendo grandes empresas como Amazon Intentando hacer.