Palma de la cara: Las principales empresas de IA han demostrado cuán irresponsables y despiadadas pueden ser al aprovechar los algoritmos de aprendizaje automático para generar ganancias financieras para los miembros de la junta directiva y los accionistas. Ahora, estas mismas empresas están pidiendo a todo el mundo tecnológico que confíe en ellas para actuar de manera responsable cuando finalmente se desarrollen modelos de IA verdaderamente peligrosos.
Algunas de las empresas más importantes que trabajan con algoritmos y servicios de IA han firmado un nuevo acuerdo voluntario para promover la seguridad de la IA, haciendo que sus operaciones sean más transparentes y confiables. El acuerdo, presentado antes de la reciente Cumbre de AI en Seúl, no proporciona medidas ejecutables para controlar los servicios de AI inseguros, pero aparentemente es lo suficientemente satisfactorio como para complacer a los gobiernos del Reino Unido y Corea del Sur.
El nuevo acuerdo involucró a gigantes de la tecnología y la inteligencia artificial como Microsoft, OpenAI, xAI (Elon Musk y su empresa Grok), Google, Amazon, Meta y la empresa china Zhipu AI. Todas las partes describirán y publicarán ahora sus planes para clasificar los riesgos relacionados con la IA y aparentemente están dispuestas a abstenerse de desarrollar modelos que podrían tener efectos graves en la sociedad.
El acuerdo sigue a compromisos anteriores sobre la seguridad de la IA aprobados por organizaciones internacionales y 28 países durante la Cumbre de Seguridad de la IA organizada por el Reino Unido en noviembre de 2023. Estos compromisos, conocidos como la Declaración de Bletchley, pedían cooperación internacional para gestionar los riesgos y potenciales relacionados con la IA. regulación de los sistemas de IA más potentes (Frontier AI).
Según el primer ministro del Reino Unido, Rishi Sunak, los nuevos compromisos deberían garantizar al mundo que las principales empresas de IA «ofrecerán transparencia y responsabilidad» en sus planes para crear algoritmos de IA seguros. Sunak fijado que el acuerdo podría servir como el nuevo «estándar global» para la seguridad de la IA, demostrando el camino a seguir para cosechar los beneficios de esta poderosa tecnología «transformadora».
Las empresas de IA ahora deberían establecer los «umbrales» más allá de los cuales los sistemas de IA de Frontier pueden representar un riesgo a menos que se implementen las mitigaciones adecuadas y describir cómo se implementarán esas mitigaciones. Los acuerdos enfatizan la colaboración y la transparencia. Según representantes del Reino Unido, la Declaración de Bletchley, que pide cooperación internacional para gestionar los riesgos relacionados con la IA, ha funcionado bien hasta ahora y los nuevos compromisos seguirán «pagando dividendos».
Las empresas en las que se confía para proteger al mundo contra los riesgos de la IA son las mismas organizaciones que han demostrado repetidamente que no se debe confiar en ellas en absoluto. OpenAI, respaldada por Microsoft, buscó la de Scarlett Johansson permiso usar su voz para el último bot ChatGPT, y luego usó su voz de todos modos cuando rechazó la oferta. Los investigadores también han mostrado que los chatbots son máquinas increíblemente poderosas para propagar malware, incluso sin modelos de «IA de frontera».