Elon Musk comenzó la semana publicando irritadamente en X sobre su Tiene dificultades para configurar una nueva computadora portátil con Windows. Terminó presentando una demanda acusando a OpenAI de desarrollar imprudentemente IA a nivel humano y entregársela a Microsoft.
almizcle Se presenta demanda contra OpenAI y dos de sus ejecutivos, Sam Altman, director ejecutivo y el presidente Greg Brockman, quienes trabajaron con el empresario de cohetes y automóviles para fundó la empresa en 2015. Gran parte del caso gira en torno a una afirmación técnica audaz y cuestionable: que OpenAI ha desarrollado la llamada inteligencia artificial general, o AGI, un término generalmente utilizado para referirse a máquinas que pueden igualar o burlar de manera integral a los humanos.
El caso afirma que Altman y Brockman violaron el «Acuerdo fundacional» original para OpenAI elaborado con Musk, que, según dice, comprometió a la compañía a desarrollar AGI abiertamente y «en beneficio de la humanidad». La demanda de Musk alega que el rama con fines de lucro de la empresa, establecida en 2019 después de separarse de OpenAI, creó AGI sin la transparencia adecuada y le otorgó la licencia a Microsoft, que ha invirtió miles de millones en la empresa. Exige que se obligue a OpenAI a publicar su tecnología abiertamente y que se le prohíba utilizarla para beneficiar financieramente a Microsoft, Altman o Brockman.
«En términos de información y creencias, GPT-4 es un algoritmo AGI», afirma la demanda, refiriéndose al modelo de lenguaje grande que se encuentra detrás de ChatGPT de OpenAI. Cita estudios que encontraron que el sistema puede obtener una calificación aprobatoria en el examen uniforme de la barra y otras pruebas estándar como prueba de que ha superado algunas habilidades humanas fundamentales. “GPT-4 no sólo es capaz de razonar. Es mejor razonando que los humanos promedio”, afirma la demanda.
A pesar de GPT-4 fue anunciado como un gran avance cuando fue lanzado en marzo de 2023, la mayoría de los expertos en IA no lo ven como una prueba de que se haya logrado el AGI. «GPT-4 es general, pero obviamente no es AGI en la forma en que la gente suele usar el término», dice Oren Etzioniprofesor emérito de la Universidad de Washington y experto en IA.
«Se considerará una afirmación descabellada», dice Christopher Manning, profesor de la Universidad de Stanford que se especializa en inteligencia artificial y lenguaje, de la afirmación de AGI en la demanda de Musk. Manning dice que hay puntos de vista divergentes sobre lo que constituye AGI dentro de la comunidad de IA. Algunos expertos podrían poner el listón más bajo, argumentando que la capacidad de GPT-4 para realizar una amplia gama de funciones justificaría llamarlo AGI, mientras que otros prefieren reservar el término para algoritmos que pueden ser más astutos que la mayoría o todos los humanos en cualquier cosa. «Bajo esta definición, creo que claramente no tenemos AGI y, de hecho, todavía estamos bastante lejos de tenerlo», afirma.
Avance limitado
GPT-4 ganó atención (y nuevos clientes para OpenAI) porque puede responder una amplia gama de preguntas, mientras que los programas de IA más antiguos generalmente se dedicaban a tareas específicas como jugar ajedrez o etiquetar imágenes. La demanda de Musk se refiere a afirmaciones de investigadores de Microsoft, en un papel de marzo de 2023, que «dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)». A pesar de sus impresionantes capacidades, GPT-4 todavía comete errores y tiene importantes limitaciones en su capacidad para analizar correctamente preguntas complejas.
«Tengo la sensación de que la mayoría de nosotros, los investigadores sobre el terreno, pensamos que los grandes modelos de lenguaje [like GPT-4] «Son una herramienta muy importante para permitir a los humanos hacer mucho más, pero están limitadas de tal manera que están lejos de ser inteligencias independientes», añade. Michael Jordanprofesor de UC Berkeley y figura influyente en el campo del aprendizaje automático.
Jordan añade que prefiere evitar por completo el término AGI porque es muy vago. «Nunca he descubierto que Elon Musk tenga algo que decir sobre la IA que esté muy calibrada o basada en la realidad de la investigación», añade.