Desde el lanzamiento de su último modelo de lenguaje de IA, GPT-4o, OpenAI se ha encontrado a la defensiva durante la semana pasada debido a una serie de malas noticias, rumores y burlas que circulan en las redes sociales y tradicionales. La atención negativa es potencialmente una señal de que OpenAI ha entrado en un nuevo nivel de visibilidad pública y está recibiendo un rechazo más prominente a su enfoque de IA más allá de los expertos en tecnología y reguladores gubernamentales.
La dura semana de OpenAI comenzó el lunes pasado cuando la compañía hizo una vista previa un coqueto asistente de IA con una voz aparentemente inspirada en Scarlett Johansson de la película de 2013 Su. Sam Altman, director ejecutivo de OpenAI aludido a la película en X justo antes del evento, y previamente habíamos hizo esa comparación con una interfaz de voz anterior para ChatGPT que lanzado en septiembre de 2023.
Si bien esa actualización de septiembre incluyó una voz llamada «Sky» que algunos dijeron que suena como Johansson, era la de GPT-4o. aparentemente realistanueva interfaz conversacional, completa con risas y cambios tonales cargados de emoción, que llevaron a una amplia circulación Programa diario segmento ridiculizando a la demostración por su naturaleza coqueta percibida. A continuación, un Sábado noche en directo broma reforzó una conexión implícita con la voz de Johansson.
Después audiencia de los abogados de JohanssonOpenAI anunció que estaba en pausa uso de la voz «Sky» en ChatGPT el domingo. La compañía mencionó específicamente a Sky. en un tuit y Johansson a la defensiva en su publicación de blog: «Creemos que las voces de IA no deben imitar deliberadamente la voz distintiva de una celebridad; la voz de Sky no es una imitación de Scarlett Johansson sino que pertenece a una actriz profesional diferente que usa su propia voz natural», escribió la compañía. .
El lunes por la noche, el reportero de noticias de NPR, Bobby Allyn, fue el primero en publicar Una declaración de Johansson dice que Altman se acercó a ella para darle voz al asistente de IA en septiembre pasado, pero ella se negó. Ella dice que Altman intentó contactarla nuevamente antes de la demostración de GPT-4o la semana pasada, pero no se conectaron, y OpenAI siguió adelante con el aparente sonido similar de todos modos. Luego quedó «conmocionada, enojada e incrédula» y contrató abogados para enviar cartas a Altman y OpenAI pidiéndoles detalles sobre cómo crearon la voz de Sky.
«En una época en la que todos estamos lidiando con los deepfakes y la protección de nuestras propias imágenes, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen una claridad absoluta», dijo Johansson en su declaración. «Espero con interés una resolución en forma de transparencia y la aprobación de una legislación apropiada para ayudar a garantizar que los derechos individuales estén protegidos».
Las repercusiones de estas supuestas acciones por parte de OpenAI aún se desconocen, pero es probable que se extiendan durante algún tiempo.
El equipo de superalineación implosiona
Los problemas de relaciones públicas de la empresa de investigación de IA continuaron el martes con la renuncias de alto perfil de dos investigadores clave de seguridad: Ilya Sutskever y Jan Leike, quienes lideró el equipo «Superalingment» centrado en garantizar que los hipotéticos sistemas avanzados de IA actualmente inexistentes no representen riesgos para la humanidad. Tras su marcha, Leike llevó a las redes sociales acusar a OpenAI de priorizar «productos brillantes» sobre investigaciones de seguridad cruciales.
en un declaración conjunta publicado en X, Altman y el presidente de OpenAI, Greg Brockman, abordaron las críticas de Leike, enfatizando su gratitud por sus contribuciones y describiendo la estrategia de la compañía para el desarrollo «responsable» de la IA. En una publicación anterior separada, Altman admitido que «tenemos mucho más que hacer» con respecto a la cultura de seguridad e investigación de alineación de OpenAI.
Mientras tanto, críticos como Yann LeCun de Meta sostuvieron que el drama era mucho ruido y pocas nueces. Respondiendo a un tweet donde Leike escribió«Necesitamos descubrir urgentemente cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros», LeCun respondió«Me parece que antes de ‘descubrir urgentemente cómo controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros’ necesitamos tener una idea inicial de un diseño para un sistema más inteligente que un gato doméstico».
LeCun continuó: «Es como si alguien hubiera dicho en 1925 ‘necesitamos descubrir urgentemente cómo controlar los aviones’. [sic] que puede transportar cientos de pasajeros a una velocidad cercana a la del sonido sobre los océanos.’ Habría sido difícil hacer que los aviones de pasajeros de larga distancia fueran seguros antes de que se inventara el turborreactor y antes de que cualquier avión cruzara el Atlántico sin escalas. Sin embargo, ahora podemos volar alrededor del mundo en aviones bimotores con total seguridad. No requería algún tipo de receta mágica para la seguridad. Fueron necesarias décadas de ingeniería cuidadosa y refinamientos iterativos».