Las últimas semanas han sido una bonanza de relaciones públicas para Taylor Swift, tanto en lo bueno como en lo malo. Lo bueno es que su novio Travis Kelce estuvo en el equipo ganador del Super Bowl y sus reacciones durante el juego tuvieron mucho tiempo en el aire. En el lado mucho, mucho peor, las imágenes generativas de desnudos falsos de ella creadas por IA han inundado Internet recientemente.
Como era de esperar, la condena de la creación y distribución de esas imágenes no tardó en llegar, incluso por parte de empresas de IA generativa (genAI) y, en particular, del director ejecutivo de Microsoft, Satya Nadella. Además de denunciar lo sucedido, Nadella compartió su opinión sobre una solución.: «Vuelvo a lo que creo que es nuestra responsabilidad, que son todas las barreras que necesitamos colocar alrededor de la tecnología para que se produzca más contenido seguro».
microsoft Ayer volvió a intervenir en el tema de los deepfakes (aunque sin mencionar a Swift). En una publicación de blog, el vicepresidente y presidente de Microsoft, Brad Smith, condenó la proliferación de deepfakes y dijo que la compañía está tomando medidas para limitar su propagación.
«Desafortunadamente, las herramientas también se convierten en armas, y este patrón se repite», escribió. «Actualmente estamos siendo testigos de una rápida expansión del abuso de estas nuevas herramientas de IA por parte de malos actores, incluso a través de deepfakes basados en videos, audio e imágenes generados por IA. Esta tendencia plantea nuevas amenazas para las elecciones, el fraude financiero y el acoso a través de actos no consensuados. pornografía y la próxima generación de acoso cibernético».
Smith prometió «un enfoque sólido e integral» por parte de Microsoft, y agregó: «Estamos comprometidos con la innovación continua que ayudará a los usuarios a determinar rápidamente si una imagen o un video es generado o manipulado por IA».
Hasta donde llega, la opinión de Microsoft es ciertamente cierta y es la típica respuesta instintiva y polivalente que uno esperaría de la empresa de genAI más grande e influyente del mundo. Pero lo que Nadella y Smith omitieron es que hay evidencia de que las herramientas de inteligencia artificial de la compañía crearon las imágenes de Swift; Aún más condenatorio, un desarrollador de IA de Microsoft dice que advirtió a la compañía con anticipación que no existían barreras de seguridad adecuadas y que Microsoft no hizo nada al respecto.
El caso contra Microsoft
Evidencia de que se utilizaron herramientas de Microsoft para crear el deepfakes viene de un 404 Artículo de prensa, que afirma que se originaron en una comunidad de Telegram dedicada a crear «pornografía no consensuada»; recomienda utilizar Microsoft Designer para generar las imágenes pornográficas. El artículo señala que «en teoría, Designer se niega a producir imágenes de personajes famosos, pero los generadores de IA son fáciles de engañar, y 404 descubrió que se podían romper sus reglas con pequeños ajustes en las indicaciones».
Más condenatorio aún, un ingeniero de inteligencia artificial de Microsoft supuestamente advirtió a Microsoft en diciembre que las barreras de seguridad del generador de imágenes DALL-E de OpenAI, el cerebro detrás de Microsoft Designer, podrían burlarse para crear imágenes explícitas y violentas. Afirma que Microsoft ignoró sus advertencias y trató de que no dijera nada públicamente sobre lo que encontró.
El ingeniero Shane Jones escribió en una carta a las senadoras estadounidenses Patty Murray (D-WA) y Maria Cantwell (D-WA); El representante Adam Smith (D-WA) y el fiscal general del estado de Washington, Bob Ferguson, dijeron que “descubrió una vulnerabilidad de seguridad que me permitió sortear algunas de las barreras diseñadas para evitar el [DALL-E] modelo de crear y distribuir imágenes dañinas…. Llegué a la conclusión de que DALL·E 3 representaba un riesgo para la seguridad pública y debería retirarse del uso público hasta que OpenAI pudiera abordar los riesgos asociados con este modelo.
“Las vulnerabilidades de DALL·E 3 y de productos como Microsoft Designer que utilizan DALL·E 3 facilitan que las personas abusen de la IA para generar imágenes dañinas. Microsoft era consciente de estas vulnerabilidades y del potencial de abuso”.
Jones afirmó que Microsoft se negó a actuar, publicó una carta pública sobre el tema en LinkedIn y luego su gerente le dijo que eliminara la carta porque el departamento legal de Microsoft así lo exigía.
En su carta, Jones menciona las imágenes explícitas de Swift y dice: “Este es un ejemplo del tipo de abuso que me preocupaba y la razón por la que insté a OpenAI a eliminar DALL·E 3 del uso público e informé de mis preocupaciones a Microsoft. .”
Según GeekWireMicrosoft en un comunicado dijo que la compañía «investigó el informe del empleado y confirmó que las técnicas que compartió no pasaron por alto nuestros filtros de seguridad en ninguna de nuestras soluciones de generación de imágenes impulsadas por IA».
Todo esto es, hasta cierto punto, evidencia circunstancial. No hay confirmación de que las imágenes se crearon con Microsoft Designer y no sabemos si confiar en Microsoft o Jones. Pero sí sabemos que Microsoft tiene un historial de restar importancia o ignorar los peligros de la genAI.
Como escribí el pasado mes de mayo, Microsoft recortó la plantilla de un equipo de 30 miembros que era responsable de garantizar que genAI se desarrollara de forma ética en la empresa, y luego eliminó al equipo por completo. La reducción tuvo lugar varios meses antes del lanzamiento del chatbot genAI de Microsoft; La eliminación del equipo fue varios meses después.
Antes del lanzamiento del chatbot, John Montgomery, vicepresidente corporativo de IA de Microsoft, le dijo al equipo por qué estaba siendo diezmado: “La presión de [CTO] kevin [Scott] y [CEO] Satya [Nadella] Es muy, muy alto tomar estos modelos OpenAI más recientes y los que les siguen y ponerlos en manos de los clientes a una velocidad muy alta”.
Añadió que el equipo de ética se interpuso en el camino.
Cuando un miembro del equipo respondió que existen peligros importantes en la IA que deben abordarse (y le pidió que lo reconsiderara), Montgomery respondió: “¿Puedo reconsiderarlo? No creo que lo haga. Porque lamentablemente las presiones siguen siendo las mismas. No tienes la vista que yo tengo y probablemente puedas estar agradecido por eso. Hay muchas cosas molidas en la salchicha”.
Una vez que el equipo se fue, Microsoft comenzó a funcionar con genAI. Y eso logró exactamente lo que la empresa quería. Las acciones de la empresa se han disparado y, gracias a la IA, se ha convertido en la empresa más valiosa del mundo: la segunda empresa (detrás de Apple) valorada en más de 3 billones de dólares.
Son tres billones de razones por las que no debería esperarse que Microsoft cambie su tono sobre los peligros potenciales de la IA, ya sea que se haya utilizado Microsoft Designer para crear los deepfakes de Taylor Swift o no. Y no augura nada bueno para las posibilidades de que se produzca un tsunami de deepfakes en el próximo año, especialmente con un elecciones presidenciales disputadas en los EE.UU..
Copyright © 2024 IDG Communications, Inc.