Meta anunció que comenzará a etiquetar imágenes generadas por inteligencia artificial (IA) en todas sus plataformas, incluidas FacebookHilos y Instagram. El anuncio, realizado el 6 de febrero, se produjo apenas un día después de que el consejo de supervisión de la compañía resaltara la necesidad de cambiar la política de Meta sobre el contenido generado por IA y centrarse en prevenir el daño que puede causar, en respuesta a la denuncia que involucra al presidente estadounidense Joe Biden. Video alterado digitalmente que apareció en línea. Meta dijo que si bien etiqueta imágenes fotorrealistas creadas por sus propios modelos de IA, ahora trabajará con otras empresas para etiquetar todas las imágenes generadas por IA compartidas en sus plataformas.
en una sala de redacción correo El martes, el presidente de Asuntos Globales de Meta, Nick Clegg, subrayó la necesidad de etiquetar el contenido generado por IA para proteger a los usuarios y detener la desinformación, y compartió que ya ha comenzado a trabajar con los actores de la industria para desarrollar una solución. Dijo: «Hemos estado trabajando con socios de la industria para alinearnos con estándares técnicos comunes que indiquen cuándo se ha creado un contenido utilizando IA». El gigante de las redes sociales también reveló que actualmente puede etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Ha estado etiquetando las imágenes creadas por los propios modelos de IA de Meta como «Imaginadas con IA».
Para identificar correctamente las imágenes generadas por IA, las herramientas de detección requieren un identificador común en todas esas imágenes. Muchas empresas que trabajan con IA han comenzado a agregar marcas de agua invisibles e incrustar información en los metadatos de las imágenes como una forma de hacer evidente que no fueron creadas ni capturadas por humanos. Meta dijo que pudo detectar imágenes de IA de las empresas destacadas ya que sigue los estándares técnicos aprobados por la industria.
Pero hay algunos problemas con esto. En primer lugar, no todos los generadores de imágenes de IA utilizan este tipo de herramientas para hacer evidente que las imágenes no son reales. En segundo lugar, Meta ha notado que hay formas de eliminar la marca de agua invisible. Para ello, la compañía ha revelado que está trabajando con socios de la industria para crear una tecnología unificada de marcas de agua que no se pueda eliminar fácilmente. El año pasado, el ala de investigación de IA de Meta, Fundamental AI Research (FAIR), Anunciado que estaba desarrollando un mecanismo de marca de agua llamado Firma estable que incorpora el marcador directamente en el proceso de generación de imágenes. DeepMind de Google también ha lanzado una herramienta similar llamada SynthID.
Pero esto sólo cubre las imágenes. El audio y los vídeos generados por IA también se han convertido en algo común hoy en día. Al abordar esto, Meta reconoció que aún no se ha creado una tecnología de detección similar para audio y video, aunque el desarrollo está en proceso. Hasta que surja una forma de detectar e identificar automáticamente dicho contenido, el gigante tecnológico ha agregado una función para que los usuarios de su plataforma revelen cuándo comparten video o audio generado por IA. Una vez divulgado, la plataforma le agregará una etiqueta.
Clegg también destacó que en caso de que las personas no divulguen dicho contenido y Meta descubra que fue alterado o creado digitalmente, puede aplicar sanciones al usuario. Además, si el contenido compartido es de alto riesgo y puede engañar al público sobre asuntos de importancia, podría agregar una etiqueta aún más destacada para ayudar a los usuarios a obtener contexto.