Meta está trabajando en el desarrollo de herramientas para identificar imágenes producidas sintéticamente por IA generativa sistemas a escala en sus plataformas de redes sociales, como Facebook, Instagram y Threads, dijo la compañía el martes.
“…Hemos estado trabajando con socios de la industria para alinearnos con estándares técnicos comunes que indiquen cuándo se ha creado un contenido utilizando AI. Ser capaz de detectar estas señales nos permitirá etiquetar las imágenes generadas por IA que los usuarios publican en Facebook, Instagram y Threads”, escribió Nick Clegg, presidente de asuntos globales de Meta, en un entrada en el blog.
«Estamos desarrollando esta capacidad ahora y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación», agregó Clegg.
La decisión de etiquetar imágenes generadas por IA de empresas, como Google, AbiertoAI, Adobe, Shutterstocky A mitad del viajeadquiere importancia ya que en 2024 se celebrarán varias elecciones en varios países, incluidos Estados Unidos, la UE, India y Sudáfrica.
Este año también Meta aprenderá más sobre cómo los usuarios crean y comparten contenido generado por IA y qué tipo de transparencia los internautas encuentran valioso, dijo Clegg.
La declaración de Clegg sobre las elecciones suena como un recordatorio de la Escándalo de Cambridge Analyticadescubierto por el New York Times y The Observer en 2018, en el que se vieron comprometidos los datos de Facebook de al menos 50 millones de usuarios.
El mes pasado, OpenAI, fabricante de ChatGPT, suspendió a dos desarrolladores que crearon un bot que imitaba al congresista Dean Phillips, aspirante a la presidencia demócrata, lo que marcó la primera acción de la compañía contra el uso indebido de la IA.
Sin etiquetas para audio y vídeo generados por IA
Meta, según Clegg, ya marca imágenes creadas por su propia función de IA, que incluye adjuntar marcadores visibles y marcas de agua invisibles. Estas marcas de agua invisibles están incrustadas en los metadatos de la imagen.
La combinación de estas marcas de agua facilita que otras plataformas identifiquen imágenes generadas por IA, dijo Clegg.
Meta también está trabajando con otras empresas para desarrollar estándares comunes para identificar imágenes generadas por IA a través de foros como el Asociación sobre IA (PAI), añadió Clegg.
Sin embargo, también señaló que si bien varias empresas estaban comenzando a incluir señales para ayudar a identificar las imágenes generadas, no se aplicaba la misma política al audio y video generado.
En ausencia de políticas de identificación en torno al audio y video generado, Clegg dijo que Meta estaba agregando una función para que las personas revelen cuando comparten video o audio generado por IA para que la compañía pueda agregarle una etiqueta.
«Exigiremos que las personas utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o audio con sonido realista que haya sido creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen», escribió Clegg en el blog.
Más desafíos conflictivos por venir
Meta reconoció que si bien las herramientas y estándares que se están desarrollando están a la vanguardia de lo que es posible en torno al etiquetado del contenido generado, los malos actores aún podrían encontrar vías para eliminar los marcadores invisibles.
Para detener a estos malos actores, la compañía dijo que estaba trabajando en el desarrollo de clasificadores que puedan ayudarla a detectar automáticamente contenido generado por IA, incluso si el contenido carece de marcadores invisibles.
“Al mismo tiempo, estamos buscando formas de hacer que sea más difícil eliminar o alterar marcas de agua invisibles. Por ejemplo, el laboratorio de investigación de IA de Meta, FAIR, compartió recientemente una investigación sobre una tecnología de marca de agua invisible que estamos desarrollando llamada Firma estable”, escribió Clegg.
Stable Signature integra el mecanismo de marca de agua directamente en el proceso de generación de imágenes para algunos tipos de generadores de imágenes, lo que podría ser valioso para modelos de código abierto para que la marca de agua no se pueda desactivar, explicó el alto ejecutivo.
Históricamente, la empresa ha utilizado sistemas de inteligencia artificial antes para detectar y eliminar el discurso de odio y otras formas de contenido que violaban su política.
A partir del tercer trimestre de 2023, Meta afirma que sus sistemas de inteligencia artificial ayudaron a reducir la prevalencia del discurso de odio en Facebook a solo un 0,01-0,02%.
Meta planea utilizar IA generativa para eliminar contenido dañino más rápido. “Hemos comenzado a probar modelos de lenguaje grandes (LLM) capacitándolos sobre nuestros ‘Estándares comunitarios’ para ayudar a determinar si un contenido infringe nuestras políticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje automático existentes”, escribió Clegg.
Estos LLM también ayudan a la empresa a eliminar contenido de las colas de revisión en determinadas circunstancias cuando sus revisores tienen mucha confianza en que no viola las políticas de la empresa, añadió Clegg.
Copyright © 2024 IDG Communications, Inc.