AbiertoAI dio a conocer su nuevo inteligencia artificial (AI) herramienta de identificación y detección de imágenes el martes. La firma de IA anunció la nueva herramienta destacando la necesidad de autenticar el contenido generado por IA y crear conciencia sobre él. La compañía también se unió formalmente al comité de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), que ha creado un estándar abierto para etiquetar el contenido generado por IA. En particular, OpenAI ha sido usando este estándar en sus imágenes generadas por Dall-E desde febrero de 2024 y continúa agregando información relacionada con la IA en los metadatos de las imágenes.
en un entrada en el blogOpenAI destacó los nuevos desafíos que han surgido con el inicio del contenido generado por IA. La compañía dijo: «A medida que el contenido audiovisual generado se vuelve más común, creemos que será cada vez más importante para la sociedad en su conjunto adoptar nuevas tecnologías y estándares que ayuden a las personas a comprender las herramientas utilizadas para crear el contenido que encuentran en línea». Además, el fabricante de ChatGPT dijo que estaba tomando dos medidas distintas para contribuir a la autenticación de contenido de IA.
En su primer paso, OpenAI se unió formalmente al comité C2PA y lo calificó como un estándar ampliamente utilizado para la certificación de contenido digital. La compañía también destacó que el estándar es seguido por una amplia gama de empresas de software, fabricantes de cámaras y plataformas en línea. En pocas palabras, C2PA aboga por agregar información en los metadatos de imágenes y otros tipos de archivos para revelar cómo fueron creados. Mientras que una imagen tomada por una cámara incluirá el nombre y las especificaciones de la cámara, una imagen generada por IA incluirá el nombre del modelo de IA.
Este tipo de método de autenticación se utiliza porque es difícil eliminar o alterar los metadatos de una imagen y continúan permaneciendo incluso si la imagen se comparte, recorta o modifica de cualquier forma.
Al destacar su segundo paso, OpenAI dijo que estaba trabajando en una nueva herramienta que puede identificar imágenes generadas por IA. Sin nombrar la herramienta, la empresa la llamó “clasificador de detección de imágenes de OpenAI”. La herramienta predice la probabilidad de que una imagen sea creada por Darle. Según la publicación, la herramienta pudo etiquetar correctamente el 98 por ciento de las imágenes generadas por Dall-E en comparación con imágenes reales, a pesar de usar filtros o recortar la imagen. Sin embargo, la herramienta tiene problemas cuando se comparan las imágenes de IA de Dall-E con otros modelos de IA. La firma de IA dijo que en esos casos la herramienta comete errores en alrededor del 5 al 10 por ciento de la muestra.
Sin embargo, OpenAI ahora ha abierto la herramienta para pruebas públicas limitadas e invitó a laboratorios de investigación y organizaciones sin fines de lucro de periodismo orientadas a la investigación a registrarse en la empresa de inteligencia artificial y obtener acceso a la herramienta.