Meta, propietaria de Facebook, Instagram, WhatsApp y Threads, dijo el viernes que planea ampliar sus esfuerzos para etiquetar contenido. que ha sido manipulado o generado por inteligencia artificial. La medida amplía esfuerzos anteriores, con las plataformas de Meta entre un número creciente de servicios, incluidos YouTube y TikTok, que están respondiendo a este problema.
Meta dijo que etiquetará el video, el audio y las imágenes como «Hecho con IA» cuando sus sistemas detecten AI participación, o cuando los creadores lo revelan durante una carga. La compañía también dijo que puede agregar una etiqueta más prominente si el contenido tiene «un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia».
La compañía dijo que tomó su decisión mientras hacía malabarismos con la transparencia y la necesidad de evitar restringir innecesariamente la libertad de expresión en línea.
«Este enfoque general brinda a las personas más información sobre el contenido para que puedan evaluarlo mejor y tener contexto si ven el mismo contenido en otro lugar», escribió Monika Bickert, vicepresidenta de política de contenido de Meta. en una publicación de blog.
Leer más: Atlas de IA: su guía para la inteligencia artificial actual
La medida marca otra forma en que la industria tecnológica está respondiendo a las crecientes preocupaciones sobre la omnipresencia del contenido generado por IA y su riesgo para el público. Vídeos generados por tecnología de inteligencia artificial como Sora de OpenAI mirar cada vez más realista. Y aunque esa herramienta no se ha puesto ampliamente a disposición del público, otras tecnologías de IA ya han comenzado a causar confusión y caos en el público.
A principios de este año, un consultor político hizo llamadas automáticas a gran escala utilizando la voz del presidente Joe Biden, recreada por AI, animando a la gente de New Hampshire a no votar en las elecciones primarias. Los expertos dicen que es probable que haya más desinformación sobre IA en camino, particularmente con las próximas elecciones presidenciales de 2024.
Meta no es la única empresa de redes sociales que trabaja para identificar contenido impulsado por IA. TikTok dijo el año pasado que lanzará una herramienta para ayudar a los creadores a etiquetar contenido manipulado, señalando que también prohíbe los «deepfakes»: videos, imágenes o audio creados para engañar a los espectadores sobre eventos o personas reales. Mientras tanto, la filial YouTube de Google comenzó a exigir a los creadores la divulgación de vídeos manipulados por IA el mes pasado, diciendo que algunos ejemplos incluidos Semejanzas «realistas» de personas o escenas, así como imágenes alteradas de eventos o lugares reales.
Leer más: ¿Qué tan cerca está esa foto de la verdad? Lo que hay que saber en la era de la IA
Meta dijo que tiene la intención de hacer cumplir sus reglas. Citó una encuesta que realizó con más de 23.000 encuestados en 13 países, en la que el 82% favoreció las etiquetas en el contenido generado por IA «que muestra a personas diciendo cosas que no dijeron».
«Eliminaremos el contenido, independientemente de si fue creado por IA o una persona, si viola nuestras políticas contra la interferencia de los votantes, la intimidación y el acoso, la violencia y la incitación, o cualquier otra política de nuestros Estándares comunitarios», dijo Bickert en Meta’s Friday. entrada en el blog.
Nota del editor: CNET utilizó un motor de inteligencia artificial para ayudar a crear varias docenas de historias, que están etiquetadas en consecuencia. La nota que está leyendo se adjunta a artículos que tratan de manera sustancial el tema de la IA, pero que fueron creados en su totalidad por nuestros editores y escritores expertos. Para obtener más información, consulte nuestro Política de IA.