No hay forma de evitarlo; El contenido generado por IA prácticamente está invadiendo Internet. Empresas como Google y Adobe buscan que sea más fácil saber cuándo se genera contenido con IA. Según un nuevo informe, Meta quiere que los usuarios revelen cuando publican contenido de IA. Si no, corren el riesgo de que se lo quiten,
Es difícil acceder a cualquier lugar de Internet sin ver algún tipo de contenido de IA. Instagram está plagado de imágenes generadas por IA, YouTube está repleto de vídeos generados por IA, etc. Es por eso que las empresas buscan crear herramientas para identificar mejor cuándo el contenido es sintético.
Google tiene un sistema de marcas de agua llamado SynthID para identificar cuándo las personas crean contenido utilizando su generador de imágenes. La empresa también amplió eso a los archivos de audio. Meta también tiene un sistema de marcas de agua. eso se aplica a las imágenes creadas con su generador Imagine AI. Algunos medios generados por IA obviamente lo son, pero gran parte del contenido publicado hoy en día puede engañar a las masas.
Ese es un problema tal como está. Sin embargo, 2024 es un año electoral y eso convierte a la IA en un caldo de cultivo para la desinformación y las imágenes engañosas. Por eso es fundamental que estas empresas faciliten la identificación del contenido de IA.
Meta quiere que los usuarios revelen si publican contenido de IA
Meta posee Facebook, Instagram y Threads. Estas son tres aplicaciones que han visto una gran cantidad de contenido generado por IA. Ha llegado al punto en que la gente teme que invada estas plataformas. Meta está trabajando en herramientas para ayudar a las personas a identificar cuándo se utilizó la IA para crear contenido. Se aplicará al contenido creado con Google, Adobe, MidJourney, etc. Crear herramientas que detecten contenido creado artificialmente es un desafío enorme.
Bueno, la compañía está solicitando ayuda a las personas que realizan las publicaciones para ayudar a identificar el contenido de IA. La empresa comenzará exigir que la gente revele si el contenido está creado con IA. Si no lo hacen, y Meta identifica que es generado por IA, el creador podría enfrentar algunas consecuencias. Nick Clegg, presidente de Asuntos Globales de Meta, dijo que si un usuario no revela su contenido de IA, entonces «el rango de sanciones que se aplicarán abarcará toda la gama, desde advertencias hasta la eliminación».
Este es un paso en la dirección correcta
Las empresas que nos proporcionan las herramientas para crear contenido generado por IA ahora nos brindan herramientas para ayudar a identificar el contenido. Este es definitivamente un paso en la dirección correcta, ya que no se sabe qué efecto tendrá el contacto genérico de IA en la comunidad tecnológica. Claro, las publicaciones inofensivas en las redes sociales y los selfies con filtros de IA no son dañinos. Sin embargo, podría haber algunas consecuencias importantes si el contenido generado por IA se vuelve demasiado real.
Ya hemos visto que se utiliza la IA para imitar a figuras públicas y hacer que hagan o digan cosas desagradables. Un ejemplo es la actual controversia con Generador de IA de pornografía de Taylor Swift.
Ser capaz de controlar adecuadamente este contenido es una de las cosas más importantes que pueden hacer las empresas de tecnología. Si se olvidan de esto, entonces tendremos que esperar y descubrir las consecuencias por las malas.