Hoy, OpenAI lanzó su primer informe de amenaza, que detalla cómo actores de Rusia, Irán, China e Israel han intentado utilizar su tecnología para operaciones de influencia extranjera en todo el mundo. El informe nombra cinco redes diferentes que OpenAI identificó y cerró entre 2023 y 2024. En el informe, OpenAI revela que redes establecidas como El doble de Rusia y La Spamoflauge de China están experimentando cómo utilizar la IA generativa para automatizar sus operaciones. Tampoco son muy buenos en eso.
Y si bien es un modesto alivio que estos actores no hayan dominado La IA generativa se convertirá en fuerzas imparables para la desinformaciónestá claro que están experimentando, y sólo eso debería ser preocupante.
El informe de OpenAI revela que las campañas de influencia se topan con los límites de la IA generativa, que no produce de manera confiable una buena copia o código. lucha con modismos(que hacen que el lenguaje suene más confiablemente humano y personal) y, a veces, también con gramática básica (tanto es así que OpenAI nombró a una red “Bad Grammar”). La red Bad Grammar era tan descuidada que una vez reveló su verdadera identidad: “Como Modelo de lenguaje de IA, estoy aquí para ayudar y brindar el comentario deseado”, publicó.
Una red utilizó ChatGPT para depurar código que le permitiría automatizar publicaciones en Telegram, una aplicación de chat que ha sido durante mucho tiempo una de las favoritas de extremistas y redes de influencia. Esto funcionó bien a veces, pero otras veces llevó a que la misma cuenta se publicara como dos personajes separados, revelando el juego.
En otros casos, ChatGPT se utilizó para crear código y contenido para sitios web y redes sociales. Spamoflauge, por ejemplo, utilizó ChatGPT para depurar código y crear un sitio web de WordPress que publicaba historias atacando a miembros de la diáspora china que criticaban al gobierno del país.
Según el informe, el contenido generado por IA no logró salir de las propias redes de influencia y llegar al público general, ni siquiera cuando se compartió en plataformas ampliamente utilizadas como X, Facebook o Instagram. Este fue el caso de las campañas dirigidas por una empresa israelí que aparentemente trabajaba por contrato y publicaba contenido que iba desde anti-Qatar hasta anti-BJP, el partido nacionalista hindú que actualmente controla el gobierno indio.
En conjunto, el informe presenta un cuadro de varias campañas relativamente ineficaces con propaganda burda, que aparentemente apacigua teme que muchos expertos hemos tenido sobre el potencial de esta nueva tecnología para difundir información errónea y desinformación, particularmente durante un año electoral crucial.
Pero campañas de influencia en redes sociales A menudo innovan con el tiempo para evitar ser detectados, aprendiendo las plataformas y sus herramientas, a veces mejor que los propios empleados de las plataformas. Si bien estas campañas iniciales pueden ser pequeñas o ineficaces, parecen estar todavía en la etapa experimental, dice Jessica Walton, investigadora del CyberPeace Institute que ha estudiado el uso de la IA generativa por parte de Doppleganger.
En su investigación, la red utilizaba perfiles de Facebook aparentemente reales para publicar artículos, a menudo sobre temas políticos divisivos. «Los artículos reales están escritos mediante IA generativa», dice. «Y principalmente lo que están tratando de hacer es ver qué volará, qué podrán y qué no podrán capturar los algoritmos de Meta».
En otras palabras, espere que mejoren a partir de ahora.