Muchos años antes del lanzamiento de ChatGPT, mi grupo de investigación, el Laboratorio de Toma de Decisiones Sociales de la Universidad de Cambridge, se preguntaba si era posible que las redes neuronales generaran información errónea. Para lograr esto, capacitamos al predecesor de ChatGPT, GPT-2, en ejemplos de teorías de conspiración populares y luego le pedimos que nos generara noticias falsas. Nos brindó miles de noticias engañosas pero que parecían plausibles. Algunos ejemplos: “Ciertas vacunas están cargadas de sustancias químicas y toxinas peligrosas” y “Los funcionarios gubernamentales han manipulado los precios de las acciones para ocultar escándalos”. La pregunta era: ¿alguien creería estas afirmaciones?
Nosotros creado la primera herramienta psicométrica para probar esta hipótesis, a la que llamamos Prueba de Susceptibilidad a la Desinformación (MIST). En colaboración con YouGov, utilizamos los titulares generados por IA para probar qué tan susceptibles son los estadounidenses a las noticias falsas generadas por IA. Los resultados fueron preocupantes: el 41 por ciento de los estadounidenses pensó incorrectamente que el titular sobre la vacuna era cierto y el 46 por ciento pensó que el gobierno estaba manipulando el mercado de valores. Otro reciente estudiarpublicado en la revista Cienciademostró no solo que GPT-3 produce desinformación más convincente que los humanos, sino también que las personas no pueden distinguir de manera confiable entre información errónea generada por humanos y por IA.
Mi predicción para 2024 es que la información errónea generada por la IA llegará a una elección cerca de usted y probablemente ni siquiera se dé cuenta. De hecho, es posible que ya hayas estado expuesto a algunos ejemplos. En mayo de 2023, un viral falso La historia sobre un bombardeo en el Pentágono fue acompañada por una imagen generada por IA que mostraba una gran nube de humo. Esto provocó revuelo público e incluso una caída en el mercado de valores. El candidato presidencial republicano Ron DeSantis utilizó imagenes falsas de Donald Trump abrazando a Anthony Fauci como parte de su campaña política. Al mezclar imágenes reales y generadas por IA, los políticos pueden desdibujar la línea entre realidad y ficción y utilizar la IA para impulsar sus ataques políticos.
Antes de la explosión de la IA generativa, las empresas de ciberpropaganda de todo el mundo necesitaban escribir ellos mismos mensajes engañosos y emplear fábricas de trolls humanos para dirigirse a las personas a gran escala. Con la ayuda de la IA, el proceso de generación de titulares de noticias engañosos puede automatizarse y convertirse en un arma con una mínima intervención humana. Por ejemplo, la microfocalización (la práctica de dirigirse a personas con mensajes basados en datos de rastreo digital, como sus Me gusta en Facebook) ya fue una preocupación en elecciones pasadas, a pesar de que su principal obstáculo fue la necesidad de generar cientos de variantes del mismo mensaje. para ver qué funciona en un grupo determinado de personas. Lo que antes requería mucha mano de obra y era caro, ahora es barato y está fácilmente disponible sin barreras de entrada. La IA ha democratizado efectivamente la creación de desinformación: cualquier persona con acceso a un chatbot ahora puede sembrar el modelo sobre un tema en particular, ya sea inmigración, control de armas, cambio climático o cuestiones LGBTQ+, y generar docenas de noticias falsas muy convincentes en minutos. De hecho, ya están apareciendo cientos de sitios de noticias generados por IA. propagador historias y videos falsos.
Para probar el impacto de dicha desinformación generada por IA en las preferencias políticas de las personas, investigadores de la Universidad de Amsterdam creó un video falso de un político ofendiendo a su base de votantes religiosos. Por ejemplo, en el vídeo el político bromeaba: “Como diría Cristo, no me crucifiquen por ello”. Los investigadores descubrieron que los votantes cristianos religiosos que vieron el vídeo falso tenían actitudes más negativas hacia el político que los del grupo de control.
Una cosa es engañar a la gente con desinformación generada por IA en experimentos. Otra es experimentar con nuestra democracia. En 2024, veremos más deepfakes, clonación de voces, manipulación de identidad y noticias falsas producidas por IA. Los gobiernos limitarán seriamente (si no prohibirán) el uso de la IA en las campañas políticas. Porque si no lo hacen, la IA socavará las elecciones democráticas.