Dado que se espera que muchas naciones celebren elecciones durante los próximos dos años, el uso de información errónea y desinformada, impulsada por inteligencia artificial (AI) — será el riesgo global más grave.
Mientras los ciudadanos siguen preocupados por el aumento del coste de la vida, los riesgos asociados a la desinformación sobre la cohesión social impulsada por la IA dominarán el panorama este año, según el Informe Global de Riesgos 2024 publicado por el Foro Económico Mundial (WEF): «El nexo entre la información falsificada y el malestar social ocupará un lugar central en medio de las elecciones en varias economías importantes que se celebrarán en los próximos dos años».
También: 4 formas de superar tus mayores preocupaciones sobre la IA generativa
Durante este período, la desinformación y la desinformación surgirán como el principal riesgo global, seguido de los fenómenos meteorológicos extremos y la polarización social. Luego, el informe clasifica la inseguridad cibernética y los conflictos armados interestatales para completar los cinco principales riesgos globales.
La desinformación y la desinformación se sitúan como el principal riesgo en la India, mientras que ocupan el sexto lugar en Estados Unidos y el octavo en la Unión Europea.
También: Seguridad y prejuicios de la IA: desenredando la compleja cadena del entrenamiento en IA
El WEF señala que las capacidades disruptivas de la información manipulada se están acelerando rápidamente. Estas capacidades están siendo impulsadas por el acceso abierto a tecnologías cada vez más sofisticadas y el deterioro de la confianza en la información y las instituciones.
En los próximos dos años, un amplio conjunto de actores sacarán provecho de la explosión de contenido sintético, amplificando las divisiones sociales, la violencia ideológica y la represión política, afirmó el WEF.
Con casi tres mil millones de ciudadanos acudiendo a las urnas, incluso en India, Indonesia, Estados Unidos y el Reino Unido, el uso generalizado de información errónea y desinformación, así como las herramientas para difundirla, podría socavar la legitimidad de los nuevos gobiernos entrantes.
Ya no se requieren habilidades específicas para acceder a herramientas con interfaces fáciles de usar y modelos de inteligencia artificial a gran escala, señaló el WEF. Este acceso ya ha provocado una explosión de información falsificada y de contenidos «sintéticos», como sofisticadas clonaciones de voz y sitios web falsificados.
«El contenido sintético manipulará a los individuos, dañará las economías y fracturará a las sociedades de numerosas maneras durante los próximos dos años», afirmó. «La información falsificada podría utilizarse para alcanzar diversos objetivos, desde el activismo climático hasta la escalada de conflictos».
También: IA en 2023: un año de avances que no dejaron ninguna cosa humana sin cambios
También proliferarán nuevas clases de delitos, como la pornografía deepfake no consensuada o la manipulación del mercado de valores, añadió el WEF.
Todos estos problemas podrían conducir a protestas violentas, crímenes de odio, conflictos civiles y terrorismo, advirtió la organización no gubernamental.
para combatir el riesgos de la IA generada información, algunos países ya han comenzado a implementar nuevas y regulaciones en evolución que se dirigen tanto a los anfitriones como a los creadores de información en línea y contenido ilegal.
También es probable que la incipiente regulación de la IA generativa complemente esos esfuerzos, añadió, señalando requisitos en china poner una marca de agua en el contenido generado por IA como ejemplo. Estas reglas podrían ayudar a identificar información falsa, incluida la información errónea no intencionada a través de contenido alucinado por IA.
Sin embargo, en general, la velocidad y la eficacia de regulación Es poco probable que iguale el ritmo de desarrollo, dijo el WEF.
Señala que los recientes avances tecnológicos han mejorado el volumen, el alcance y la eficacia de la información falsificada, con flujos que son más difíciles de rastrear, atribuir y controlar. Las empresas de redes sociales que trabajan para garantizar la integridad de la plataforma probablemente también se verán abrumadas debido a múltiples campañas superpuestas.
También: No estamos preparados para el impacto de la IA generativa en las elecciones
Además, la desinformación se personalizará cada vez más según sus destinatarios y se dirigirá a grupos específicos, como las comunidades minoritarias, y se difundirá a través de plataformas de mensajería más opacas, como WhatsApp o WeChat.
El WEF también señala que es cada vez más difícil discernir entre contenido generado por IA y contenido generado por humanos, incluso para los mecanismos de detección y las personas conocedoras de la tecnología. Sin embargo, algunos países están intentando abordar este desafío.
Singapur crea una instalación para la detección de deepfakes
Singapur anunció esta semana planes para invertir 20 millones de dólares singapurenses (15,04 millones de dólares) en un confianza y seguridad en línea programa de investigación, que incluirá un centro encargado de crear herramientas para frenar el contenido dañino en línea. Dirigida por su Ministerio de Comunicaciones e Información (MCI), la iniciativa está programada para durar hasta 2028.
El nuevo Centro de Tecnologías Avanzadas en Seguridad en Línea tendrá como objetivo reunir investigadores y organizaciones del sector de confianza y seguridad en línea del país para construir «un ecosistema vibrante para una Internet más segura», dijo MCI. La instalación, cuyo lanzamiento está previsto para la primera mitad de 2024, se centrará en crear y personalizar herramientas para detectar contenido dañino, como deepfakes y afirmaciones no fácticas.
El centro buscará identificar vulnerabilidades sociales y desarrollar posibles intervenciones, como señalar o corregir información errónea, que podrían reducir la susceptibilidad de los usuarios en línea a contenidos considerados dañinos. La instalación también probará tecnologías de confianza digital, como marcas de agua y autenticación de contenido.
Las herramientas desarrolladas en el centro se presentarán para prueba y adopción.
También: Singapur debe tener cuidado con el uso de la IA y revisar el enfoque de la confianza pública
MCI dijo que ya se están llevando a cabo conversaciones con investigadores y desarrolladores de tecnología locales, y que más de 100 profesionales del mundo académico y de los sectores público y privado ya forman parte de su red comunitaria.
Esta red incluye 30 participantes, entre científicos, ingenieros y personal de operaciones, que participan en los trabajos que se llevarán a cabo en el nuevo centro.
Las poblaciones mundiales deberían esperar que tales esfuerzos de desarrollo produzcan herramientas de detección efectivas porque, si no se aborda, la información errónea puede conducir a dos circunstancias diferentes.
«Algunos gobiernos y plataformas, cuyo objetivo es proteger la libertad de expresión y las libertades civiles, pueden no actuar para frenar eficazmente la información falsificada y el contenido dañino, lo que hace que la definición de ‘verdad’ sea cada vez más polémica en todas las sociedades», dijo el FEM en su informe. «Tanto los actores estatales como los no estatales pueden aprovechar información falsa para ampliar las fracturas en las opiniones sociales, erosionar la confianza pública en las instituciones políticas y amenazar la cohesión y la coherencia nacionales».
Por otro lado, algunas naciones pueden optar por abordar el problema mediante el control.
«A medida que se socave la verdad, también aumentará el riesgo de propaganda y censura internas», dijo el WEF. «En respuesta a la información errónea y la desinformación, los gobiernos podrían tener cada vez más poder para controlar la información basándose en lo que consideran ‘verdadero’. Las libertades relacionadas con Internet, la prensa y el acceso a fuentes más amplias de información que ya están en declive, corren el riesgo de descendiendo hacia una represión más amplia de los flujos de información en un conjunto más amplio de países».