Las organizaciones dedicadas al cibercrimen han adoptado medidas incipientes para utilizar IA generativa para organizar ataques, incluido el modelo de lenguaje grande Llama 2 de Meta, según la firma de ciberseguridad CrowdStrike en su Informe anual sobre amenazas globalespublicado el miércoles.
El grupo Araña dispersa hizo uso del modelo de lenguaje grande de Meta para generar scripts para el programa de automatización de tareas PowerShell de Microsoft, informa CrowdStrike. El programa se utilizó para descargar las credenciales de inicio de sesión de los empleados de «una víctima de servicios financieros de América del Norte», según CrowdStrike.
También: 7 herramientas de piratería que parecen inofensivas pero que pueden causar un daño real
Los autores rastrearon el uso de Llama 2 examinando el código en PowerShell. «El PowerShell utilizado para descargar los ID inmutables de los usuarios se parecía a los resultados del modelo de lenguaje grande (LLM) como los de ChatGPT», afirma CrowdStrike. «En particular, el patrón de un comentario, el comando real y luego una nueva línea para cada comando coincide con la salida del modelo Llama 2 70B. Basado en un estilo de código similar, Scattered Spider probablemente dependió de un LLM para generar el script de PowerShell en este actividad.»
Los autores advierten que la capacidad de detectar ataques generados basados en IA o mejorados por IA generativa es actualmente limitada, debido a la dificultad de encontrar rastros del uso de LLM. La firma plantea la hipótesis de que el uso de LLM es limitado hasta el momento: «Sólo raras observaciones concretas incluyeron el probable uso por parte del adversario de IA generativa durante algunas fases operativas».
Pero el uso malicioso de la IA generativa seguramente aumentará, proyecta la empresa: «El desarrollo continuo de la IA sin duda aumentará la potencia de su posible uso indebido».
También: Probé Code Llama de Meta con 3 desafíos de codificación de IA que ChatGPT superó, y no fue bueno
Los ataques hasta ahora se han enfrentado al desafío de que el alto costo de desarrollar grandes modelos de lenguaje ha limitado el tipo de resultados que los atacantes pueden generar a partir de los modelos para usarlos como código de ataque.
«Los intentos de los actores de amenazas de elaborar y utilizar tales modelos en 2023 con frecuencia constituyeron estafas que generaron resultados relativamente pobres y, en muchos casos, rápidamente desaparecieron», afirma el informe.
Otra vía de uso malicioso además de la generación de código es la desinformación y, en ese sentido, el informe de CrowdStrike destaca la gran cantidad de elecciones gubernamentales de este año que podrían estar sujetas a campañas de desinformación.
Además de las elecciones presidenciales de Estados Unidos de este año, «individuos de 55 países que representan más del 42% de la población mundial participarán en las elecciones presidenciales, parlamentarias y/o generales», señalan los autores.
La manipulación de las elecciones se divide en alta tecnología y baja tecnología. La ruta de la alta tecnología, dicen los autores, es perturbar o degradar los sistemas de votación alterando tanto los mecanismos de votación como la difusión a los votantes de información sobre la votación.
El enfoque de baja tecnología es la desinformación, como «narrativas disruptivas» que «pueden socavar la confianza del público».
Estas «operaciones de información» o «IO», como las llama CrowdStrike, ya están ocurriendo, «ya que actores chinos han utilizado contenido generado por IA en campañas de influencia en las redes sociales para difundir contenido crítico de los candidatos a las elecciones presidenciales de Taiwán».
La firma predice: «Dada la facilidad con la que las herramientas de inteligencia artificial pueden generar narrativas engañosas pero convincentes, es muy probable que los adversarios utilicen tales herramientas para llevar a cabo IO contra las elecciones en 2024. Los partidarios políticamente activos dentro de los países que celebran elecciones probablemente también usarán inteligencia artificial generativa para crear desinformación para difundirla dentro de sus propios círculos».