Como IA generativa Las tecnologías se vuelven más avanzadas, al igual que la forma de ciberataques. Esto es según Microsoft y OpenAI, quienes han compartido los resultados de una investigación sobre el uso malicioso de grandes modelos de lenguaje (LLM) por parte de adversarios respaldados por estados-nación.
El miércoles, Microsoft publicó su informe Cyber Signals 2024, que detalla los ataques de estados-nación que ha detectado e interrumpido junto con Open AI de adversarios respaldados por Rusia, Corea del Norte, Irán y China, así como las acciones que individuos y organizaciones pueden tomar. a prepararse para posibles ataques.
También: No le digas nada personal a tu IA, advierte Google en el nuevo aviso de privacidad de Gemini
Las dos empresas de tecnología rastrearon los ataques de adversarios afiliados al estado de Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon y Salmon Typhoon. Cada ataque utilizó LLM para aumentar sus operaciones cibernéticas de alguna manera, incluida la asistencia con la investigación, la resolución de problemas y la generación de contenido.
Por ejemplo, Emerald Sleet, un actor de amenazas norcoreano, aprovechó los LLM para investigar a grupos de expertos y expertos en Corea del Norte, generar contenido que probablemente se usaría en campañas de phishingcomprender vulnerabilidades conocidas públicamente, solucionar problemas técnicos e incluso ayudar con el uso de diversas tecnologías web, según el informe.
También: Los mejores servicios VPN (y cómo elegir el adecuado para ti)
De manera similar, Crimson Sandstorm, un actor de amenazas iraní, utilizó LLM para asistencia técnica, incluido soporte en ingeniería social, asistencia en la resolución de errores y más.
Si está interesado en leer más sobre cada amenaza de estado-nación, incluida su afiliación y su uso de LLM, puede consultar el informe, que incluye una sección dedicada a informes sobre amenazas individuales.
Microsoft comparte cómo el fraude impulsado por IA, como Voice Synthesis, que permite a los actores entrenar un modelo para que suene como cualquier persona con tan solo un fragmento de sonido de tres segundos, es una amenaza emergente y cada vez más preocupante.
También: 5 razones por las que uso Firefox cuando necesito el navegador web más seguro
Si bien el informe muestra que actores maliciosos están utilizando la IA generativa, los defensores, como Microsoft, también pueden utilizar la tecnología para desarrollar una protección más inteligente y mantenerse a la vanguardia en el mercado. persecución constante del gato y el ratón eso es ciberseguridad.
Microsoft detecta más de 65 millones de señales de ciberseguridad cada día. Según el informe, la IA garantiza que esas señales se analicen en busca de su información más valiosa para ayudar a detener las amenazas.
También: Probé iOS 17.3.1: qué hay dentro, quién lo necesita y cómo afectó a mi iPhone
Microsoft también comparte otras formas en que utiliza la IA, incluida la «detección de amenazas habilitada por IA para detectar cambios en cómo se utilizan los recursos o el tráfico en la red; análisis de comportamiento para detectar inicios de sesión riesgosos y comportamientos anómalos; modelos de aprendizaje automático (ML) para detectar inicios de sesión riesgosos y malware; modelos Zero Trust donde cada solicitud de acceso debe estar completamente autenticada, autorizada y cifrada; y verificación del estado del dispositivo antes de que un dispositivo pueda conectarse a una red corporativa».
Para concluir el informe, Microsoft dice que la educación continua de los empleados y del público es fundamental para combatir las técnicas de ingeniería social, que sólo tienen éxito si los humanos no logran identificarlas, y que la prevención, ya sea habilitada por IA o no, es clave para combatir todas las amenazas cibernéticas. .