En una era de avances tecnológicos sin precedentes, la adopción de la IA sigue aumentando. Sin embargo, con la proliferación de esta poderosa tecnología, está surgiendo un lado más oscuro. Cada vez más, los actores maliciosos utilizan la IA para mejorar cada etapa de un ataque. Los ciberdelincuentes utilizan la IA para respaldar una multitud de actividades maliciosas, que van desde eludir algoritmos que detectan la ingeniería social hasta imitar el comportamiento humano a través de actividades como la suplantación de audio de la IA y la creación de otros. deepfakes. Entre estas tácticas inteligentes, los atacantes también confían en la IA generativa para mejorar sus actividades, utilizando modelos de lenguaje grandes para crear campañas de phishing y phishing más creíbles para recopilar datos confidenciales que pueden usarse con fines maliciosos.
Defenderse de los adversarios, especialmente cuando adoptan nuevas tecnologías que hacen que los ataques sean más fáciles y rápidos, exige un enfoque proactivo. Los defensores no sólo deben comprender los peligros potenciales del uso de la IA y el aprendizaje automático entre los actores de amenazas, sino también aprovechar su potencial para combatir esta nueva era del ciberdelito. En esta batalla contra los malos actores, debemos combatir el fuego con más fuego.
La IA y la IA generativa están cambiando el panorama de amenazas
Los ciberadversarios siempre están aumentando el nivel de sofisticación de sus ataques. Desde variedades de ataques emergentes hasta ataques cada vez más dañinos, el panorama de amenazas está evolucionando rápidamente. El tiempo promedio entre el momento en que un atacante viola una red por primera vez y el momento en que es descubierto, por ejemplo, es de aproximadamente seis meses. Estos acontecimientos plantean graves riesgos. Y a medida que las organizaciones implementan la transformación digital, también introducen nuevos riesgos.
La IA, y especialmente la IA generativa, están generando riesgos adicionales. La tecnología de inteligencia artificial permite que las campañas de malware desarrollen escenarios de ataque dinámicos, como el phishing, con varias combinaciones de tácticas dirigidas al sistema de una organización, particularmente con tácticas de evasión de defensa.
Los modelos de aprendizaje automático que utilizan los adversarios les permiten predecir mejor las contraseñas débiles, mientras que los chatbots y los deepfakes pueden ayudarlos a hacerse pasar por personas y organizaciones de una manera inquietantemente realista, como un «CEO» que se acerca de manera convincente a un empleado de bajo nivel.
Los malos actores están manipulando la IA generativa para producir herramientas de reconocimiento que les permitan obtener los historiales de chat de los usuarios, así como información de identificación personal como nombres, direcciones de correo electrónico y detalles de tarjetas de crédito.
Esta no es de ninguna manera una lista exhaustiva del potencial de la IA para los ciberdelincuentes. Más bien, es una muestra de lo que es posible actualmente. A medida que los malos actores sigan innovando, seguramente surgirán una serie de nuevas amenazas.
Combatir las amenazas
Para protegerse contra ataques como estos, las organizaciones deben incluir la automatización, la inteligencia artificial y el aprendizaje automático en su ecuación de defensa. Es importante conocer las diferentes capacidades de estas tecnologías y comprender que todas son necesarias.
Consideremos primero la automatización. Piense en una fuente de amenazas que incluya inteligencia sobre amenazas y políticas activas. La automatización desempeña un papel importante a la hora de ayudar con el volumen de detecciones y políticas necesarias a gran velocidad, acelerando los tiempos de respuesta y delegando tareas rutinarias fuera de los analistas de SOC para concentrarse en áreas donde sus habilidades analíticas se pueden aplicar de una manera que las máquinas no pueden. Las organizaciones pueden agregar gradualmente capacidades automatizadas, comenzando, por ejemplo, con la orquestación y escenarios hipotéticos en una herramienta de análisis como SIEM o SOAR.
Los equipos de seguridad utilizan IA y ML para amenazas desconocidas. El aprendizaje automático es el componente de aprendizaje, mientras que la IA es el componente procesable. Cada aplicación puede emplear un modelo de aprendizaje automático diferente. El aprendizaje automático para malware de día cero no tiene ninguna relación con el aprendizaje automático para amenazas web.
Las organizaciones necesitan capacidades de IA y ML para defenderse contra una variedad de vectores de ataque. La aplicación de IA y ML reduce significativamente su riesgo. Además, como no necesita contratar más personas para solucionar el problema, está reduciendo los costos de su modelo OpEx.
Un caso de uso inicial clave es implementar tecnología de punto final impulsada por IA, como EDR, para proporcionar una visibilidad completa de las actividades. Y aunque será beneficioso adoptar soluciones que utilicen modelos de IA y ML para detectar amenazas conocidas y desconocidas, donde una organización puede diferenciarse es mediante el uso de IA para una rápida toma de decisiones de seguridad. Si bien la IA no es una panacea, puede mejorar la ciberseguridad a escala al brindar a las organizaciones la agilidad que necesitan para responder a un entorno de amenazas en constante cambio.
Al conocer el patrón de estos ataques, las tecnologías de inteligencia artificial ofrecen una forma poderosa de defenderse contra el phishing y otras amenazas de malware. Las organizaciones deberían considerar como primer paso una solución de endpoint y sandboxing equipada con tecnología de inteligencia artificial.
Los defensores pueden tener la ventaja
Algo poco común en el mundo de la ciberseguridad, la IA es un área en la que los profesionales de la seguridad ya están ganando terreno. Actualmente hay herramientas de inteligencia artificial disponibles que tienen capacidades cada vez más sofisticadas para derrotar ataques sofisticados. Por ejemplo, la detección y respuesta de red (NDR) impulsada por IA puede detectar signos de ciberataques sofisticados, asumir funciones intensivas de análisis humano a través de redes neuronales profundas e identificar usuarios comprometidos y dispositivos sin agentes.
Otro nuevo proyecto de seguridad ofensiva se conoce como AutoGPT, un proyecto de código abierto que tiene como objetivo automatizar GPT-4 y tiene potencial como herramienta útil para la ciberseguridad. Puede analizar un problema, diseccionarlo en componentes más pequeños, decidir qué se debe hacer y decidir cómo llevar a cabo cada paso y luego tomar medidas (con o sin la participación y el consentimiento del usuario), incluida la mejora del proceso según sea necesario. Los modelos de aprendizaje automático que impulsan estas herramientas tienen el potencial de ayudar a los defensores en la detección de amenazas de día cero, malware y más. Actualmente, estas herramientas deben depender de estrategias de ataque probadas y verdaderas que han demostrado ser efectivas para producir buenos resultados, pero el progreso continúa.
Disparar
A medida que los atacantes utilizan cada vez más la IA, los defensores no sólo deben seguir su ejemplo, sino también mantenerse a la vanguardia utilizando las tecnologías de los malos actores tanto a la defensiva como a la ofensiva, combatiendo el fuego con más fuego. Para combatir el panorama de amenazas en evolución, las organizaciones deben incorporar la automatización, la inteligencia artificial y el aprendizaje automático en sus estrategias de ciberseguridad. Al utilizar la IA para la toma de decisiones, mantenerse informados y explorar nuevas herramientas de seguridad ofensivas, los defensores pueden mejorar su capacidad para combatir los ataques impulsados por la IA y salvaguardar sus activos digitales en un panorama de amenazas cada vez más complejo.