Una patata caliente: GPT-4 se erige como el modelo de lenguaje grande multimodal (LLM) más nuevo elaborado por OpenAI. Este modelo fundamental, actualmente accesible para los clientes como parte de la línea paga ChatGPT Plus, muestra una notable destreza en la identificación de vulnerabilidades de seguridad sin requerir asistencia humana externa.
Los investigadores demostraron recientemente la capacidad de manipular (LLM) y la tecnología de chatbot con fines altamente maliciosos, como propagar un gusano informático autorreplicante. Un nuevo estudio ahora arroja luz sobre cómo GPT-4, el chatbot más avanzado disponible actualmente en el mercado, puede explotar vulnerabilidades de seguridad extremadamente peligrosas simplemente examinando los detalles de una falla.
De acuerdo con la estudiar, los LLM se han vuelto cada vez más poderosos, pero carecen de principios éticos que guíen sus acciones. Los investigadores probaron varios modelos, incluidas las ofertas comerciales de OpenAI, LLM de código abierto y escáneres de vulnerabilidades como ZAP y Metasploit. Descubrieron que los agentes avanzados de IA pueden «explotar de forma autónoma» vulnerabilidades de día cero en sistemas del mundo real, siempre que tengan acceso a descripciones detalladas de dichas fallas.
En el estudio, los LLM se enfrentaron a una base de datos de 15 vulnerabilidades de día cero relacionadas con errores de sitios web, fallas de contenedores y paquetes de Python vulnerables. Los investigadores observaron que más de la mitad de estas vulnerabilidades se clasificaron como de gravedad «alta» o «crítica» en sus respectivas descripciones de CVE. Además, no había correcciones de errores ni parches disponibles en el momento de la prueba.
El estudio, escrito por cuatro científicos informáticos de la Universidad de Illinois Urbana-Champaign (UIUC), tenía como objetivo aprovechar investigaciones anteriores sobre el potencial de los chatbots para automatizar ataques informáticos. Sus hallazgos revelaron que GPT-4 pudo explotar el 87 por ciento de las vulnerabilidades probadas, mientras que otros modelos, incluido GPT-3.5, tuvieron una tasa de éxito del cero por ciento.
UIUC assistant professor Daniel Kang resaltado La capacidad de GPT-4 para explotar de forma autónoma fallas de día 0, incluso cuando los escáneres de código abierto no logran detectarlas. Con OpenAI ya trabajando en GPT-5Kang prevé que los «agentes LLM» se conviertan en herramientas potentes para democratizar la explotación de vulnerabilidades y el cibercrimen entre los amantes de los scripts y los entusiastas de la automatización.
Sin embargo, para explotar eficazmente una falla de día cero divulgada públicamente, GPT-4 requiere acceso a la descripción completa de CVE e información adicional a través de enlaces integrados. Una posible estrategia de mitigación sugerida por Kang implica que las organizaciones de seguridad se abstengan de publicar informes detallados sobre las vulnerabilidades, limitando así el potencial de explotación de GPT-4.
Sin embargo, Kang duda de la eficacia de un enfoque de «seguridad a través de la oscuridad», aunque las opiniones pueden diferir entre investigadores y analistas. En cambio, aboga por medidas de seguridad más proactivas, como actualizaciones periódicas de paquetes, para contrarrestar mejor las amenazas que plantean los chatbots modernos y «armados».