Si últimamente has estado deambulando por foros tecnológicos clandestinos, es posible que hayas visto anuncios de un nuevo programa llamado WormGPT.
El programa es una herramienta impulsada por inteligencia artificial para que los ciberdelincuentes automaticen la creación de correos electrónicos de phishing personalizados; Aunque suena un poco a ChatGPT, WormGPT es no tu amigable vecindario AI.
ChatGPT se lanzó en noviembre de 2022 y, desde entonces, la IA generativa ha conquistado el mundo. Pero pocos consideran cómo su repentino aumento moldeará el futuro de la ciberseguridad.
En 2024, la IA generativa está preparada para facilitar nuevos tipos de delitos cibernéticos transnacionales (y translingüísticos). Por ejemplo, gran parte de los delitos cibernéticos son ideados por hombres subempleados de países con economías tecnológicas subdesarrolladas. El hecho de que el inglés no sea el idioma principal en estos países ha frustrado la capacidad de los piratas informáticos para defraudar a aquellos en las economías de habla inglesa; la mayoría de los hablantes nativos de inglés pueden identificar rápidamente los correos electrónicos de phishing por su lenguaje unidiomático y agramatical.
Pero la IA generativa cambiará eso. Los ciberdelincuentes de todo el mundo ahora pueden utilizar chatbots como WormGPT para escribir correos electrónicos de phishing personalizados y bien redactados. Al aprender de los phishermen en la web, los chatbots pueden crear estafas basadas en datos que son especialmente convincentes y efectivas.
En 2024, la IA generativa también facilitará la piratería biométrica. Hasta ahora, los métodos de autenticación biométrica (huellas dactilares, reconocimiento facial, reconocimiento de voz) han sido difíciles (y costosos) de suplantar; No es fácil falsificar una huella dactilar, un rostro o una voz.
Sin embargo, la IA ha hecho que el deepfaking sea mucho menos costoso. ¿No puedes imitar la voz de tu objetivo? Dile a un chatbot que lo haga por ti.
¿Y qué pasará cuando los piratas informáticos comiencen a atacar a los propios chatbots? La IA generativa es justamente eso: generativa; crea cosas que no estaban allí antes. El esquema básico brinda a los piratas informáticos la oportunidad de inyectar malware en los objetos generados por los chatbots. En 2024, cualquiera que utilice IA para escribir código deberá asegurarse de que un pirata informático no haya creado ni modificado el resultado.
Otros malos actores también comenzarán a tomar el control de los chatbots en 2024. Una característica central de la nueva ola de IA generativa es su “inexplicabilidad”. Los algoritmos entrenados mediante aprendizaje automático pueden arrojar respuestas sorprendentes e impredecibles a nuestras preguntas. Aunque el algoritmo fue diseñado por personas, no sabemos cómo funciona.
Parece natural, entonces, que los futuros chatbots actúen como oráculos que intenten responder preguntas éticas y religiosas difíciles. En jesus-ai.com, por ejemplo, puedes plantearle preguntas a un Jesús artificialmente inteligente. Irónicamente, no es difícil imaginar que programas como este se creen de mala fe. Una aplicación llamada Krishna, por ejemplo, ya ha Aconsejó matar a los incrédulos. y apoyar al partido gobernante de la India. ¿Qué impide que los estafadores exijan diezmos o promuevan actos criminales? ¿O, como ha hecho un chatbot, decirle a los usuarios que dejen a sus cónyuges?
Todas las herramientas de seguridad son de doble uso: se pueden utilizar para atacar o defender, por lo que en 2024 deberíamos esperar que la IA se utilice tanto para atacar como para defender. Los piratas informáticos pueden utilizar la IA para engañar a los sistemas de reconocimiento facial, pero los desarrolladores pueden utilizar la IA para hacer que sus sistemas sean más seguros. De hecho, el aprendizaje automático se ha utilizado durante más de una década para proteger los sistemas digitales. Antes de preocuparnos demasiado por los nuevos ataques de la IA, debemos recordar que también habrá nuevas defensas de la IA a la altura.