La tecnología deepfake no es un concepto nuevo. En 1991, Terminator 2 se convirtió en la primera película en crear un personaje completamente generado por computadora con movimientos humanos realistas (y, dicho sea de paso, uno de los villanos más emblemáticos del cine). Y desde entonces, medios como las películas y los videojuegos han construido miles de personajes realistas, comprensivos y atractivos únicamente a partir de píxeles.
Este proceso solía ser increíblemente lento y costoso, y estaba reservado a los expertos. Pero en los últimos años, la tecnología necesaria para crear representaciones fotorrealistas de personas se ha extendido a manos de los usuarios cotidianos. En 2021, una cuenta de TikTok llamada @deeptomcruise comenzó a publicar videos humorísticos deepfake de la estrella de Hollywood Tom Cruise. Desde entonces, ha acumulado más de 5,1 millones de seguidores e incluso ha evolucionado hasta convertirse en un negocio de IA generativa líder en la industria. Mientras tanto, a medida que la accesibilidad a la tecnología de IA generativa iba en aumento, en 2022 y 2023 se produjo una aparición más amplia de vídeos deepfake que se extendieron como la pólvora por todo el mundo. medios de comunicación social.
Ahora que las imágenes rutinarias generadas por IA engañan incluso a los usuarios de Internet más escépticos, los avances en 2024 nos impactarán en un grado aún mayor. Lamentablemente, como muchos tipos de tecnologías inicialmente inocentes, los deepfakes ahora se están explotando con medios nefastos, siendo la última víctima de alto perfil Taylor Swift. Y en un año de eventos mundiales clave como las elecciones generales del Reino Unido y los Juegos Olímpicos de París, estos deepfakes pueden entrar en la corriente principal tanto para los consumidores como para las empresas. Entonces, ¿cómo podemos protegernos de sus efectos negativos?
El realismo y los riesgos de los deepfakes modernos
Hoy, nueve de cada diez (90%) de la seguridad cibernética las infracciones están relacionadas con la identidad. Sin embargo, más de cuatro de cada diez empresas (44%) todavía se encuentran en las primeras etapas de su viaje hacia la seguridad de la identidad. Se debe priorizar el valor comercial y la importancia de la identidad, particularmente en el ámbito de la seguridad.
La identidad es un elemento central de la ciberseguridad. Y en términos comerciales, la identidad se trata de «quién» tiene acceso a «qué» información. En el pasado, el «quién» era generalmente una persona o grupo de personas, y el «qué» era base de datos o aplicación. Hoy en día, los «quiénes» han proliferado más allá de los empleados internos, hasta los contratistas, los miembros de la cadena de suministro y tal vez incluso la inteligencia artificial. Los ‘qués’ también se han expandido, a medida que más datos se mueve a través de más sistemas, desde correos electrónicos hasta aplicaciones, la nube y mucho más. Cuantos más usuarios y puntos de entrada haya, más difícil será filtrar todas las identidades y mantener todos los datos seguros contra amenazas crecientes. Incluso las medidas de seguridad que antes se consideraban avanzadas y herméticas, como el reconocimiento de voz, ya no están a la altura de los riesgos actuales impulsados por la IA.
Director de Estrategia y Estándares, SailPoint.
En SailPoint, exploramos las amenazas de el robo de identidad en un experimento reciente. Usamos una herramienta de inteligencia artificial para escuchar grabaciones de la voz de nuestro director ejecutivo, Mark McClain, y luego crear su propia versión. Luego, tanto la herramienta como Mark leyeron un guión en una prueba a ciegas frente a los empleados de SailPoint. Aunque sabían que era un experimento, un tercio de los empleados se equivocó: la voz falsa de la IA era tan buena que uno de cada tres pensó que era Mark.
No es de extrañar, entonces, que este tipo de estafas de suplantación de identidad estén ganando terreno en todo el Reino Unido. Apenas el verano pasado, el confiable experto en finanzas del consumidor, Martin Lewis, fue víctima de una estafa de video falso en la que su gemelo generado por computadora animaba a los espectadores a respaldar un proyecto de inversión falso. Lewis lo describió como “aterrador” y sería difícil no estar de acuerdo. A medida que avanza la tecnología, los ciberdelincuentes podrán cada vez más vulnerar la confianza de las personas y saltar los obstáculos de seguridad existentes con facilidad.
El impacto más amplio y real de la IA generativa
Muchos expertos también están preocupados por el impacto de los deepfake en las opiniones políticas públicas. Durante los últimos quince años, hemos visto cómo Internet y las redes sociales pueden influir en los acontecimientos del mundo real, desde el uso pionero de Facebook por parte del equipo de Obama antes de las elecciones presidenciales de Estados Unidos de 2008 hasta el escándalo de datos personales de Cambridge Analytica de 2018. Además, existen algoritmos cotidianos que controlan nuestra exposición a ideas e información y, por lo tanto, moldean inconscientemente nuestras opiniones. Pero a medida que avanza la tecnología de inteligencia artificial, Internet puede tener un efecto cada vez más evidente en la política simplemente a través de la distribución de videos falsos de políticos que cada vez son más difíciles de distinguir de la realidad.
Un artículo de The Guardian de 2023 enumera algunos ejemplos notables de imágenes y videos deepfake de figuras políticas que hacen declaraciones llamativas, impactantes o extrañas, algunas de las cuales pueden haber engañado a los espectadores haciéndoles creer que eran reales. Sostiene que la tecnología corre el riesgo de alterar peligrosamente la forma en que el público, y en particular aquellos que no sospechan o desconocen sus capacidades, ven y confían en nuestros líderes mundiales. Con las elecciones de EE. UU. y el Reino Unido programadas para 2024, además de eventos mundiales que tienen un enorme impacto económico y cívico, como los Juegos Olímpicos de París, también en el horizonte, debemos seguir siendo cada vez más cautelosos con el impacto de estos deepfakes en el nuevo año y más allá de.
Aprovechando las funciones de seguridad de vanguardia
En 2023, vimos a los ciberdelincuentes intensificar el uso de la tecnología deepfake de IA en una variedad de vectores de ataque. Entonces, en 2024, la responsabilidad de las víctimas potenciales de identificar el contenido real en un mar de falsificaciones será aún mayor. Para combatir esta escalada, las empresas deberán dar un paso adelante empleado capacitación sobre cómo detectar deepfakes, y también deben revisar y reforzar los derechos de acceso digital, de modo que los empleados, socios, contratistas, etc., solo reciban tanto acceso a datos importantes como lo requieran sus funciones y responsabilidades. La minimización de datos (recopilar sólo lo necesario y suficiente) también será esencial.
De cara al futuro, es clave que las empresas utilicen formas más sólidas de seguridad de la identidad digital. Por ejemplo, las credenciales verificables, una forma de identidad que es una prueba firmada criptográficamente de que alguien es quien dice ser, podrían usarse para «probar» la identidad de alguien en lugar de depender de la vista y el oído. En el caso de una estafa deepfake, se podrían proporcionar pruebas para garantizar que el director ejecutivo o el colega son realmente quienes dicen ser. Algunas herramientas de seguridad emergentes ahora incluso aprovechan la inteligencia artificial para defenderse de los deepfakes, y la tecnología es capaz de aprender, detectar y resaltar de manera proactiva los signos de videos y videos falsos. audio para frustrar con éxito posibles violaciones. En general, hemos visto que las empresas que utilizan inteligencia artificial y herramientas de aprendizaje automático, junto con SaaS y automatización, escalar hasta un 30 % más rápido y obtener más valor por su inversión en seguridad a través de mayores capacidades.
Volando hacia las muchas caras del peligro
En última instancia, detener una sola violación de la ciberseguridad puede ahorrar millones en pérdidas de ingresos, multas regulatorias y daños a la reputación. Sin embargo, más de nueve de cada diez (91%) de los profesionales de TI dicen que las restricciones presupuestarias son un obstáculo para gestión de identidad seguridad. Sin embargo, dado que los deepfakes constituyen una gran parte del panorama de amenazas actual, no es el momento de intentar ahorrar unos cuantos kilos. Los equipos de seguridad de TI de las empresas deben recibir las herramientas que necesitan para defenderse de este tipo de ataques.
Afortunadamente, a medida que la accesibilidad de la tecnología de inteligencia artificial aumenta, también lo hacen las herramientas de seguridad. Las plataformas de identidad, que aprovechan la automatización y la inteligencia artificial, permiten a las empresas escalar las capacidades relacionadas con la identidad hasta un 37 % más rápido que las empresas que no las tienen. A medida que nos acercamos al año 2024, la inversión en herramientas como estas debe ser lo único que tomemos al pie de la letra.
Hemos enumerado la mejor protección contra ransomware..
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro