La inteligencia artificial no es nueva. Pero la rápida innovación del último año significa que tanto los consumidores como las empresas son más conscientes que nunca de las capacidades de la tecnología y, muy probablemente, la están utilizando ellos mismos de alguna forma.
La revolución de la IA también tiene una desventaja: empodera a los estafadores. Este es uno de los efectos más significativos que estamos presenciando, más que más productividad y creatividad en el lugar de trabajo. La evolución de grandes modelos de lenguaje y el uso de IA generativa está brindando a los estafadores nuevas tácticas para explorar en sus ataques, que ahora tienen una calidad, profundidad y escala que tiene el potencial de tener consecuencias cada vez más desastrosas.
Este mayor riesgo lo sienten tanto los consumidores como las empresas. El Informe de identidad y fraude de 2023 de Experian encontró que poco más de la mitad (52%) de los consumidores del Reino Unido se sienten más objetivo de fraude en línea ahora que hace un año, mientras que más del 50% de las empresas reportan un alto nivel de preocupación. sobre el riesgo de fraude. Es vital que tanto las empresas como los consumidores se informen sobre los tipos de ataques que se están produciendo y qué pueden hacer para combatirlos.
Director general de ID&Fraud UK&I, Experian.
Familiarizarse con los nuevos tipos de ataques de fraude
Hay dos tendencias clave que están surgiendo en el espacio del fraude mediante IA: la hiperpersonalización de los ataques y el posterior aumento de los ataques biométricos. La hiperpersonalización significa que los consumidores desprevenidos son cada vez más estafados mediante ataques dirigidos que los engañan para que realicen transferencias instantáneas y pagos en tiempo real.
Para las empresas, los ataques de compromiso de correo electrónico ahora pueden utilizar IA generativa para copiar la voz o el estilo de escritura de una empresa en particular para realizar solicitudes que parezcan más genuinas, como alentarlas a realizar transacciones financieras o compartir información confidencial.
La IA generativa facilita que cualquiera pueda lanzar estos ataques, al permitirles crear y administrar muchos bancos falsos, comercio electrónicoatención médica, gobierno y medios de comunicación social Cuentas y aplicaciones que parecen reales.
Estos ataques no harán más que aumentar. Históricamente, la IA generativa no era lo suficientemente poderosa como para usarse a escala para crear una representación creíble de la voz o el rostro de otra persona. Pero ahora es imposible distinguir con el ojo o el oído humanos una cara o una voz profundamente falsa de una genuina.
A medida que las empresas adopten cada vez más capas adicionales de controles para la verificación de identidad, los estafadores necesitarán explotar este tipo de ataques.
Tipos de ataques a tener en cuenta
Los tipos de ataques a los que hay que prestar atención incluyen:
Imitando una voz humana: Ha habido un crecimiento sustancial en las voces generadas por IA que imitan a personas reales. Estos esquemas significan que se puede engañar a los consumidores haciéndoles creer que están hablando con alguien que conocen, mientras que se puede engañar a las empresas que utilizan sistemas de verificación de voz para sistemas como la atención al cliente.
Vídeos o imágenes falsas.: Los modelos de IA se pueden entrenar, utilizando técnicas de aprendizaje profundo, para utilizar grandes cantidades de activos digitales como fotos, imágenes y vídeos para producir vídeos auténticos y de alta calidad o imágenes que sean prácticamente imperceptibles de las reales. Una vez entrenados, los modelos de IA pueden combinar y superponer imágenes sobre otras imágenes y dentro del contenido de vídeo a una velocidad alarmante.
Chatbots: Se pueden utilizar chatbots de IA amigables y convincentes para establecer relaciones con las víctimas y convencerlas de que envíen dinero o compartan información personal. Siguiendo un guión prescrito, estos chatbots puede extender una conversación humana con una víctima durante largos períodos de tiempo para profundizar una conexión emocional.
Mensajes de texto: La IA generativa permite a los estafadores replicar intercambios personales con alguien que la víctima conoce con guiones bien escritos que parecen auténticos. Luego pueden realizar ataques múltiples a través de conversaciones de texto con múltiples víctimas a la vez, manipulándolas para que lleven a cabo acciones que pueden involucrar transferencias de dinero, bienes u otras ganancias fraudulentas.
Combatir la IA adoptando la IA
Para luchar contra la IA, las empresas necesitarán utilizarla y otras herramientas, como el aprendizaje automático, para asegurarse de estar un paso por delante de los delincuentes.
Los pasos clave a seguir incluyen:
Identificando fraude con IA generativa: Uso de IA generativa para la detección de transacciones fraudulentas o el robo de identidad Los controles están demostrando ser más precisos a la hora de detectar fraudes, en comparación con generaciones anteriores de modelos de IA.
Uso cada vez mayor de datos biométricos verificados: Actualmente, la IA generativa puede replicar la retina, las huellas dactilares o la forma en que alguien usa su ratón de computadora.
Consolidar los procesos de prevención del fraude y protección de la identidad: Todos los datos y controles deben alimentar sistemas y equipos que puedan analizar señales y construir modelos que estén continuamente capacitados sobre el tráfico bueno y malo. De hecho, saber cómo es un buen actor ayudará a las empresas a evitar intentos de suplantación de clientes genuinos.
Educar a clientes y consumidores: Educar a los consumidores de manera personalizada a través de numerosos canales de comunicación de manera proactiva puede ayudar a garantizar que los consumidores estén al tanto de los últimos ataques de fraude y su papel en la prevención de ellos. Esto ayuda a permitir una experiencia personalizada y fluida para consumidores auténticos, al tiempo que bloquea los intentos de atacantes habilitados para IA.
Utilice datos de vulnerabilidad del cliente para detectar signos de ingeniería social: Los clientes vulnerables tienen muchas más probabilidades de caer en estafas falsas. Procesar y utilizar estos datos para la educación y la protección de las víctimas permitirá a la industria ayudar a quienes corren mayor riesgo.
¿Porqué ahora?
Las mejores empresas utilizaron un enfoque de varios niveles (no existe una solución mágica) para prevenir el fraude, minimizando en la medida de lo posible las lagunas que los estafadores buscan explotar. Por ejemplo, al utilizar consorcios e intercambios de datos sobre fraude, los equipos antifraude pueden compartir conocimientos sobre ataques nuevos y emergentes.
Una estrategia bien estratificada que incorpora verificación de dispositivos, de comportamiento, de consorcios, de documentos y de identidad, reduciendo drásticamente las debilidades del sistema.
La lucha contra el fraude mediante IA será ahora parte de esa estrategia para todas las empresas que se tomen en serio la prevención del fraude. Los ataques serán más frecuentes y sofisticados, lo que requerirá la implementación de una estrategia de protección a largo plazo, que cubra cada paso del proceso de prevención del fraude, desde el consumidor hasta el atacante. Esta es la única manera que tienen las empresas de protegerse a sí mismas y a sus clientes de la creciente amenaza de los ataques impulsados por IA.
Hemos enumerado la mejor protección contra el robo de identidad para familias..
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro