Los empleados pueden reconocer la posible filtración de datos confidenciales como un riesgo importante, pero algunas personas aún ingresan dicha información en archivos disponibles públicamente. inteligencia artificial generativa (IA) herramientas.
Estos datos confidenciales incluyen información del cliente, cifras de ventas, datos financieros e información de identificación personal, como direcciones de correo electrónico y números de teléfono. Los empleados también carecen de políticas u orientación claras sobre la uso de estas herramientas en el lugar de trabajosegún una investigación publicada por Veritas Technologies.
También: Cinco formas de utilizar la IA de forma responsable
Realizado por el investigador de mercado 3Gem en diciembre de 2023, el estudio encuestó a 11.500 empleados en todo el mundo, incluidos trabajadores en Australia, China, Japón, Singapur, Corea del Sur, Francia, Alemania, el Reino Unido y Estados Unidos.
Preguntado sobre el riesgos para su organización por el uso de IA generativa pública herramientas, el 39% de los encuestados señaló el potencial fuga de datos sensibles, mientras que el 38% dijo que estas herramientas podrían producir información incorrecta, inexacta o inútil. Otro 37% de los encuestados citó cumplimiento riesgos y el 19% señaló que la tecnología podría afectar negativamente a la productividad.
Alrededor del 57% de los empleados utilizaron herramientas públicas de IA generativa en la oficina al menos una vez por semana, y el 22,3% utilizó la tecnología a diario. Alrededor del 28% de las personas dijeron que no utilizaban dichas herramientas en absoluto.
También: Los mejores chatbots con IA: ChatGPT y otras alternativas destacadas
Cerca de la mitad (42%) de los encuestados dijeron que usaban las herramientas para investigación y análisis, mientras que el 41% y el 40% recurrieron a la IA generativa para escribir mensajes de correo electrónico y memorandos, así como para mejorar su redacción, respectivamente.
Con respecto a la tipos de datos que pueden proporcionar valor empresarial cuando se introducen en herramientas públicas de IA generativa, el 30 % de los empleados señalaron información del cliente, como referencias, datos bancarios y direcciones. Alrededor del 29% citó cifras de ventas, mientras que el 28% destacó información financiera y el 25% señaló información de identificación personal. Otro 22% de los trabajadores hizo referencia a datos confidenciales de recursos humanos y el 17% citó información confidencial de la empresa.
Alrededor del 27% de los encuestados no creía que poner esta información confidencial en herramientas públicas de IA generativa pudiera generar valor para el negocio.
Casi un tercio (31%) de los empleados reconoció haber introducido datos tan sensibles en estas herramientas, mientras que un 5% no estaba seguro de haberlo hecho. Cerca de dos tercios (64%) dijeron que no ingresaron ningún dato confidencial en herramientas públicas de IA generativa.
También: El auge actual de la IA amplificará los problemas sociales si no actuamos ahora
Sin embargo, el uso de tecnología emergente podría proporcionar un acceso más rápido a la información, afirmó el 48% de los encuestados cuando se les preguntó sobre los beneficios para su organización. El cuarenta por ciento citó una mayor productividad, el 39% dijo que la IA generativa podría reemplazar las tareas mundanas y el 34% creía que ayudaba a generar nuevas ideas.
Curiosamente, el 53% de los empleados consideró que el uso de herramientas de IA generativa por parte de un colega era una ventaja injusta y el 40% creía que a quienes lo hacían se les debería exigir que enseñaran al resto de su equipo o a sus colegas. Otro 29% dijo que los colegas que utilizaron dichas herramientas deberían ser denunciados a su superior inmediato, mientras que el 27% creía que deberían enfrentarse a medidas disciplinarias.
En términos de orientación y políticas formales sobre el uso de herramientas públicas de IA generativa en el trabajo, el 36% de los encuestados dijo que no había ninguna disponible. Alrededor del 24% reveló tener políticas obligatorias sobre dicho uso, mientras que el 21% dijo que dichas pautas eran voluntarias para su lugar de trabajo. Otro 12% dijo que su organización implementó una prohibición sobre el uso de herramientas de IA generativa en el trabajo.
La mayoría (90%) de los encuestados creía que era importante contar con directrices y políticas sobre el uso de la tecnología emergente, y el 68% señaló la necesidad de que todos conozcan la «forma correcta» de adoptar la IA generativa.
Los riesgos aumentarán a medida que aumente el uso de GenAI
Es probable que a medida que aumente la adopción de la IA generativa, los riesgos de seguridad asociados también crezcan.
Las plataformas clave podrían sufrir ataques a gran escala a medida que una única tecnología de IA generativa se acerque a una cuota de mercado del 50%, o cuando el mercado se consolide en no más de tres tecnologías, según Índice de inteligencia sobre amenazas X-Force de IBM 2024.
También: Entrene modelos de IA con sus propios datos para mitigar los riesgos
El estudio se basa en el análisis del proveedor de tecnología a partir del monitoreo de más de 150 mil millones de eventos de seguridad por día en más de 130 países y conocimientos de datos de IBM, incluida su unidad de servicios de seguridad administrados y Red Hat.
Los ciberdelincuentes apuntan a tecnologías que son omnipresentes en las organizaciones de todo el mundo para obtener beneficios de sus campañas, señaló IBM. Este enfoque se extenderá a la IA una vez que la IA generativa gane dominio en el mercado, lo que desencadenará la madurez de la IA como superficie de ataque y motivará a los ciberdelincuentes a invertir en nuevas herramientas.
Por lo tanto, es fundamental que las empresas aseguren sus modelos de IA antes de que los actores de amenazas amplíen sus actividades, advirtió IBM. En 2023, hubo más de 800.000 publicaciones sobre IA y GPT en foros de la web oscura, señaló, y agregó que las amenazas basadas en la identidad seguirán creciendo a medida que los adversarios aprovechen la tecnología para optimizar sus ataques.
Al describir la IA generativa como la próxima gran frontera a asegurar, el proveedor de tecnología dijo: «Las empresas también deben reconocer que su infraestructura subyacente existente es una puerta de entrada a sus modelos de IA que no requiere tácticas novedosas de los atacantes apuntar, destacando la necesidad de un enfoque holístico de la seguridad en la era de la IA generativa».
También: Estas son mis 5 herramientas de IA favoritas para el trabajo
Charles Henderson, socio director global de IBM Consulting y director de IBM X-Force, dijo: «Mientras ‘fundamentos de seguridad‘ no recibe tanta atención como los ‘ataques diseñados por IA’, sigue siendo que el mayor problema de seguridad de las empresas se reduce a lo básico y conocido, no a lo novedoso y desconocido. La identidad se utiliza contra las empresas una y otra vez, un problema que empeorará a medida que los adversarios inviertan en IA para optimizar la táctica».
Además, explotar cuentas válidas se ha convertido en el camino de menor resistencia para los ciberdelincuentes. El IBM Threat Intelligence Index experimentó un aumento del 266% en los ataques que involucran malware diseñado para robar información de identificación personal, incluidas credenciales de redes sociales y aplicaciones de mensajería, detalles bancarios y datos de billeteras criptográficas.
Europa en 2023 fue la región más atacada, representando el 32% de los incidentes a los que respondió X-Force de IBM en todo el mundo, incluido el 26% de los ataques de ransomware a nivel mundial. Estos ataques contribuyeron al 44% de todos los incidentes que experimentó Europa, lo que impulsó en parte el ascenso de la región a la primera posición el año pasado. Según IBM, el elevado uso de plataformas en la nube por parte de Europa también podría haber ampliado su superficie de ataque, en comparación con sus homólogos globales.
Asia-Pacífico, que fue el región más objetivo en 2021 y 2022, fue el tercer país más afectado, con el 23% de los incidentes globales, mientras que América del Norte representó el 26%.
También: ¿Tienes 10 horas? IBM le capacitará en los fundamentos de la IA, de forma gratuita
A nivel mundial, casi el 70% de Los ataques fueron contra infraestructura crítica. organizaciones, donde casi el 85% de estos incidentes fueron causados por la explotación de aplicaciones públicas, correos electrónicos de phishing y el uso de cuentas válidas.
IBM señaló que en el 85% de los ataques a sectores críticos, el compromiso podría haberse mitigado con parches, autenticación multifactor o principios de privilegios mínimos.