La propagación incontrolada de la IA generativa ya ha tenido efectos notables, tanto buenos como malos, en la vida cotidiana de los profesionales de la ciberseguridad, un estudio publicado esta semana por el grupo sin fines de lucro ISC2. El estudio, que encuestó a más de 1.120 profesionales de la ciberseguridad, en su mayoría con certificación CISSP y que trabajan en puestos directivos, encontró un grado considerable de optimismo sobre el papel de la IA generativa en el ámbito de la seguridad. Más de cuatro de cada cinco (82%) dijeron que al menos estarían “algo de acuerdo” en que es probable que la IA mejore la eficiencia con la que pueden hacer su trabajo.
El estudio encontró que los encuestados también vieron una amplia gama de aplicaciones potenciales para la IA generativa en el trabajo de ciberseguridad. Todo, desde la detección y el bloqueo activo de amenazas, la identificación de posibles puntos débiles en la seguridad hasta el análisis del comportamiento del usuario, se citó como un caso de uso potencial para la IA generativa. La automatización de tareas repetitivas también se consideró un uso potencialmente valioso para la tecnología.
¿La IA generativa ayudará más a los piratas informáticos que a los profesionales de la seguridad?
Sin embargo, hubo menos consenso sobre si el impacto general de la IA generativa será positivo desde el punto de vista de la ciberseguridad. Las serias preocupaciones en torno a la ingeniería social, los deepfakes y la desinformación (junto con una ligera mayoría que dijo que la IA podría hacer que algunas partes de su trabajo queden obsoletas) significan que más encuestados creen que la IA podría beneficiar a los malos actores más que a los profesionales de la seguridad.
«El hecho de que los profesionales de la ciberseguridad señalen este tipo de ataques de información y engaño como la mayor preocupación es, comprensiblemente, una gran preocupación para las organizaciones, los gobiernos y los ciudadanos por igual en este año tan político», escribieron los autores del estudio.
De hecho, algunas de las cuestiones más importantes citadas por los encuestados son menos problemas concretos de ciberseguridad que preocupaciones regulatorias y éticas generales. El 59 por ciento dijo que la actual falta de regulación en torno a la IA generativa es un problema real, junto con el 55 por ciento que citó problemas de privacidad y el 52 por ciento que dijo que el envenenamiento de datos (accidental o de otro tipo) era una preocupación.
Debido a esas preocupaciones, minorías sustanciales dijeron que estaban bloqueando el acceso de los empleados a herramientas de IA generativa: el 12% dijo que su prohibición era total y el 32% dijo que era parcial. Sólo el 29% dijo que estaban permitiendo el acceso a herramientas de IA generativa, mientras que otro 27% dijo que no habían discutido el tema o no estaban seguros de la política de su organización al respecto.