A medida que la inversión en privacidad registró retornos positivos a nivel mundial, las organizaciones han aumentado las habilidades de contratación con credenciales de «privacidad». El veinticinco por ciento de los encuestados de ISACA dijeron que sus organizaciones tenían roles abiertos de privacidad legal/de cumplimiento, mientras que el 31% informó puestos abiertos de privacidad técnica. Aunque son inferiores a las cifras del año pasado (27% y 34% respectivamente), las estadísticas reflejan buenos sentimientos de contratación para el segmento en medio de un presupuesto enorme, según el informe de ISACA.
La privacidad aún enfrenta reveses
El segmento de privacidad observó un lento progreso en materia de transparencia y preparación para la IA. Según un estudio paralelo de Cisco, el sesenta y dos por ciento de los consumidores están preocupados por cómo las organizaciones aplican y utilizan la IA y el 60 por ciento ya ha perdido la confianza en las organizaciones por sus prácticas de IA.
«Preguntamos a las organizaciones sobre (la preparación de los clientes para la IA), y el 91% de los encuestados dijeron que sus organizaciones necesitaban hacer más para asegurarles a los clientes que sus datos sólo se estaban utilizando para fines previstos y legítimos cuando se trata de IA», agrega el informe de Cisco. Esta cifra fue del 92% el año pasado, lo que refleja muy poco progreso.
El noventa y dos por ciento de los encuestados de Cisco dijeron que ven IA generativa como una tecnología fundamentalmente diferente con desafíos e inquietudes novedosos que requieren nuevas técnicas para gestionar datos y riesgos. Entre las principales preocupaciones con la tecnología, el 69% dijo que podría dañar los derechos legales y de propiedad intelectual de su organización, el 68% temía que el público y los competidores compartieran el contenido cargado en las herramientas GenAI, y el 68% cuestionó la autenticidad de los datos devueltos por estas herramientas. .
«Como esperaba, hay una gran cantidad de problemas de privacidad abierta con el uso de GenAI», dijo Poller. “Y eso se debe a que GenAI es una caja negra donde las organizaciones tienen poca o ninguna visibilidad sobre cómo el motor de IA incorpora los datos de entrada (solicitudes) en los resultados. Existe el riesgo de que los datos de entrada se utilicen de forma inadecuada en el opaco proceso de toma de decisiones y de que estos datos se expongan de forma inadecuada”.
El sesenta y tres por ciento de los encuestados de ISACA, que creían que sus presupuestos de privacidad ya no estaban suficientemente financiados, dijeron que temían que la financiación disminuyera aún más en los próximos 12 meses. Esto fue solo del 8% en un estudio realizado en 2021.