La IA, junto con su contraparte de IA generativa, ya ha encontrado su lugar en la empresa promedio. Sin embargo, el uso de estas herramientas conlleva graves riesgos de seguridad que las empresas deben aprender a gestionar y minimizar, o volverán a atormentarlos.
Estas son las conclusiones del “Informe de seguridad de IA 2024” de Zscaler, que señaló que la IA ahora es “lo de siempre”, y las empresas aprovechan e integran nuevas funciones y herramientas en sus flujos de trabajo diarios.
Esto es claramente visible en el volumen de transacciones y datos generados, con un aumento del 600% en las transacciones, ya que se envían 569 terabytes de datos empresariales a herramientas de inteligencia artificialentre septiembre de 2023 y enero de 2024.
Numerosos riesgos
De todas las diferentes empresas que utilizan herramientas de IA, las de fabricación están en la punta de lanza, ya que representan más del 20% de todas las transacciones de IA/ML, afirmó Zscaler. Les siguen los sectores de finanzas y seguros (17%), tecnología (14%), servicios (13%) y comercio minorista/mayorista (5%).
Pero las empresas deben tener cuidado de no filtrar datos confidenciales ni crear otros riesgos. Zscaler dice que el uso de IA generativa introduce riesgos de propiedad intelectual o fuga de información privada; una mayor superficie de ataque, nuevos vectores de distribución de amenazas y mayores riesgos en la cadena de suministro; y el riesgo de generar datos de mala calidad.
«Al mismo tiempo, las empresas están constantemente expuestas a una avalancha de ciberamenazas, algunas de las cuales ahora están impulsadas por la IA», afirmaron los investigadores. «Para abordar este desafío, las empresas y los líderes de ciberseguridad deben navegar de manera efectiva en el panorama de la IA en rápida evolución para aprovechar su potencial revolucionario y al mismo tiempo mitigar los riesgos y defenderse contra los ataques impulsados por la IA».
Para proteger sus instalaciones contra las amenazas transmitidas por la IA, las empresas deben utilizar herramientas que brinden visibilidad total del uso de las herramientas de IA, creación de políticas de acceso granular para la IA, seguridad de datos granular para las aplicaciones de IA y controles potentes con aislamiento del navegador, concluye Zscaler.