Las plataformas GenAI han estado impulsando un aumento significativo de los ciberataques y riesgos de seguridad. Esto ha dado lugar a un nuevo conjunto de nuevas empresas de ciberseguridad que están trabajando específicamente para abordar estos riesgos.
«Las poderosas capacidades de GenAI ahora son accesibles a una audiencia más amplia en lugar de un grupo de élite de expertos en inteligencia artificial y aprendizaje profundo, y es importante considerar las implicaciones de seguridad y tomar medidas para garantizar la privacidad y seguridad de los datos de la empresa, los socios y los clientes», dijo. Melinda Marks, analista senior de ESG. «Hay varias empresas emergentes que se ocupan de esto, incluidas Portal26, Prompt Security, CalypsoAI, etc.»
La idea es ayudar a las organizaciones a evaluar qué GenAI se está utilizando, ayudarlas a establecer políticas para limitar el uso o implementar barreras para un uso seguro y luego monitorearlas para garantizar que los datos estén protegidos, según Marks.
Seguridad GenAI basada en ofertas de protección de datos
Casi todos los riesgos relacionados con la GenAI centrados en las empresas pueden acumularse bajo la filtración o el sesgo de datos. Por lo tanto, las herramientas diseñadas para proteger contra estos incluyen protección contra pérdida de datos (DLP) soluciones. Sin embargo, las fugas basadas en GenAI a veces se refieren a un compromiso de una gran cantidad de datos a medida que los modelos se entrenan en corpus más grandes.
“Esto cae dentro del DLP, pero el uso de GenAI también trae un problema de escalabilidad porque puede haber muchos datos transferidos hacia y desde los LLM entre la construcción de los modelos y luego el uso de los datos y la generación/cambio de nuevos datos en las interacciones del lenguaje natural y indicaciones”, dijo Marks. “Las organizaciones deben asegurarse de que sus datos confidenciales no se compartan ni se utilicen en otros modelos, lo cual es especialmente importante para las industrias reguladas como la atención médica y las finanzas.
Según Marks, las empresas emergentes como Aim deberán demostrar una mejor visibilidad y control en la gestión de riesgos de seguridad con el uso de GenAI, incluida la visibilidad de las cargas de datos y la identificación de transferencias de datos fuera de la política.