La introducción de ChatGPT de Open AI fue un momento decisivo para la industria del software, y desencadenó una carrera GenAI con su lanzamiento en noviembre de 2022. Los proveedores de SaaS ahora se apresuran a actualizar las herramientas con capacidades de productividad mejoradas impulsadas por la IA generativa.
Entre una amplia gama de usos, las herramientas GenAI facilitan a los desarrolladores la creación de software, ayudan a los equipos de ventas en la redacción de correos electrónicos mundanos, ayudan a los especialistas en marketing a producir contenido único a bajo costo y permiten a los equipos y creativos generar nuevas ideas.
Los lanzamientos importantes recientes de productos GenAI incluyen Microsoft 365 Copilot, GitHub Copilot y Salesforce Einstein GPT. En particular, estas herramientas GenAI de los principales proveedores de SaaS son mejoras pagas, una señal clara de que ningún proveedor de SaaS querrá perderse la oportunidad de sacar provecho de la transformación GenAI. Google pronto lanzará su plataforma SGE «Search Generative Experience» para resúmenes premium generados por IA en lugar de una lista de sitios web.
A este ritmo, es sólo cuestión de poco tiempo antes de que alguna forma de capacidad de IA se convierta en estándar en Aplicaciones SaaS.
Sin embargo, este progreso de la IA en el panorama de la nube no está exento de nuevos riesgos y desventajas para los usuarios. De hecho, la amplia adopción de aplicaciones GenAI en el lugar de trabajo está generando rápidamente preocupaciones sobre la exposición a una nueva generación de amenazas a la ciberseguridad.
Aprenda cómo mejorar su postura de seguridad SaaS y mitigar el riesgo de IA
Reaccionar a los riesgos de GenAI
GenAI trabaja en modelos de entrenamiento que generan nuevos datos que reflejan el original en función de la información que los usuarios comparten con las herramientas.
Como ChatGPT ahora advierte a los usuarios cuando inician sesión, «No comparta información confidencial» y «verifique sus datos». Cuando se le pregunta sobre los riesgos de GenAI, ChatGPT responde: «Los datos enviados a modelos de IA como ChatGPT pueden usarse con fines de entrenamiento y mejora de modelos, exponiéndolos potencialmente a investigadores o desarrolladores que trabajan en estos modelos».
Esta exposición amplía la superficie de ataque de las organizaciones que comparten información interna en sistemas GenAI basados en la nube. Los nuevos riesgos incluyen el peligro de fuga de IP, datos sensibles y confidenciales de los clientes y PII, así como amenazas derivadas del uso de deepfakes por parte de ciberdelincuentes que utilizan información robada para estafas de phishing y robo de identidad.
Estas preocupaciones, así como los desafíos para cumplir con los requisitos gubernamentales y de cumplimiento, están provocando una reacción violenta de las aplicaciones GenAI, especialmente por parte de industrias y sectores que procesan datos confidenciales y sensibles. Según un reciente estudiar Según Cisco, más de una de cada cuatro organizaciones ya ha prohibido el uso de GenAI por riesgos de privacidad y seguridad de los datos.
La industria bancaria fue uno de los primeros sectores en prohibir el uso de herramientas GenAI en el lugar de trabajo. Los líderes de servicios financieros tienen esperanzas sobre los beneficios del uso de la inteligencia artificial para ser más eficientes y ayudar a los empleados a hacer su trabajo, pero el 30% todavía prohíbe el uso de herramientas de IA generativa dentro de su empresa, según un encuesta realizado por Arizent.
El mes pasado, el Congreso de los EE.UU. impuesto una prohibición del uso de Copilot de Microsoft en todas las PC emitidas por el gobierno para mejorar las medidas de ciberseguridad. «La Oficina de Ciberseguridad ha considerado que la aplicación Microsoft Copilot es un riesgo para los usuarios debido a la amenaza de filtrar datos de la Cámara a servicios en la nube no aprobados por la Cámara», dijo la directora administrativa de la Cámara, Catherine Szpindor, según un informe de Axios. informe. Esta prohibición sigue a la decisión anterior del gobierno de bloquear ChatGPT.
Cómo afrontar la falta de supervisión
Dejando a un lado las prohibiciones reactivas de GenAI, las organizaciones sin duda están teniendo problemas para controlar eficazmente el uso de GenAI, ya que las aplicaciones ingresan al lugar de trabajo sin capacitación, supervisión o conocimiento de los empleadores.
Según un reciente estudiar Según Salesforce, más de la mitad de los que adoptan GenAI utilizan herramientas no aprobadas en el trabajo. La investigación encontró que a pesar de los beneficios que ofrece GenAI, la falta de políticas claramente definidas sobre su uso puede estar poniendo en riesgo a las empresas.
La buena noticia es que esto podría empezar a cambiar ahora si los empleadores siguen las nuevas directrices del gobierno de Estados Unidos para reforzar la gobernanza de la IA.
en un declaración Publicado a principios de este mes, la vicepresidenta Kamala Harris ordenó a todas las agencias federales que designaran un director de IA con la «experiencia, conocimientos y autoridad para supervisar todas las tecnologías de IA… para garantizar que la IA se utilice de manera responsable».
Con el gobierno de EE. UU. tomando la iniciativa para fomentar el uso responsable de la IA y recursos dedicados para gestionar los riesgos, el siguiente paso es encontrar métodos para gestionar las aplicaciones de forma segura.
Recuperar el control de las aplicaciones GenAI
La revolución GenAI, cuyos riesgos permanecen en el ámbito de lo desconocido, llega en un momento en el que el enfoque en la protección perimetral se está volviendo cada vez más obsoleto.
Hoy en día, los actores de amenazas se centran cada vez más en los eslabones más débiles dentro de las organizaciones, como las identidades humanas, las identidades no humanas y las configuraciones erróneas en las aplicaciones SaaS. Los actores de amenazas de estados-nación han utilizado recientemente tácticas como la pulverización de contraseñas por fuerza bruta y el phishing para distribuir con éxito malware y ransomware, así como para llevar a cabo otros ataques maliciosos a aplicaciones SaaS.
Para complicar los esfuerzos por proteger las aplicaciones SaaS, las líneas entre el trabajo y la vida personal ahora se vuelven borrosas cuando se trata del uso de dispositivos en el modelo de trabajo híbrido. Con las tentaciones que conlleva el poder de GenAI, será imposible impedir que los empleados utilicen la tecnología, ya sea que estén autorizados o no.
Por lo tanto, la rápida adopción de GenAI en la fuerza laboral debería ser una llamada de atención para que las organizaciones reevalúen si cuentan con las herramientas de seguridad para manejar la próxima generación de amenazas de seguridad SaaS.
Para recuperar el control y obtener visibilidad de las aplicaciones SaaS GenAI o aplicaciones que tienen capacidades GenAI, las organizaciones pueden recurrir a soluciones avanzadas de confianza cero como SSPM (SaaS Security Posture Management) que pueden permitir el uso de IA mientras monitorean estrictamente sus riesgos.
Obtener una vista de cada aplicación habilitada para IA conectada y medir su postura de seguridad para detectar riesgos que podrían socavar la seguridad de SaaS permitirá a las organizaciones prevenir, detectar y responder a amenazas nuevas y en evolución.
Aprenda cómo impulsar la seguridad SaaS para la era GenAI