Microsoft ha anunciado una nueva actualización para la plataforma Azure AI. Incluye sistemas de mitigación y detección de alucinaciones y ataques rápidos maliciosos. Los clientes de Azure AI ahora tienen acceso a nuevas herramientas impulsadas por LLM que mejoran en gran medida el nivel de protección contra respuestas adversas o no deseadas en sus aplicaciones de IA.
Microsoft fortalece las defensas de Azure AI con alucinaciones y detección de ataques maliciosos
Sarah Bird, directora de productos de IA responsable de Microsoft, explica que estas características de seguridad protegerán al usuario «promedio» de Azure que puede no especializarse en identificar o corregir vulnerabilidades de IA. TheVerge lo cubrió extensamente y eludió cómo estas nuevas herramientas pueden identificar vulnerabilidades potenciales, monitorear alucinaciones y bloquear mensajes maliciosos en tiempo real, las organizaciones obtendrán información valiosa sobre el rendimiento y la seguridad de sus modelos de IA.
Estas características incluyen Prompt Shields para evitar inyecciones rápidas/avisos maliciosos, detección de conexión a tierra para la identificación de alucinaciones y evaluaciones de seguridad que califican la vulnerabilidad del modelo. Mientras IA azul ya tiene estos atributos en vista previa, otras funcionalidades como dirigir modelos hacia resultados seguros o rastrear usuarios potencialmente problemáticos se lanzarán en futuras versiones.
Una cosa que distingue el enfoque de Microsoft es el énfasis en el control personalizado, que permite a los usuarios de Azure alternar filtros para discursos de odio o violencia en modelos de IA. Esto ayuda con los temores sobre prejuicios o contenido inapropiado, permitiendo a los usuarios ajustar la configuración de seguridad de acuerdo con sus requisitos particulares.
El sistema de monitoreo verifica las indicaciones y respuestas en busca de palabras prohibidas o indicaciones ocultas antes de pasar al modelo para su procesamiento. Esto elimina cualquier posibilidad de que la IA produzca resultados contrarios a los estándares éticos y de seguridad deseados y, como resultado, genere materiales controvertidos o dañinos.
Azure AI ahora rivaliza con GPT-4 y Llama 2 en términos de seguridad y protección
Aunque estas características de seguridad están disponibles con modelos populares como GPT-4 y Llama 2, es posible que aquellos que utilizan sistemas de IA de código abierto más pequeños o menos conocidos deban incorporarlos manualmente en sus modelos. Sin embargo, el compromiso de Microsoft de mejorar la seguridad de la IA demuestra su dedicación a proporcionar soluciones de IA sólidas y confiables en Azure.
Los esfuerzos de Microsoft para mejorar la seguridad demuestran un interés creciente en el uso responsable de la tecnología de IA. Por lo tanto, Microsoft tiene como objetivo crear un entorno más seguro donde los clientes puedan detectar y prevenir riesgos antes de que se materialicen al utilizar el ecosistema de IA en Azure.