[ad_1]
Hemos visto organismos independientes de buena reputación como el NIST lanzar su Marco de gestión de riesgos de IAy CISA su Hoja de ruta para la IA. También ha habido varios gobiernos que han establecido nuevas directrices, como las Directrices Éticas de la IA de la UE. La alianza Five Eyes (FVEY), formada por Australia, Canadá, Nueva Zelanda, el Reino Unido y Estados Unidos, también ha intervenido y desarrollado Pautas seguras de IArecomendaciones que son difíciles de abordar para la mayoría de las organizaciones, pero que dicen mucho de la preocupación conjunta que estas naciones tienen por esta nueva amenaza de la IA.
Cómo pueden hacer frente las empresas
Para empeorar las cosas, la escasez de talento cibernético y una hoja de ruta sobrecargada no ayudan. Este nuevo mundo requiere nuevas habilidades que faltan en la mayoría de los talleres de TI. Basta considerar cuántos miembros del personal de TI entienden los modelos de IA: la respuesta es no muchos. Entonces extienda esta pregunta a ¿quién entiende la ciberseguridad y los modelos de IA? Ya sé la respuesta y no es bonita.
Hasta que las empresas se pongan al día en ese sentido, las mejores prácticas actuales incluyen el establecimiento de un estándar de IA generativa que incluya orientación sobre cómo utilizar la IA y qué riesgos deben considerarse. Dentro de las grandes empresas, la atención se ha centrado en segmentar los casos de uso de IA generativa en riesgo bajo y riesgo medio/alto. Los casos de bajo riesgo pueden proceder rápidamente. Por otro lado, se requieren casos de negocios más sólidos para ejemplos de riesgo medio y alto para garantizar que los nuevos riesgos se comprendan y formen parte del proceso de decisión.
[ad_2]
Enlace fuente