[ad_1]
Abierto AI CEO Sam Altman compartió en una publicación en X esta semana que la compañía se está asociando con el Instituto de Seguridad de IA de EE. UU. y le dará a la agencia gubernamental acceso temprano a su próximo modelo importante de IA para pruebas de seguridad.
Altman describió el plan como parte de un nuevo impulso más amplio para las medidas de seguridad de la IA, que podrían tener un impacto significativo ChatGPT y otra Abierto AI productos en los próximos años. También podría ser parte de una campaña de relaciones públicas y políticas contra los críticos que dicen que OpenAI ya no prioriza la seguridad de la IA.
Una gran razón para las críticas es que OpenAI creado y luego disolvió en gran medida un equipo interno de seguridad de IA. La disolución provocó la renuncia de los principales ejecutivos de la empresa, como Jan Leike e Ilya Sutskever, quienes fueron fundamentales en los primeros esfuerzos de investigación de seguridad de la empresa. Muchos otros empleados actuales y anteriores se preguntaron públicamente si OpenAI había decidido ignorar la seguridad a favor del desarrollo de productos.
Otra razón se destaca en una nota adjunta directamente a la publicación de Altman. Menciona que el año pasado se comprometió a asignar el 20% de sus recursos informáticos a la investigación de seguridad, pero que esa asignación en ese momento era específicamente para el mismo comité cuyos líderes abandonaron la empresa. Sin embargo, el acuerdo con el gobierno no es el único cambio genuino. Altman dijo que OpenAI ahora ha anulado las cláusulas restrictivas de no desprestigio que desalentaban la denuncia de irregularidades.
Si el acuerdo con el Instituto de Seguridad de la IA de Estados Unidos es una medida estratégica de OpenAI para recuperar la confianza, es una medida significativa. El Instituto opera bajo el Instituto Nacional de Normas y Tecnología (NIST) dentro del Departamento de Comercio. Ha estado trabajando en el desarrollo de estándares y pautas para la seguridad y protección de la IA y ya está trabajando con muchas empresas importantes de IA y tecnología como Microsoft, GoogleMeta, Manzanay Nvidia.
El hecho de que OpenAI comparta el acceso anticipado a su próximo modelo de IA permitirá al Instituto realizar pruebas y evaluaciones de seguridad antes de su lanzamiento público. Esta medida tiene como objetivo garantizar que se identifiquen y mitiguen los posibles riesgos en las primeras fases del proceso de desarrollo, en consonancia con los objetivos más amplios delineados en la orden ejecutiva sobre IA del presidente Joe Biden del año pasado.
No es el único estímulo regulatorio de OpenAI en los últimos días. La empresa respaldó la nueva Ley del Futuro de la Innovación del Senado, que otorgaría al Instituto de Seguridad de la IA la responsabilidad de crear regulaciones federales para la seguridad de la IA. La conexión obvia entre impulsar el proyecto de ley y hacer que sus modelos sean centrales para el trabajo del Instituto podría verse como un intento de influir indebidamente en la regulación o un esfuerzo más inocente y generalizado para aumentar la seguridad de la IA.
Ambas parecen plausibles, y OpenAI tiene una asociación similar con el organismo de seguridad de IA del Reino Unido. Por otra parte, OpenAI tiene gastado más del triple del dinero que se invirtió en lobby en el primer semestre de este año en comparación con todo el año pasado.
¿Seguro y rentable, ambas cosas?
La asociación de OpenAI con el Instituto de Seguridad de la IA de Estados Unidos probablemente se juzgará en función de la seguridad real de los modelos que se vayan a utilizar y de si existen restricciones reales para hacerlos más seguros. Ahí es donde se encuentra la verdadera pregunta para los consumidores. A medida que la IA se vaya integrando cada vez más en la vida cotidiana, la tensión entre seguridad y rentabilidad podría aumentar, incluso mientras OpenAI y sus rivales esperan conseguir que el público confíe en ellos y en sus modelos de IA.
Sin duda, un sello de aprobación de una agencia gubernamental ayudaría a generar confianza, y OpenAI no querría que otras empresas lo consiguieran antes que ellos. La participación de un organismo de seguridad independiente en la evaluación de los modelos de IA antes de su lanzamiento podría proporcionar una mayor garantía de que las herramientas que utilizan son seguras y fiables. Las crecientes preocupaciones en torno a cuestiones de IA, como la privacidad de los datos, los sesgos y el mal uso deliberado de la IA, podrían mitigarse con un enfoque proactivo. El cabildeo de OpenAI y otros esfuerzos para que esas normas le sean favorables podrían socavar eso y el objetivo mismo del AI Safety Institute si no tienen cuidado.
También podría gustarte…
[ad_2]
Enlace fuente