OpenAI ha eliminado parte de sus términos y condiciones que prohibían el uso de su tecnología de IA con fines militares y bélicos.
Un portavoz de OpenAI dijo Veredicto que, si bien la política de la empresa no permite que sus herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otras personas o destruir propiedades, existen, sin embargo, casos de uso de seguridad nacional que se alinean con su misión.
«Por ejemplo, ya estamos trabajando con DARPA para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura crítica y la industria», dijo el portavoz y agregó: «No estaba claro si estos casos de uso beneficiosos habrían sido permitido bajo “militar” en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones”.
El creador de ChatGPT La política de uso incluía inicialmente la prohibición de cualquier actividad que incluyera el “desarrollo de armas” y la “guerra militar”.
Sin embargo, la nueva actualización que se publicó el 10 de enero no incluía la prohibición de “militares y guerras”.
OpenAI dejó la prohibición general de usar el servicio «para dañarse a usted mismo o a otros» con un ejemplo incluido del uso de IA para «desarrollar o usar armas».
Acceda a los perfiles de empresa más completos del mercado, impulsados por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.
Perfil de la empresa: muestra gratuita
Su correo electrónico de descarga llegará en breve
Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por eso le ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.
Por GlobalData
«Hemos actualizado nuestras políticas de uso para que sean más legibles y agregamos orientación específica del servicio», dijo OpenAI en una publicación de blog.
«No podemos predecir todos los usos beneficiosos o abusivos de nuestra tecnología, por lo que monitoreamos proactivamente nuevas tendencias de abuso», agrega la publicación del blog.
Sarah Meyers, directora general del AI Now Institute, dijo al Interceptar El hecho de que la IA se utilice para atacar a civiles en Gaza hace que ahora sea un momento notable para que OpenAI cambie sus términos de servicio.
Fox Walker, analista de la empresa de investigación GlobalData, dijo Veredicto que las nuevas directrices “muy bien podrían conducir a una mayor proliferación del uso de la IA en contextos de defensa, seguridad y militares”.
«Ya sea el uso de tecnología no letal, el desarrollo de una estrategia militar o simplemente el uso de herramientas presupuestarias, hay muchas áreas en las que la IA puede ayudar a los líderes militares sin causar daño a otros ni crear nuevas armas», dijo Walker.
En octubre, OpenAI formó un nuevo equipo para monitorear, predecir e intentar proteger contra los “riesgos catastróficos” que plantea la IA, como las amenazas nucleares y las armas químicas.
El equipo, llamado Preparación, también trabajará para contrarrestar otros peligros como la duplicación y adaptación autónoma, la ciberseguridad, los biológicos y ataques radiactivos, así como persuasión selectiva.
En 2022, los investigadores de OpenAI fueron coautores de un estudio que señaló los riesgos de utilizar grandes modelos de lenguaje para la guerra.
Un portavoz de OpenAI dijo anteriormente: “Creemos que los modelos de IA de vanguardia, que superarán las capacidades actualmente presentes en los modelos más avanzados existentes, tienen el potencial de beneficiar a toda la humanidad. Pero también plantean riesgos cada vez más graves”.
La empresa de investigación GlobalData estima el total Mercado de IA tendrá un valor de 383.300 millones de dólares en 2030, lo que implica un 21% tasa compuesta de crecimiento anual entre 2022 y 2030.