Hace apenas unos días, OpenAI página de políticas de uso afirma explícitamente que la empresa prohíbe el uso de su tecnología con fines «militares y bélicos». Desde entonces, esa línea ha sido eliminada. Como lo notó por primera vez La intercepciónla empresa actualizado la pagina el 10 de enero «para ser más claro y brindar orientación más específica sobre el servicio», como indica el registro de cambios. Todavía prohíbe el uso de sus modelos de lenguaje grande (LLM) para cualquier cosa que pueda causar daño y advierte a las personas contra el uso de sus servicios para «desarrollar o usar armas». Sin embargo, la compañía ha eliminado el texto relacionado con «militar y guerra».
Si bien todavía tenemos que ver sus implicaciones en la vida real, este cambio en la redacción se produce justo cuando las agencias militares de todo el mundo están mostrando interés en el uso de la IA. «Dado el uso de sistemas de IA para atacar a civiles en Gaza, es un momento notable para tomar la decisión de eliminar las palabras ‘militar y guerra’ de la política de uso permitido de OpenAI», dijo Sarah Myers West, directora general de AI Now. Instituto, dijo a la publicación.
La mención explícita de «militar y guerra» en la lista de usos prohibidos indicó que OpenAI no podía trabajar con agencias gubernamentales como el Departamento de Defensa, que normalmente ofrece acuerdos lucrativos a los contratistas. Por el momento, la empresa no dispone de un producto que pueda matar o causar daño físico directamente a nadie. Pero como La intercepción Dijo que su tecnología podría usarse para tareas como escribir código y procesar órdenes de adquisición de cosas que podrían usarse para matar personas.
Cuando se le preguntó sobre el cambio en la redacción de su política, el portavoz de OpenAI, Niko Felix, dijo a la publicación que la compañía «tenía como objetivo crear un conjunto de principios universales que sean fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que Ahora también podemos construir GPT». Félix explicó que «un principio como ‘No dañar a otros’ es amplio pero fácil de comprender y relevante en numerosos contextos», y agregó que OpenAI «citó específicamente las armas y las lesiones a otros como ejemplos claros». Sin embargo, el portavoz se negó a aclarar si la prohibición del uso de su tecnología para «dañar» a otros incluía todo tipo de uso militar fuera del desarrollo de armas.