IA generativa herramientas como GPT-4 son excelentes para investigar, crear contenido, etc. Sin embargo, algunas personas que usan esta tecnología no se preocupan por crear poemas para ensayos de la escuela secundaria. Hay algunas personas que los utilizarán para crear armas destructivas. Un equipo de académicos y expertos ha estado investigando para ver qué tan fácil es usar GPT-4 para crear armas biológicas. Bueno, las posibilidades de que eso ocurra son pequeñas, pero no inexistentes. Esto llega poco después de OpenAI firmó un contrato con el Departamento de Defensa de EE. UU..
Existe mucha confusión en torno a la diferencia entre chatbots y LLM (modelos de lenguajes grandes). Por ejemplo, eso es lo mismo. diferencia entre Google Bardo y Géminis. Por eso es importante saber por qué son diferentes. ChatGPT es el chatbot; la interfaz real de cara al usuario con el cuadro de texto y los resultados. GPT-4 es el modelo, o el cerebro, que procesa las indicaciones de texto y entrega los resultados al chatbot para que los muestre.
Obtienes acceso al modelo GPT-4 cuando te registras en ChatGPT Plus. Si te registras para obtener una suscripción, seguirás usando el mismo ChatGPT que está presente para los usuarios gratuitos. Sin embargo, sus resultados se basan en el modelo GPT-4, mientras que los resultados de los usuarios gratuitos se basan en el modelo GPT-3.5.
La investigación muestra sólo una pequeña posibilidad de que GPT-4 se utilice para fabricar armas biológicas
No hace mucho, el La administración Biden firmó una orden ejecutiva dirigido al Departamento de Energía para garantizar que las herramientas de inteligencia artificial no se puedan utilizar para fabricar armas nucleares, biológicas o químicas peligrosas. Abierto AI, estando un paso por delante, ha elaborado sus propias medidas de seguridad al respecto. Formó un equipo de preparación. Este es un equipo de personas encargadas de eliminar ciertas amenazas como estas.
Este equipo de personas reunió a 100 personas, entre expertos en biología y estudiantes universitarios de biología, para forzar la capacidad de GPT-4 de dar instrucciones a las personas sobre la creación de armas biológicas. La mitad del equipo recibió acceso básico a Internet. La otra mitad recibió una versión especializada de GPT-4 junto con acceso a Internet. Esta versión de GPT-4 no tenía restricciones.
Los dos grupos de personas básicamente hicieron tareas de equipo rojo para intentar que GPT-4 cometiera un error y les diera las herramientas y el conocimiento para crear armas extremadamente mortales. Un ejemplo fue tomarlo para darles una forma de sintetizar el virus del Ébola. También les dicen que intentes crear armas dirigidas a grupos específicos de personas.
¿Cuáles fueron los resultados?
Bueno, esto podría ser un poco preocupante. El grupo con acceso a Internet pudo encontrar algunos métodos para hacerlo. Sin embargo, los resultados para las personas con GPT-4 mostraron una mayor “precisión e integridad”; eso asusta. Además, los investigadores dijeron que el uso de GPT-4 «proporciona a lo sumo un ligero aumento en la adquisición de información para la creación de amenazas biológicas”.
En este punto, esta es una investigación extremadamente importante. Analizar y descubrir cómo eliminar tantas amenazas como sea posible es lo que todas las empresas de IA deberían hacer. Ya es bastante malo que tengamos gente haciendo arte, música, libros, etc. con IA. Lo último que necesitamos es que la gente haga daño real a la vida humana utilizando la tecnología.