GPT-4 lleva disponible poco más de una semana. La API tiene lista de espera y el acceso (limitado) desde ChatGPT cuesta 20 dólares al mes. Sin embargo, hay usuarios de todo el mundo hablando maravillas de sus posibilidades. Usuarios que, en realidad, saben muy poco del último modelo de lenguaje de OpenAI, porque la empresa apenas ha ofrecido detalles técnicos del modelo.
En el informe técnico de GPT-4, OpenAI escribió:
“Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cómputo de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento o similares”.
Traducido a un lenguaje más prosaico, OpenAI ha dejado de publicar datos básicos de sus modelos de inteligencia artificial, como el número de parámetros, para no dar pistas a sus competidores.
OpenAI fue fundada en 2015 como una organización sin ánimo de lucro predispuesta a colaborar con instituciones e investigadores, y a que sus estudios e informes estuvieran abiertos al público.
G/O Media may get a commission
Elon Musk, uno de los fundadores de OpenAI, dijo en Twitter que él mismo le había puesto “Open” en el nombre porque iba a ser una compañía open source para contrarrestar a Google, pero que ahora (años después de la partida de Musk) se había vuelto “una empresa de software propietario en busca del máximo beneficio y virtualmente controlada por Microsoft”.
No se puede creer a pies juntillas a un mentiroso compulsivo como Elon Musk, pero en algo tiene razón. OpenAI pasó a ser una empresa con fines de lucro en 2019 con la excusa de atraer nuevos inversores, y puso un límite a sus beneficios… de 100 veces cualquier inversión.
En 2020 lanzó su API, la que ahora usan miles de startups creadas alrededor de GPT-3. En un post en su web, explicó:
¿Por qué OpenAI eligió lanzar una API en lugar de hacer que los modelos sean de código abierto? Hay tres razones principales por las que hicimos esto. En primer lugar, la comercialización de la tecnología nos ayuda a pagar nuestros esfuerzos continuos de investigación, seguridad y políticas de IA. En segundo lugar, muchos de los modelos subyacentes a la API son muy grandes, requieren mucha experiencia para desarrollarse e implementarse y hacen que su ejecución sea muy costosa. Esto dificulta que cualquier persona, excepto las empresas más grandes, se beneficie de la tecnología subyacente. Esperamos que la API haga que los potentes sistemas de inteligencia artificial sean más accesibles para empresas y organizaciones más pequeñas. Tercero, el modelo API nos permite responder más fácilmente al mal uso de la tecnología. Dado que es difícil predecir los casos de uso posteriores de nuestros modelos, parece inherentemente más seguro lanzarlos a través de una API y ampliar el acceso con el tiempo, en lugar de lanzar un modelo de código abierto donde el acceso no se pueda ajustar si resulta que tiene aplicaciones dañinas.
Aun así, OpenAI siguió dando detalles de sus modelos, como que GPT-3 tenía un tamaño de 175.000 millones de parámetros y medía 800 GB. Veníamos de un GPT-2 con 1500 millones de parámetros, por lo que surgieron especulaciones de que GPT-4 iba a superar el billón.
Ahora que GPT-4 ya está disponible, no sabemos cuántos parámetros tiene. OpenAI no ha proporcionado información sobre los datos utilizados para entrenar el modelo, sus costes energéticos, su arquitectura o el hardware subyacente. Lo único que tenemos es la promesa de que está auditado:
Estamos comprometidos con la auditoría independiente de nuestras tecnologías. Planeamos poner detalles técnicos adicionales a disposición de más terceros que puedan aconsejarnos sobre cómo equilibrar las consideraciones competitivas y de seguridad mencionadas anteriormente frente al valor científico de una mayor transparencia.
Ilya Sutskever, cofundador y científico jefe de OpenAI, dijo a The Verge que en unos años será evidente que una inteligencia artificial de código abierto no habría sido prudente (por las implicaciones de seguridad, si cayera en manos de actores maliciosos), y que “se equivocaron” con el enfoque inicial de la empresa.
Algunos podrían argumentar lo contrario: que el nuevo enfoque de OpenAI dificulta el desarrollo de salvaguardias contra las amenazas que plantean los sistemas como GPT-4. Pero más allá del problema de la seguridad, está el elefante en la habitación llamado Microsoft.
GPT-4 es de pago, tanto si se usa a través de la API como de ChatGPT. Sin embargo, se puede probar gratis a través de Bing (el chat de Bing funciona sobre una versión previa del modelo). El acuerdo de 10.000 millones de dólares entre Microsoft y OpenAI ha puesto a Microsoft a la cabeza de la industria, haciendo temblar a Google cada vez que algo parecido a ChatGPT se integra en Bing, Edge, Outlook, Word, Excel, PowerPoint…
Atrás quedaron los tiempos en los que se decía que lanzar un modelo de IA demasiado rápido podría ser peligroso. Todo el mundo quiere tener el suyo integrado en la mayor cantidad de servicios posibles. Hasta Mark Zuckerberg ha dejado de hablar del metaverso para entrar en la carrera armamentista de la IA. Y la propia Microsoft se quitó la careta cerrando su departamento encargado de la ética de la IA para poner las herramientas de OpenAI en manos de sus clientes a la mayor velocidad posible.
Es esta velocidad de despliegue e iteración, planeada desde hace meses, la que tiene revolucionada la industria, la que ha puesto contra las cuerdas a Google (que paradójicamente inventó los modelos Transformer como GPT-4). Al final ocurrió lo que decía Elon Musk: OpenAI contrarrestó a Google. Pero no de forma abierta. Si acaso… en una guerra abierta.