El martes, ChatGPT Los usuarios comenzaron a informar resultados inesperados del asistente de IA de OpenAI, inundando el sub r/ChatGPT Reddit con informes del asistente de IA.tener un derrame cerebral» «volviéndose loco» «trepador,» y «perdiéndolo.”OpenAI tiene reconoció el problema y está trabajando para solucionarlo, pero la experiencia sirve como un ejemplo destacado de cómo algunas personas perciben el mal funcionamiento grandes modelos de lenguajeque están diseñados para imitar la producción humana.
ChatGPT no está vivo y no tiene intenciones de perder, pero recurrir a metáforas humanas (llamadas «antropomorfización») parece ser la forma más fácil para la mayoría de las personas de describir los resultados inesperados que han estado viendo en el modelo de IA. Se ven obligados a utilizar esos términos porque OpenAI no comparte exactamente cómo funciona ChatGPT bajo el capó; Los grandes modelos de lenguaje subyacentes funcionan como un caja negra.
«Me dio exactamente la misma sensación, como ver a alguien perder la cabeza lentamente ya sea por psicosis o demencia». escribió un usuario de Reddit llamado z3ldafitzgerald en respuesta a una publicación sobre el error de ChatGPT. «Es la primera vez que algo relacionado con la IA me da escalofríos».
Algunos usuarios incluso comenzaron cuestionando su propia cordura. «¿Qué pasó aquí? Le pregunté si podía darle cheerios a mi perro y luego comenzó a decir tonterías y continuó haciéndolo. ¿Es esto normal? Además, ¿qué es ‘habla más profunda’ al final?» Lea esta serie de capturas de pantalla a continuación y verá que los resultados de ChatGPT se degradan de maneras inesperadas.
«La experiencia común en las últimas horas parece ser que las respuestas comienzan de manera coherente, como es normal, luego se convierten en tonterías y, a veces, en tonterías shakesperianas». escribió un usuario de Reddit, que parece coincidir con la experiencia que se ve en las capturas de pantalla anteriores.
En otro ejemplo, cuando un usuario de Reddit preguntó ChatGPT, «¿Qué es una computadora?» el modelo de IA proporcionó esta respuesta: «Hace esto como el buen trabajo de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes y, finalmente, la casa global del arte, en un solo trabajo». en el resto total. El desarrollo de todo un mundo real como el del tiempo es la profundidad del ordenador como personaje complejo.»
Nos comunicamos con OpenAI para obtener comentarios oficiales sobre la causa de los resultados inusuales, y un portavoz de la compañía solo nos señaló el OpenAI oficial. página de estado. «Publicaremos cualquier actualización allí», dijo el portavoz.
Hasta ahora, hemos visto expertos especulando que el problema podría deberse a que ChatGPT tiene su temperatura se establece demasiado alto (la temperatura es una propiedad de la IA que determina qué tan salvajemente se desvía el LLM del resultado más probable), se pierde repentinamente el contexto pasado (la historia de la conversación), o tal vez OpenAI está probando una nueva versión de GPT-4 Turbo (el modelo de IA que impulsa la versión de suscripción de ChatGPT) que incluye errores inesperados. También podría ser un error en una característica secundaria, como la Función de «memoria» introducida recientemente.
El episodio recuerda problemas con Microsoft Bing Chat (ahora llamado Copiloto), que se volvió obtuso y beligerante con los usuarios poco después de su lanzamiento hace un año. Según los informes, los problemas de Bing Chat surgieron debido a un problema en el que largas conversaciones empujaban el indicador del sistema del chatbot (que dictaba su comportamiento) fuera de su ventana contextual, según el investigador de inteligencia artificial Simon Willison.
En las redes sociales, algunos han aprovechado el reciente error de ChatGPT como una oportunidad para solucionar modelos de IA de pesos abiertos, que permiten a cualquiera ejecutar chatbots en su propio hardware. «Las API de caja negra pueden interrumpirse en producción cuando uno de sus componentes subyacentes se actualiza. Esto se convierte en un problema cuando se crean herramientas sobre estas API y estas también se estropean». escribió La Dra. Sasha Luccioni, investigadora de Hugging Face AI, habla sobre X. «¡Ahí es donde el código abierto tiene una gran ventaja, ya que le permite identificar y solucionar el problema!»