¡¿Qué carajo?! ChatGPT comenzó a fallar anoche y la gente perdió la cabeza. Algunos lo llaman la «singularidad». Otros piensan que es un elaborado engaño colectivo en el que incluso OpenAI está involucrado. Algunos piensan que el LLM tiene dificultades con las palabras a medida que se vuelve sensible. Mi conjetura: es solo una coma mal colocada en el código.
Es muy probable que cualquier software en desarrollo continuo experimente errores repentinos. Hace aproximadamente un año, Meta’s Alpaca comenzó a responder consultas con respuestas claramente falsas mientras insistiendo eran verdad. Los desarrolladores de modelos de lenguaje grande (LLM) como OpenAI se refieren a este fenómeno como una «alucinación».
Si vamos a seguir antropomorfizando los algoritmos LLM cuando ocurren fallas, anoche ChatGPT comenzó a experimentar demencia en toda regla. En algún momento antes de las 6:40 p.m. EST del 20 de febrero, los usuarios comenzaron a informar que las respuestas del chatbot OpenAI a las consultas se habían vuelto ininteligibles.
El comportamiento del bot varió ampliamente entre los usuarios. En múltiples casos, comenzó a hablar en spanglish, una combinación de inglés y español que se habla en muchos hogares latinos estadounidenses. Sin embargo, los usuarios que reportaron el comportamiento solo usaron inglés.
Aparentemente chatgpt se está descarrilando en este momento y nadie puede explicar por qué. pic.twitter.com/0XSSsTfLzP
– sean mcguire (@seanw_m) 21 de febrero de 2024
En otro ejemplo, ChatGPT respondió con la frase «Es, y es», repetida durante más de una página de texto. Alguien señaló que recordaba esa escena de El Resplandor de Stephen King donde el autor Jack Torrance comienza a perder la cabeza mientras trabaja en su novela y escribe el proverbio: «Todo trabajo y nada de juego hace de Jack un niño aburrido» página tras página. La única diferencia es que en un momento ChatGPT insertó la frase modificada «Lo es, y siempre lo es», pero solo una vez, lo que lo convierte en una rareza curiosa.
OpenAI se dio cuenta del problema y comenzó una investigación. Informó que identificó el problema y estaba trabajando para solucionarlo. La última actualización de estado del desarrollador, anoche a las 8 pm EST, decía que estaba «monitoreando la situación». La empresa informó que los sistemas estaban en pleno funcionamiento justo antes de la publicación y cerrado el caso.
OpenAI no ha proporcionado ningún comentario ni explicación sobre el extraño comportamiento, pero eso no ha impedido que el Internet colectivo siga especulando desenfrenadamente. La mayoría de las reacciones del público son medio bromas, pero detrás de cada broma hay una pizca de verdad.
«¿Quién iba a saber que la primera evidencia de AGI [atificial general intellegence] ¿Sería Spanglish emergente?» lee uno Pío.
¿Qué sabe chatgpt sobre el hexágono de Saturno que nosotros no? pic.twitter.com/4ckuNiMbPI
– yugamald (@yugamald) 21 de febrero de 2024
«Está rompiendo la singularidad. Tengo mucho miedo», dijo otro usuario. referente al concepto de un momento en el que la inteligencia artificial progresa más allá del control humano. Esto daría mucho miedo, pero teniendo en cuenta que los chatbots, incluso aquellos tan avanzados como ChatGPT, no son en realidad inteligencia artificial, no tenemos nada de qué preocuparnos.
Otros se muestran escépticos con respecto a quienes publican respuestas absurdas de ChatGPT, alegando que los usuarios están causando el caos con sus mensajes, que no se muestran en algunas publicaciones.
«Tú provocaste esa respuesta. Esfuérzate más», dijo una persona. acusado.
«¿Por qué no publican toda la conversación desde el principio (incluidas las instrucciones personalizadas) en lugar de solo las partes en las que la IA parece volverse rara? Eso es», dijo. otro.
Sin embargo, el comentarista que parece haberse ganado el hilo X, con más de 12.000 me gusta y 305 retweets, considera que todo es hilarantemente 420:
A veces, un tweet te llega con la cantidad exacta y perfecta de nivel alto.
– Hormezeâ¤ï¸Â�»ï¿½ðÂ¥² (@hormeze) 21 de febrero de 2024