Antes de que podamos comprender los peligros y las preocupaciones de seguridad que plantean ChatGPT y otros chatbots similares, debemos comprender cómo funcionan en un nivel básico. ChatGPT es un tipo de IA llamado LLM, lo que significa que fue entrenado en grandes cantidades de texto, desde libros hasta artículos académicos, contenido de Internet y todo lo demás. Analiza estas fuentes en busca de patrones y, cuando escribe un mensaje, crea una respuesta basada en probabilidades estadísticas derivadas de sus datos de entrenamiento.
Por ejemplo, si preguntas «¿Cuánto es 2+2?» ChatGPT no sabe matemáticas como la mayoría de los humanos. En cambio, se basa en los patrones que se observan durante el entrenamiento. Dado que con frecuencia ha detectado ecuaciones como «2+2=4» en sus datos, es muy probable que responda con «4». Sin embargo, como ese no es siempre el caso, a veces le dirá que 2+2 es igual al estado de Utah, o algo similar, inescrutablemente erróneo (o algún otro espeluznante cosa).
Lejos de ser capaces de razonar humanamente, ChatGPT y chatbots similares simplemente escriben una palabra a la vez, cada una basándose en la probabilidad estadística de la anterior. Por lo general, esto funciona bastante bien, pero significa que los LLM también se equivocarán con bastante frecuencia y la IA probablemente no notará la diferencia.
Por supuesto, hay mucho más sobre cómo funciona la IA, pero esperamos que esta descripción general le ayude a comprenderlo.