Edgar Cervantes / Autoridad Android
TL;DR
- Un informe sugiere que ChatGPT ha estado filtrando conversaciones privadas a personas no relacionadas.
- Estas conversaciones incluyen muchos detalles confidenciales, como nombres de usuario y contraseñas, trabajos inéditos y más.
- OpenAI está investigando el informe.
ChatGPT se ha convertido en una parte importante de nuestro flujo de trabajo y, a menudo, reemplaza incluso la Búsqueda de Google para muchas consultas. Muchos de nosotros lo usamos para consultas más simples, pero con la ayuda de Complementos de ChatGPT y Extensiones ChatGPT, puedes utilizar la IA para tareas más complejas. Pero le recomendamos tener cuidado con el uso de ChatGPT y los datos que comparte con él, ya que los usuarios han informado que ChatGPT ha filtrado algunas conversaciones privadas.
Según un informe de ArsTechnica, citando capturas de pantalla enviadas por uno de sus lectores, ChatGPT está filtrando conversaciones privadas, incluidos detalles como nombres de usuario y contraseñas. El lector había utilizado ChatGPT para una consulta no relacionada y curiosamente detectó conversaciones adicionales presentes en su historial de chat que no le pertenecían.
Estas conversaciones externas incluyeron varios detalles. Una serie de conversaciones fueron las de alguien que intentaba solucionar problemas a través de un sistema de soporte utilizado por los empleados de un portal de medicamentos recetados de una farmacia, e incluía el nombre de la aplicación que el extraño estaba intentando solucionar, el número de la tienda donde ocurrió el problema y credenciales de inicio de sesión adicionales.
Otra conversación filtrada incluía el nombre de la presentación en la que alguien estaba trabajando junto con detalles de una propuesta de investigación inédita.
Esta no es la primera vez que ChatGPT filtra información. ArsTechnica señala que ChatGPT tuvo un error en marzo de 2023 que filtró títulos de chat, mientras que en noviembre de 2023, los investigadores pudieron utilizar consultas para incitar al robot de IA a divulgar una gran cantidad de datos privados utilizados en la capacitación del LLM.
OpenAI mencionó a ArsTechnica que la empresa estaba investigando el informe. Independientemente de los resultados de las investigaciones, desaconsejamos compartir información confidencial con un bot de IA, especialmente uno que usted no haya creado.