No deberías confiar en nadie respuestas que te envía un chatbot. Y probablemente no deberías confiarle a tu informacion personal cualquiera. Eso es especialmente cierto para “Novias AI” o “novios AI” según una nueva investigación.
Publicado un análisis de 11 chatbots de pareja y romance el miércoles por la Fundación Mozilla, ha encontrado una letanía de problemas de seguridad y privacidad con los bots. En conjunto, las aplicaciones, que se han descargado más de 100 millones de veces en dispositivos Android, recopilan enormes cantidades de datos de las personas; utilizar rastreadores que envían información a Google, Facebook y empresas de Rusia y China; permitir a los usuarios utilizar contraseñas débiles; y falta de transparencia sobre su propiedad y los modelos de IA que los impulsan.
Desde que se desató OpenAI ChatGPT En el mundo en noviembre de 2022, los desarrolladores se han apresurado a implementar grandes modelos de lenguaje y crear chatbots con los que las personas puedan interactuar y pagar para suscribirse. La investigación de Mozilla ofrece una idea de cómo esta fiebre del oro puede haber descuidado la privacidad de las personas y de las tensiones entre las tecnologías emergentes y la forma en que recopilan y utilizan datos. También indica cómo los piratas informáticos podrían abusar de los mensajes de chat de las personas.
Muchos servicios de “novias AI” o chatbots románticos tienen un aspecto similar. A menudo presentan imágenes de mujeres generadas por IA que pueden ser sexualizadas o acompañar mensajes provocativos. Los investigadores de Mozilla observaron una variedad de chatbots, incluidas aplicaciones grandes y pequeñas, algunas de las cuales pretenden ser «novias». Otros ofrecen apoyo a las personas a través de la amistad o la intimidad, o permiten juegos de roles y otras fantasías.
«Estas aplicaciones están diseñadas para recopilar una gran cantidad de información personal», dice Jen Caltrider, líder del proyecto del equipo Privacidad no incluida de Mozilla, que realizó el análisis. «Te empujan hacia los juegos de roles, mucho sexo, mucha intimidad, mucho compartir». Por ejemplo, las capturas de pantalla del chatbot EVA AI muestran un texto que dice «Me encanta cuando me envías tus fotos y tu voz» y pregunta si alguien está «listo para compartir todos tus secretos y deseos».
Caltrider dice que existen múltiples problemas con estas aplicaciones y sitios web. Es posible que muchas de las aplicaciones no tengan claro qué datos comparten con terceros, dónde se encuentran o quién los crea, dice Caltrider, y agrega que algunas permiten a las personas crear contraseñas débiles, mientras que otras brindan poca información sobre la IA que utilizan. usar. Todas las aplicaciones analizadas tenían diferentes casos de uso y debilidades.
Tomemos como ejemplo Romantic AI, un servicio que te permite «crear tu propia novia AI». Las imágenes promocionales en su página de inicio muestran un chatbot que envía un mensaje que dice: “Acabo de comprar lencería nueva. ¿Quiero verlo?» Los documentos de privacidad de la aplicación, según el Análisis de Mozilla, dicen que no venderá los datos de las personas. Sin embargo, cuando los investigadores probaron la aplicación, descubrieron que «enviaba 24.354 rastreadores de anuncios en un minuto de uso». Romantic AI, como la mayoría de las empresas destacadas en la investigación de Mozilla, no respondió a la solicitud de comentarios de WIRED. Otras aplicaciones monitoreadas tenían cientos de rastreadores.
En general, dice Caltrider, las aplicaciones no tienen claro qué datos pueden compartir o vender, o exactamente cómo usan parte de esa información. “La documentación legal era vaga, difícil de entender, no muy específica, una especie de material repetitivo”, dice Caltrider, y agrega que esto puede reducir la confianza que la gente debería tener en las empresas.