No escribas nada en GeminisGoogle familia de aplicaciones GenAIeso es incriminatorio, o no le gustaría que nadie más lo viera.
Ese es el anuncio de servicio público (más o menos) de hoy de Google, que en una nueva documento de apoyo describe las formas en que recopila datos de los usuarios de sus aplicaciones de chatbot Gemini para la web, Android e iOS.
Google señala que los anotadores humanos leen, etiquetan y procesan rutinariamente conversaciones con Gemini, aunque sean conversaciones «desconectadas» de las cuentas de Google, para mejorar el servicio. (No está claro si estos anotadores son internos o subcontratados, lo que podría importar cuando se trata de seguridad de datos; Google no lo dice). Estas conversaciones se conservan hasta por tres años, junto con «datos relacionados», como los idiomas y dispositivos que utilizó el usuario y su ubicación.
Ahora, Google ofrece a los usuarios alguno control sobre qué datos relevantes para Gemini se conservan y cómo.
Desactivar la actividad de aplicaciones Gemini en Google Mi actividad El panel de control (está habilitado de forma predeterminada) evita que futuras conversaciones con Gemini se guarden en una cuenta de Google para su revisión (lo que significa que no se aplicará la ventana de tres años). Mientras tanto, las indicaciones y conversaciones individuales con Gemini se pueden eliminar de la pantalla Actividad de aplicaciones de Gemini.
Pero Google dice que incluso cuando la actividad de las aplicaciones Gemini esté desactivada, las conversaciones de Gemini se guardarán en una cuenta de Google por hasta 72 horas para «mantener la seguridad de las aplicaciones Gemini y mejorarlas».
«No ingrese información confidencial en sus conversaciones ni ningún dato que no desee que vea un revisor o que Google utilice para mejorar nuestros productos, servicios y tecnologías de aprendizaje automático», escribe Google.
Para ser justos, las políticas de recopilación y retención de datos GenAI de Google no difieren mucho de las de sus rivales. OpenAI, por ejemplo, guarda todos los chats con ChatGPT durante 30 días, independientemente de si la función de historial de conversaciones de ChatGPT está desactivada, excepto en los casos en que un usuario esté suscrito a un plan de nivel empresarial con una política de retención de datos personalizada.
Pero la política de Google ilustra los desafíos inherentes a equilibrar la privacidad con el desarrollo de modelos GenAI que se alimentan de los datos del usuario para mejorarse a sí mismos.
Las políticas liberales de retención de datos de GenAI han puesto a los proveedores en problemas con los reguladores en el pasado reciente.
El verano pasado, la FTC solicitado información detallada de OpenAI sobre cómo la empresa examina los datos utilizados para entrenar sus modelos, incluidos los datos de los consumidores, y cómo se protegen esos datos cuando acceden a ellos terceros. En el extranjero, el regulador de privacidad de datos de Italia, la Autoridad Italiana de Protección de Datos, dicho que OpenAI carecía de una “base legal” para la recopilación y el almacenamiento masivo de datos personales para entrenar sus modelos GenAI.
A medida que proliferan las herramientas GenAI, las organizaciones se vuelven cada vez más cautelosas ante los riesgos a la privacidad.
Un reciente encuesta de Cisco descubrió que el 63% de las empresas han establecido limitaciones sobre qué datos se pueden ingresar en las herramientas GenAI, mientras que el 27% ha prohibido GenAI por completo. La misma encuesta reveló que el 45% de los empleados han ingresado datos «problemáticos» en las herramientas GenAI, incluida información de los empleados y archivos no públicos sobre su empleador.
OpenAI, Microsoft, Amazon, Google y otros ofrecen productos GenAI dirigidos a empresas que explícitamente no conservar los datos durante cualquier período de tiempo, ya sea para entrenamiento de modelos o cualquier otro propósito. Sin embargo, los consumidores, como suele ser el caso, se llevan la peor parte.