Palma de la cara: Para las organizaciones, el espectro de que se utilicen datos internos para entrenar modelos de IA plantea serias preocupaciones en torno a la seguridad y el cumplimiento. Pero aparentemente Slack todavía ha estado absorbiendo mensajes, archivos y datos para entrenar sus funciones de inteligencia artificial detrás de escena. Peor aún, los usuarios aceptaron automáticamente este acuerdo sin conocimiento ni consentimiento.
La revelación, que estalló en línea esta semana después de que un usuario lo denunciara en X/Twitter, ha molestado a mucha gente. Flojo No lo dejó más claro desde el principio. Corey Quinn, un ejecutivo de Duckbill Group, desató el escándalo con una publicación enojada que preguntaba: «Lo siento, Slack, ¿estás haciendo QUÉ con los mensajes directos, mensajes, archivos, etc. de los usuarios?».
Quinn se refería a un extracto de Principios de privacidad de Slack que dice: «Para desarrollar modelos de IA/ML, nuestros sistemas analizan los datos del cliente (por ejemplo, mensajes, contenido y archivos) enviados a Slack, así como otra información (incluida la información de uso) como se define en nuestra Política de privacidad y en su acuerdo con el cliente. «
Slack respondió rápidamente en la misma publicación, confirmando que efectivamente está utilizando el contenido del cliente para capacitar. ciertas herramientas de inteligencia artificial en la aplicación. Pero trazó una línea: esos datos no se destinan a su oferta premium de IA, que consideran completamente aislada de la información del usuario.
¡Hola desde Slack! Para aclarar, Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda. Y sí, los clientes pueden excluir sus datos para ayudar a entrenar esos modelos de aprendizaje automático (no generativos). Los datos del cliente pertenecen a…
– Holgura (@SlackHQ) 17 de mayo de 2024
Aún así, la mayoría fue tomada por sorpresa por las principales funciones de inteligencia artificial de Slack, que dependen de un acceso abierto a las conversaciones y archivos privados de todos. Varios usuarios argumentaron que debería haber habido avisos destacados, permitiendo a las personas optar por no participar antes de que comenzara la recopilación de datos.
El proceso de exclusión voluntaria en sí también es complicado. Los individuos no pueden optar por no participar por sí solos; necesitan un administrador para toda la organización para solicitarlo enviando un correo electrónico con una línea de asunto muy específica, que puede encontrar en la publicación anterior.
Algunos pesos pesados intervinieron y acumularon críticas. Meredith Whittaker, presidenta del sector privado Señal aplicación de mensajería, arrojó algo de sombra, dicho «En primer lugar, no recopilamos sus datos, por lo que no tenemos nada que ‘extraer’ para la ‘IA'». Ay.
La reacción pone de relieve las crecientes tensiones en torno a la inteligencia artificial y la privacidad a medida que las empresas se apresuran a competir entre sí en el desarrollo de software más inteligente.
Las inconsistencias en las políticas de Slack tampoco ayudan. Una sección dice que la empresa no puede acceder al contenido subyacente cuando desarrolla modelos de IA. Otro página Las herramientas de inteligencia artificial generativa premium de marketing de Slack dicen: «Trabaja sin preocupaciones. Tus datos son tus datos. No los usamos para entrenar la inteligencia artificial de Slack. Todo se ejecuta en la infraestructura segura de Slack y cumple con los mismos estándares de cumplimiento que el propio Slack».
Sin embargo, la admisión de la extracción de datos de los usuarios dentro de los «principios de privacidad» parece contradecir estas afirmaciones.
En Threads, un ingeniero de Slack ha intentó Para aclarar las cosas, dijo que las reglas de privacidad fueron «escritas originalmente sobre el trabajo de búsqueda/recomendación que hemos estado haciendo durante años antes de Slack AI», admitiendo que necesitan una actualización.
Aún así, el problema más importante es obviamente el enfoque de aceptación predeterminada. Si bien es común en la tecnología, va en contra de los principios de privacidad de datos de dar a las personas opciones explícitas sobre cómo se utiliza su información.