En una palabra: En la última invasión a la privacidad de los trabajadores, empresas como Walmart, T-Mobile, AstraZeneca y BT están recurriendo a una nueva herramienta de inteligencia artificial para monitorear las conversaciones que ocurren en los canales de colaboración y chat en Teams, Zoom, Slack y más.
Durante años, las empresas han monitoreado el contenido de los correos electrónicos de los empleados, configurando herramientas y reglas para verificar pasivamente lo que el personal se enviaba entre sí y al mundo. Sin embargo, este monitoreo se volverá significativamente más invasivo a medida que marcas reconocidas recurran a herramientas de inteligencia artificial para supervisar las conversaciones en servicios de colaboración y mensajería como Slack, Yammer y Workplace from Meta.
Aware, una startup de Columbus, Ohio, se presenta como una «plataforma de inteligencia contextual que identifica y mitiga riesgos, fortalece la seguridad y el cumplimiento y descubre información empresarial en tiempo real a partir de conversaciones digitales a escala». Esas «conversaciones digitales» son los chats que los trabajadores mantienen sobre aplicaciones de productividad y colaboración.
Esas «conversaciones digitales» son los chats que los trabajadores mantienen sobre aplicaciones de productividad y colaboración.
El producto estrella de la compañía tiene como objetivo monitorear el «sentimiento» y la «toxicidad» mediante el uso de capacidades de análisis y detección verbal y de imágenes para observar lo que la gente discute y sus sentimientos sobre diversos temas.
Si bien los datos son aparentemente anónimos, se pueden agregar etiquetas para roles laborales, edad, género, etc., lo que permite a la plataforma identificar si ciertos departamentos o datos demográficos están respondiendo más o menos positivamente a nuevas políticas o anuncios comerciales.
Sin embargo, las cosas empeoran con otra de sus herramientas, eDiscovery. Permite a las empresas nominar personas, como representantes de recursos humanos o altos directivos, que podrían identificar a personas específicas que violen las políticas de «riesgo extremo» definidas por la empresa. Estos «riesgos» pueden ser legítimos, como amenazas de violencia, intimidación o acoso, pero no es difícil imaginar que se le indique al software que señale riesgos menos genuinos.
En declaraciones a CNBC, el cofundador y director ejecutivo de Aware, Jeff Schuman, dijo: «Siempre rastrea el sentimiento de los empleados en tiempo real y siempre rastrea la toxicidad en tiempo real. Si fuera un banco que usara Aware y el sentimiento de la fuerza laboral se disparara en los últimos 20 minutos, es porque están hablando de algo positivo, colectivamente. La tecnología podría decirles lo que sea».
Si bien algunos pueden argumentar que no existe ningún derecho ni expectativa de privacidad en las aplicaciones de mensajería interna de ninguna empresa, la noticia del seguimiento analítico sin duda tendrá un efecto paralizador en el discurso de las personas. Existe una gran diferencia entre los métodos tradicionales de recopilación pasiva de datos y este nuevo monitoreo de IA en tiempo real.
Y aunque Aware se apresura a señalar que los datos de su producto son anónimos, esa afirmación es muy difícil de demostrar. La falta de nombres puede hacer que los datos sean semánticamente anónimos, pero a menudo no se necesitan más que un puñado de puntos de datos para reconstruir quién dijo qué. Estudios Desde hace décadas se ha demostrado que es posible identificar a las personas en conjuntos de datos «anónimos» utilizando muy poca información y muy básica.
Será intrigante ver las repercusiones cuando se produzcan los primeros despidos porque la IA determinó que el chat de Teams de un individuo representaba un «riesgo extremo».