Una investigacion informe de Bloomberg pinta un panorama inquietante de las dificultades de Twitch para moderar la plataforma de transmisión en vivo, especialmente su función Clips, que permite a los usuarios conservar videos cortos. El medio informa que, después de analizar alrededor de 1.100 clips, encontró al menos 83 con contenido sexualizado que involucraba a niños. Twitch eliminó los videos después de recibir la alerta, y un portavoz de la compañía le escribió a Engadget en un correo electrónico que desde entonces ha «invertido mucho en herramientas de aplicación de la ley y medidas preventivas, y continuará haciéndolo».
Bloomberg Destacó un incidente que ejemplificó el problema con la naturaleza permanente de Clips en la plataforma, que de otro modo sería transitoria. Cuenta la inquietante historia de un niño de 12 años que utilizó Twitch la primavera pasada «para comer un sándwich y tocar la trompa». Pronto comenzó a aceptar solicitudes de los espectadores, lo que (en un triste reflejo del comportamiento en línea) de alguna manera llevó al niño a bajarse los pantalones.
El medio describe que el incidente terminó «en un instante». Aún así, la función de grabación de Clips permitió a un espectador, que supuestamente siguió más de cien cuentas pertenecientes a niños, conservarlo. Esto supuestamente generó más de 130 vistas del clip de 20 segundos antes de que Twitch fuera notificado y eliminado.
clips lanzado en 2016 como una forma de preservar momentos que de otro modo serían efímeros en la plataforma. La función graba 25 segundos antes (y cinco segundos después) de tocar el botón de grabación. Esto tiene el desafortunado efecto secundario de permitir que los depredadores salven un momento preocupante y lo distribuyan en otros lugares.
Twitch ha planeado expandir Clips este año como parte de una estrategia para producir más contenido similar a TikTok en la plataforma. Planea lanzar un feed de descubrimiento (también similar a TikTok) donde los usuarios pueden publicar sus videos cortos.
BloombergEl informe cita al Centro Canadiense para la Protección Infantil, que revisó los 83 vídeos de explotación y concluyó que 34 mostraban a usuarios jóvenes mostrando sus genitales ante la cámara. La mayoría eran supuestamente niños de entre cinco y 12 años. Otros 49 clips incluían contenido sexualizado en el que aparecían menores «exponiendo partes del cuerpo o siendo sometidos a esfuerzos de acicalamiento».
La organización dijo que los 34 vídeos “más atroces” fueron vistos 2.700 veces. El resto sumó 7.300 visitas.
La respuesta de Twitch
«El daño a los jóvenes, en cualquier lugar en línea, es inaceptable y nos tomamos este problema muy en serio», escribió un portavoz de Twitch a Engadget. En respuesta a la alerta sobre material de abuso sexual infantil (CSAM), la compañía dice que ha desarrollado nuevos modelos para detectar posibles comportamientos de acoso y está actualizando sus herramientas existentes para identificar y eliminar de manera más efectiva a los usuarios prohibidos que intentan crear nuevas cuentas (incluso para jóvenes). cuestiones relacionadas con la seguridad).
Twitch agrega que ha intensificado la aplicación de las transmisiones en vivo por parte de sus equipos de seguridad, la raíz de Clips. «Esto significa que cuando desactivamos una transmisión en vivo que contiene contenido dañino y suspendemos el canal, porque los clips se crean a partir de transmisiones en vivo, estamos evitando la creación y difusión de clips dañinos en la fuente», escribió la compañía. «Es importante destacar que también hemos trabajado para garantizar que cuando eliminamos y desactivamos clips que violan nuestras pautas comunitarias, esos clips no estén disponibles a través de dominios públicos u otros enlaces directos».
«También reconocemos que, lamentablemente, los daños en línea evolucionan», continuó el portavoz. «Mejoramos las pautas que utilizan nuestros equipos de seguridad internos para identificar algunos de esos daños que evolucionan en línea, como el material de abuso sexual infantil (CSAM) generado por IA». Twitch agregó que ha ampliado la lista de organizaciones externas con las que trabaja para (con suerte) eliminar cualquier contenido similar en el futuro.
Los problemas de moderación de Twitch
Bloomberg informa que Clips ha sido una de las secciones menos moderadas en Twitch. También señala que la compañía despidió al 15 por ciento de su equipo interno de confianza y seguridad en abril de 2023 (parte de un Año desgarrador en despidos tecnológicos) y se ha vuelto más dependiente de socios externos para aplastar el contenido CSAM.
La plataforma de Twitch centrada en la transmisión en vivo la convierte en un desafío de moderación más complicado que los sitios de videos más tradicionales como YouTube o Instagram. Esas plataformas pueden comparar videos subidos con hashes: huellas digitales que pueden detectar archivos problemáticos previamente conocidos publicados en línea. «La tecnología hash busca algo que coincida con algo visto anteriormente», dijo a Bloomberg Lauren Coffren del Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados. «La transmisión en vivo significa que es completamente nueva».