A la Comisión Europea (CE) le preocupa que TikTok no esté haciendo lo suficiente para proteger a los niños, alegando que la aplicación de videos cortos puede estar enviando a los niños a madrigueras de contenido dañino al mismo tiempo que les facilita fingir ser adultos y evitar el filtros de contenido protectores que existen.
Las acusaciones se produjeron el lunes cuando la CE Anunciado una investigación formal sobre cómo TikTok puede estar infringiendo la Ley de Servicios Digitales (DSA) «en áreas vinculadas a la protección de menores, la transparencia publicitaria, el acceso a datos para investigadores, así como la gestión de riesgos de diseño adictivo y contenidos nocivos».
«No debemos escatimar esfuerzos para proteger a nuestros niños», afirmó en el comunicado de prensa Thierry Breton, comisario europeo de Mercado Interior, reiterando que la «protección de los menores es una de las principales prioridades de aplicación de la DSA».
Esto convierte a TikTok en la segunda plataforma investigada por posibles violaciones de DSA después X (también conocido como Twitter) fue criticado en diciembre pasado. Ambos están siendo examinados después de presentar informes de transparencia en septiembre que, según la CE, no cumplían con los estrictos estándares de la DSA en cosas predecibles como no proporcionar suficiente transparencia publicitaria o acceso a datos para los investigadores.
Pero si bien X también está siendo investigado por presuntos patrones oscuros y desinformación, tras las acusaciones del pasado mes de octubre de que X no estaba deteniendo la propagación de la desinformación entre Israel y Hamas—Es la base de usuarios jóvenes de TikTok la que parece ser el foco de la investigación de la CE sobre su plataforma.
«Como plataforma que llega a millones de niños y adolescentes, TikTok debe cumplir plenamente con la DSA y tiene un papel particular que desempeñar en la protección de los menores en línea», afirmó Breton. «Hoy iniciamos este procedimiento de infracción formal para garantizar que se tomen medidas proporcionadas para proteger el bienestar físico y emocional de los jóvenes europeos».
Probablemente en los próximos meses, la CE solicitará más información a TikTok, desmenuzando sus Informe de transparencia de DSA. La investigación podría requerir entrevistas con el personal de TikTok o inspecciones de las oficinas de TikTok.
Al concluir su investigación, la CE podría exigir a TikTok que tome medidas provisionales para solucionar cualquier problema que se señale. La Comisión también podría tomar una decisión sobre el incumplimiento, sometiendo potencialmente a TikTok a multas de hasta el 6 por ciento de su facturación global.
Un responsable de prensa de la CE, Thomas Regnier, dijo a Ars que la Comisión sospechaba que TikTok «no ha realizado diligentemente» evaluaciones de riesgos para mantener adecuadamente los esfuerzos de mitigación que protejan «el bienestar físico y mental de sus usuarios y los derechos del niño».
En particular, su algoritmo puede correr el riesgo de «estimular un comportamiento adictivo» y sus sistemas de recomendación «podrían arrastrar a sus usuarios, en particular a menores y usuarios vulnerables, a la llamada ‘madriguera’ de contenido dañino repetitivo», dijo Regnier a Ars. Además, el sistema de verificación de edad de TikTok puede ser deficiente, y la UE alega que TikTok tal vez «no evaluó diligentemente el riesgo de que los jóvenes de 13 a 17 años se hicieran pasar por adultos al acceder a TikTok», dijo Regnier.
Para proteger mejor a los usuarios jóvenes de TikTok, la investigación de la UE podría obligar a TikTok a actualizar su sistema de verificación de edad y revisar su configuración predeterminada de privacidad y seguridad para menores.
«En particular, la Comisión sospecha que la configuración predeterminada de los sistemas de recomendación de TikTok no garantiza un alto nivel de privacidad, seguridad y protección de los menores», dijo Regnier. «La Comisión también sospecha que la configuración de privacidad predeterminada que TikTok tiene para los jóvenes de 16 a 17 años no es la más alta por defecto, lo que no cumpliría con la DSA, y que las notificaciones push, por defecto, no están desactivadas para menores, lo que podría afectar negativamente a la seguridad de los niños».
TikTok podría evitar multas elevadas si se comprometiera a aplicar las soluciones recomendadas por la CE al concluir su investigación.
Regnier dijo a Ars que la CE no hace comentarios sobre las investigaciones en curso, pero su investigación sobre X ha durado tres meses hasta ahora. Debido a que la DSA no proporciona plazos que puedan acelerar este tipo de procedimientos de ejecución, en última instancia, la duración de ambas investigaciones dependerá de cuánto «coopere la empresa en cuestión», según el comunicado de prensa de la UE.
Un portavoz de TikTok dijo a Ars que TikTok «continuaría trabajando con expertos y la industria para mantener seguros a los jóvenes en su plataforma», confirmando que la compañía «esperaba explicar este trabajo en detalle a la Comisión Europea».
«TikTok ha sido pionero en funciones y configuraciones para proteger a los adolescentes y mantener a los menores de 13 años fuera de la plataforma, problemas con los que toda la industria está lidiando», dijo el portavoz de TikTok.
Todas las plataformas en línea ahora deben cumplir con la DSA, pero la aplicación de la ley en TikTok comenzó a fines de julio de 2023. A TikTok presione soltar En agosto pasado prometió que la plataforma «abrazaría» el DSA. Pero en su informe de transparencia, presentado el mes siguiente, TikTok reconoció que el informe sólo cubría «un mes de métricas» y podría no cumplir con los estándares de la DSA.
«Todavía tenemos más trabajo por hacer», decía el informe de TikTok, prometiendo que «estamos trabajando duro para abordar estos puntos antes de nuestro próximo informe de transparencia de DSA».