La seguridad de los niños en línea necesita un reinicio drástico, no sólo a los ojos de muchos padres, sino también a los ojos de los gobiernos, los reguladores y los jóvenes que han tenido experiencias negativas al usar las redes sociales.
En Estados Unidos, el presidente Joe Biden ha pedido restricciones más estrictas a las empresas de redes sociales, y el proyecto de ley sobre seguridad infantil en línea ha ido ganando terreno en el Senado. Pero Estados Unidos todavía está un paso por detrás del Reino Unido, que anunció el miércoles un nuevo borrador de reglas que obligará a las empresas de tecnología a tomar nuevas medidas para mantener a los niños seguros o correr el riesgo de multas o prohibiciones. El regulador Ofcom describió 40 pasos prácticos bajo el Ley de seguridad en línea que las empresas de redes sociales tendrán que seguir para mantener a los niños seguros en sus plataformas.
Las nuevas reglas tienen dos aspectos. En primer lugar, exigirán que las empresas de tecnología que puedan tener niños usando sus plataformas apliquen una verificación de edad más estricta para evitar que los jóvenes accedan a contenido inapropiado para su edad. En segundo lugar, deben mejorar la moderación y los «algoritmos tóxicos domesticados» filtrando o degradando el contenido, incluida la pornografía y las referencias a la autolesión, el suicidio y los trastornos alimentarios.
Las empresas tecnológicas que no cumplan las normas se enfrentarán a multas o incluso penas de cárcel para los ejecutivos. Si bien las reglas se aplicarán solo en el Reino Unido, Ofcom espera que la severidad de las sanciones haga que las personas en las juntas directivas y en las suites ejecutivas de las plataformas de redes sociales más grandes den prioridad a mantener a los niños seguros con más determinación que en el pasado. Si ese es el caso, cualquier cambio introducido por las plataformas podría tener efectos de gran alcance que impactarían a los usuarios jóvenes de las redes sociales en todo el mundo.
Las plataformas de redes sociales han enfrentado durante mucho tiempo acusaciones de que están contribuyendo a problemas de salud mental al no proteger a los niños de encontrar contenido dañino. En algunos casos, incluida la muerte de la adolescente británica Molly Russell, esto ha tenido consecuencias trágicas. Russell se suicidó en noviembre de 2017 a la edad de 14 años después de ver material extenso relacionado con la autolesión en Instagram y Pinterest. El forense de su caso concluyó que el contenido que Russell vio era responsable de su muerte y recomendó que los sitios de redes sociales introdujeran disposiciones más estrictas para proteger a los niños.
A lo largo de los años, las empresas de tecnología han intensificado sus esfuerzos de moderación e introducido nuevas funciones, herramientas y recursos educativos para mantener a los niños seguros. Pero, como muchos niños y padres saben muy bien, quedan muchos problemas por resolver. Los niños todavía están expuestos a contenidos que son perjudiciales para su bienestar y corren el riesgo de ser explotados por adultos que utilizan las mismas plataformas que ellos. No son sólo los adultos los que ya han tenido suficiente.
Al diseñar las nuevas reglas del Reino Unido, Ofcom consultó con más de 15.000 niños, dijo el director del grupo de seguridad en línea del regulador, Gill Whitehead. «Cuando hablamos con los niños y les preguntas, ‘¿qué quieres cambiar sobre el servicio de redes sociales?’ Te dicen que tienen muchas ideas», dijo. Son los comentarios de los niños los que han informado reglas, como tener el poder de rechazar automáticamente las invitaciones a chats grupales y poder decir que quieren ver menos tipos específicos de contenido en sus feeds.
Tras una consulta, Ofcom espera publicar su nuevo código de seguridad infantil dentro de un año. Según las nuevas reglas, las empresas de tecnología tendrán tres meses para evaluar el riesgo que representan para los niños e informarlo públicamente. También tendrán que ser transparentes sobre las medidas que están tomando para mitigar ese riesgo.
A medida que las reglas entren en vigor, Ofcom planea seguir consultando con los jóvenes, no sólo para ver si las medidas introducidas por las empresas de tecnología son efectivas, sino para identificar nuevas amenazas a medida que surjan. El regulador ya está planeando una nueva consulta sobre las amenazas que la IA generativa puede representar para los niños.
«Hoy hemos emitido una serie de mensajes sobre cómo se deben mejorar esos canales de denuncia a las empresas de tecnología», dijo Whitehead. «Pero, en última instancia, si cuando hablamos con los niños recibimos información de que esos canales de denuncia son ineficaces, entonces eso será parte del plan de acción que tenemos con las empresas más grandes y riesgosas sobre cómo van a lidiar». con ese.»