Meta ha comenzado a ocultar contenido sensible a adolescentes menores de 18 años en Facebook e Instagram, una empresa Blog anunciado el martes.
A partir de ahora, Meta comenzará a eliminar contenido de feeds e Historias sobre temas delicados que expertos en desarrollo adolescente, psicología y salud mental hayan señalado como perjudiciales para los adolescentes. Esto incluye contenido sobre autolesiones, suicidio y trastornos alimentarios, así como contenido que habla sobre productos restringidos o muestra desnudez.
Incluso si amigos o cuentas que siguen los adolescentes comparten contenido confidencial, el adolescente no podrá verlo, confirmó Meta.
A cualquier adolescente que busque contenido sensible se le pedirá que se comunique con un amigo o consulte «organizaciones expertas como la Alianza Nacional sobre Enfermedades Mentales», dijo Meta.
Además de ocultar más contenido a los adolescentes, Meta también ha anunciado que en las próximas semanas bloqueará a todos los usuarios de sus aplicaciones para que no puedan buscar una gama más amplia de términos sensibles «que intrínsecamente infringen» las reglas de Meta. Meta no especificó qué nuevos términos podrían bloquearse, pero señaló que ya estaba ocultando resultados de términos de búsqueda de suicidio y autolesión.
Un portavoz de Meta le dijo a Ars que la compañía no puede «compartir una lista más completa de esos términos ya que no queremos que la gente pueda evitarlos o desarrollar soluciones alternativas».
Además de limitar el acceso de los adolescentes al contenido, Meta está «enviando nuevas notificaciones animando a los» adolescentes «a actualizar su configuración a una experiencia más privada con un solo toque». Los adolescentes que opten por la «configuración recomendada» de Meta disfrutarán de más privacidad en Facebook e Instagram, restringiendo etiquetas, menciones o publicaciones no deseadas de su contenido solo a seguidores aprobados. Los adolescentes que opten por participar también se evitarán ver algunos comentarios «ofensivos». Quizás lo más importante es que la configuración recomendada «garantizará que sólo sus seguidores puedan enviarles mensajes».
Meta dijo que anteriormente, cualquier nuevo adolescente que se uniera a Facebook o Instagram tenía por defecto «las configuraciones más restrictivas», pero ahora Meta está ampliando ese esfuerzo a «adolescentes que ya están usando estas aplicaciones». Estas configuraciones restrictivas, dijo Meta, evitarán que los adolescentes se topen con contenido confidencial.
El año pasado, 41 estados demandaron a Meta por niños supuestamente adictos a Facebook e Instagram. Los estados acusaron a Meta de diseñar intencionalmente sus aplicaciones para que no fueran seguras para los usuarios jóvenes. La fiscal general de Massachusetts, Andrea Joy Campbell, llegó incluso a alegar que Meta explotó «deliberadamente» «las vulnerabilidades de los usuarios jóvenes con fines de lucro».
En ese momento, Meta dijo que estaba decepcionado de que, en lugar de trabajar productivamente con empresas de toda la industria para crear estándares claros y apropiados para la edad de las muchas aplicaciones que usan los adolescentes, los fiscales generales estatales decidieran emprender acciones legales.
Los expertos consideraron que el esfuerzo de los estados para responsabilizar a Meta por sus elecciones de diseño supuestamente dañinas es el esfuerzo más significativo hasta el momento. Esto siguió al inquietante testimonio de un denunciante, el ex empleado de Meta Arturo Béjar, quien dijo un subcomité del Senado de EE. UU. en noviembre que «Meta continúa tergiversando públicamente el nivel y la frecuencia del daño que los usuarios, especialmente los niños, experimentan en la plataforma».
Bejar afirmó que Meta podría fácilmente hacer que sus aplicaciones fueran más seguras para los niños, «si estuvieran motivados para hacerlo». También brindó recomendaciones a los reguladores, incluida la sugerencia de nuevas leyes que exijan que las plataformas de redes sociales desarrollen formas para que los adolescentes denuncien contenido que les cause malestar.
Ese cambio de política, dijo Bejar, «generaría datos extensos sobre la experiencia del usuario, que luego deberían informarse al público de manera regular y rutinaria, probablemente junto con datos financieros». Bejar dijo que «si tales sistemas se diseñan adecuadamente, podemos mejorar radicalmente la experiencia de nuestros niños en las redes sociales» sin «eliminar la alegría y el valor que obtienen al utilizar dichos servicios».
Sin embargo, el escrutinio legal intensificado sobre Meta no se limita sólo a Estados Unidos. En la Unión Europea, Meta también ha sido preguntó para informar a los reguladores sobre cómo diseña aplicaciones para proteger a los niños de contenido potencialmente dañino.
Es posible que la investigación de la UE haya provocado las actualizaciones de Meta esta semana.
Meta dijo que espera que todos estos cambios estén «plenamente implementados en Instagram y Facebook en los próximos meses».
Sin embargo, incluso con estas actualizaciones, Bejar dijo el martes que Meta todavía no estaba haciendo lo suficiente para proteger a los adolescentes. Bejar señaló que las plataformas de Meta todavía carecen de una forma significativa para que los adolescentes denuncien avances no deseados. Reuters informó.