Los documentos internos de Meta sobre seguridad infantil han sido revelados como parte de una demanda presentada por el Departamento de Justicia de Nuevo México contra Meta y su director ejecutivo, Mark Zuckerberg. Los documentos revelan que Meta no sólo comercializó intencionalmente sus plataformas de mensajería entre niños, sino que también conocía el enorme volumen de contenido inapropiado y sexualmente explícito que se comparte entre adultos y menores.
Los documentos, revelados el miércoles como parte de una denuncia enmendada, destacan múltiples casos en los que los empleados de Meta expresaron internamente su preocupación por la explotación de niños y adolescentes en las plataformas de mensajería privada de la empresa. Meta reconoció los riesgos que los mensajes directos de Messenger e Instagram representaban para los usuarios menores de edad, pero no priorizó la implementación de salvaguardias o bloqueó por completo las funciones de seguridad infantil porque no eran rentables.
En una declaración a TechCrunch, el fiscal general de Nuevo México, Raúl Torrez, dijo que Meta y Zuckerberg permitieron que los depredadores infantiles explotaran sexualmente a los niños. Recientemente expresó su preocupación por el hecho de que Meta permita la protección de cifrado de extremo a extremo para Messenger, lo que comenzó a implementarse el mes pasado. En una presentación separada, Torrez señaló que Meta no abordó la explotación infantil en su plataforma y que el cifrado sin las salvaguardias adecuadas pondría aún más en peligro a los menores.
“Durante años, los empleados de Meta intentaron hacer sonar la alarma sobre cómo las decisiones tomadas por los ejecutivos de Meta sometían a los niños a solicitaciones peligrosas y explotación infantil”, continuó Torrez. “Los ejecutivos de Meta, incluido el Sr. Zuckerberg, constantemente tomaron decisiones que anteponían el crecimiento a la seguridad de los niños. Si bien la compañía continúa restando importancia a la actividad ilegal y dañina a la que los niños están expuestos en sus plataformas, los datos internos y las presentaciones de Meta muestran que el problema es grave y generalizado”.
La demanda, presentada originalmente en diciembre, alega que las plataformas Meta como Instagram y Facebook se han convertido en «un mercado para depredadores en busca de niños de quienes aprovecharse», y que Meta no eliminó muchas instancias de material de abuso sexual infantil (CSAM, por sus siglas en inglés) después de que fueron reportados en Instagram y Facebook. Al crear cuentas señuelo que supuestamente tenían 14 años o menos, el Departamento de Justicia de Nuevo México dijo que los algoritmos de Meta detectaron CSAM, así como cuentas que facilitaban la compra y venta de CSAM. De acuerdo a un presione soltar Sobre la demanda, «cierto contenido de explotación infantil es diez veces más frecuente en Facebook e Instagram que en Pornhub y Onlyfans».
Los documentos abiertos muestran que Meta intentó intencionalmente reclutar niños y adolescentes para Messenger, limitando las funciones de seguridad en el proceso. Una presentación de 2016, por ejemplo, planteó preocupaciones sobre la menguante popularidad de la compañía entre los adolescentes, que pasaban más tiempo en Snapchat y YouTube que en Facebook, y esbozó un plan para «ganarse» a nuevos usuarios adolescentes. Un correo electrónico interno de 2017 señala que un ejecutivo de Facebook se opuso a escanear Messenger en busca de «contenido dañino», porque sería una «desventaja competitiva frente a otras aplicaciones que podrían ofrecer más privacidad».
El hecho de que Meta supiera que sus servicios eran tan populares entre los niños hace que su fracaso en proteger a los usuarios jóvenes contra la explotación sexual sea «aún más atroz», afirman los documentos. Una presentación de 2020 señala que el “final del juego” de la compañía era “convertirse en la principal aplicación de mensajería para niños en los EE. UU. para 2022”. También destacó la popularidad de Messenger entre los niños de 6 a 10 años.
El reconocimiento por parte de Meta de los problemas de seguridad infantil en su plataforma es particularmente condenatorio. Una presentación interna de 2021, por ejemplo, estimó que 100.000 niños por día eran acosados sexualmente en las plataformas de mensajería de Meta y recibían contenido sexual explícito, como fotografías de genitales de adultos. En 2020, los empleados de Meta se preocuparon por la posible eliminación de la plataforma de la App Store después de que un ejecutivo de Apple se quejara de que su hijo de 12 años había sido solicitado en Instagram.
«Este es el tipo de cosas que cabrea a Apple», afirma un documento interno. Los empleados también cuestionaron si Meta tenía un cronograma para impedir que «los adultos envíen mensajes a menores en IG Direct».
Otro documento interno de 2020 reveló que las salvaguardas implementadas en Facebook, como evitar que adultos «desconectados» enviaran mensajes a menores, no existían en Instagram. La implementación de las mismas salvaguardas en Instagram “no fue una prioridad”. Meta consideró que permitir que familiares adultos se acercaran a los niños en Instagram Direct era una “gran apuesta de crecimiento”, lo que un empleado de Meta criticó como una razón “poco convincente” para no establecer medidas de seguridad. El empleado también señaló que el acoso se producía el doble en Instagram que en Facebook.
Meta abordó el Grooming en otra presentación sobre seguridad infantil en marzo de 2021, en la que afirmó que su “medición, detección y salvaguardias” eran “más maduras” en Facebook y Messenger que en Instagram. La presentación señaló que Meta «invirtió poco en la sexualización de menores en IG», particularmente en los comentarios sexuales dejados en las publicaciones de creadores menores, y describió el problema como una «experiencia terrible para los creadores y espectadores».
Meta ha enfrentado durante mucho tiempo el escrutinio por no haber moderado adecuadamente el CSAM. Las grandes plataformas de redes sociales con sede en EE. UU. están obligadas por ley a informar casos de CSAM al CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Según el NCMEC datos publicados más recientemente A partir de 2022, Facebook presentó alrededor de 21 millones de informes de CSAM, lo que representa aproximadamente el 66% de todos los informes enviados a CyberTipline ese año. Al incluir los informes de Instagram (5 millones) y WhatsApp (1 millón), las metaplataformas son responsables de aproximadamente el 85% de todos los informes realizados al NCMEC.
Esta cifra desproporcionada podría explicarse por la base abrumadoramente grande de usuarios de Meta, que constituye más de 3 mil millones usuarios activos diarios, pero en respuesta a muchas investigaciones, líderes internacionales han argumentado que Meta no está haciendo lo suficiente para mitigar estos millones de informes. En junio, Meta dijo al Wall Street Journal que había desmantelado 27 redes de pedófilos en los últimos dos años, pero los investigadores aún pudieron descubrir numerosas cuentas interconectadas que compran, venden y distribuyen CSAM. En los cinco meses posteriores al informe del Journal, se descubrió que los algoritmos de recomendación de Meta seguían sirviendo a CSAM; Aunque Meta eliminó ciertos hashtags, aparecieron otros hashtags pedófilos en su lugar.
Mientras tanto, Meta se enfrenta otra demanda de 42 fiscales generales estatales de EE. UU. sobre el impacto de las plataformas en la salud mental de los niños.
«Vemos que Meta sabe que millones de niños menores de 13 años utilizan sus plataformas de redes sociales y recopilan ilegalmente su información personal», afirmó el fiscal general de California, Rob Bonta. dijo a TechCrunch en noviembre. «Muestra esa práctica común en la que Meta dice una cosa en sus comentarios públicos al Congreso y otros reguladores, mientras que internamente dice algo más».