El Consejo Asesor de Seguridad Meta tiene Escrito la compañía una carta sobre sus preocupaciones con su Cambios de política recientesincluida su decisión de suspender su programa de verificación de hechos. En él, el consejo dijo que el cambio de política de Meta «corre el riesgo de priorizar las ideologías políticas sobre los imperativos de seguridad mundial». Destaca cómo la posición de Meta como una de las compañías más influyentes del mundo le da el poder de influir no solo en el comportamiento en línea, sino también las normas sociales. La compañía corre el riesgo de «normalizar los comportamientos dañinos y socavar años de progreso social … al marcar las protecciones para las comunidades protegidas», dice la carta.
Facebook Centro de ayuda Describe el Consejo Asesor de Seguridad Meta como un grupo de «organizaciones y expertos independientes de seguridad en línea» de varios países. La compañía lo formó en 2009 y consulta con sus miembros sobre temas que giran en torno a la seguridad pública.
El CEO de Meta, Mark Zuckerberg, anunció el cambio masivo en el enfoque de la compañía para la moderación y el habla a principios de este año. Además de revelar que Meta está terminando su programa de verificación de datos de terceros e implementando notas comunitarias de estilo X: algo, Lina Yaccarino de X había aplaudido, él también dicho que la compañía está matando «un montón de restricciones sobre temas como la inmigración y el género que están fuera de contacto con el discurso convencional». Poco después de su anuncio, Meta cambió su Política de conducta de odio «Permitir acusaciones de enfermedad mental o anormalidad cuando se basa en el género o la orientación sexual». También eliminó una política que prohíbe a los usuarios referirse a las mujeres como objetos o propiedades domésticos y llamar a personas transgénero o no binarias como «TI».
El consejo dice que elogia los «esfuerzos continuos de Meta para abordar los daños más atroces e ilegales» en sus plataformas, pero también enfatizó que abordar el «odio continuo contra las personas o las comunidades» debería seguir siendo una prioridad para Meta, ya que tiene efectos de dominio que van a la luz. más allá de sus aplicaciones y sitios web. Y dado que los grupos marginados, como las mujeres, las comunidades LGBTQIA+ e inmigrantes, están dirigidos desproporcionadamente en línea, los cambios de política de Meta podrían quitarle lo que les hiciera sentir seguros e incluidos en las plataformas de la compañía.
Volviendo a la decisión de Meta de poner fin a su programa de verificación de hechos, el consejo explicó que, si bien las herramientas de origen público como las notas comunitarias pueden abordar la información errónea, los investigadores independientes han expresado preocupaciones sobre su efectividad. Uno informe El año pasado mostró que las publicaciones con información electoral falsa sobre X, por ejemplo, no mostraron correcciones propuestas de notas comunitarias. Incluso acumularon miles de millones de puntos de vista. «La verificación de hechos sirve como una salvaguardia vital, particularmente en regiones del mundo donde la información errónea alimenta el daño fuera de línea y a medida que la adopción de IA crece en todo el mundo», escribió el consejo. «Meta debe asegurarse de que los nuevos enfoques mitigen los riesgos a nivel mundial».