La Corte Suprema de Estados Unidos escuchó hoy argumentos orales sobre las leyes estatales de Florida y Texas que imponen límites a la forma en que las empresas de redes sociales pueden moderar el contenido generado por los usuarios.
El ley de florida prohíbe a los grandes sitios de redes sociales como Facebook y Twitter (también conocido como X) prohibir a los políticos, y dice que deben «aplicar estándares de censura, desplataforma y prohibición en la sombra de manera consistente entre sus usuarios en la plataforma». El estatuto de texas prohíbe a las grandes empresas de redes sociales moderar publicaciones basándose en el «punto de vista» del usuario. Las leyes fueron apoyados por Funcionarios republicanos de otros 20 estados.
La industria tecnológica dice que ambas leyes violan el derecho de las empresas de la Primera Enmienda a utilizar la discreción editorial para decidir qué tipo de contenido generado por el usuario permitir en sus plataformas y cómo presentar ese contenido. La Corte Suprema decidirá si se pueden hacer cumplir las leyes mientras las demandas de la industria contra Florida y Texas continúan en los tribunales inferiores.
La forma en que la Corte Suprema resuelva en esta etapa estos dos casos podría darle a una de las partes una gran ventaja en los litigios en curso. Paul Clement, abogado del grupo comercial de las grandes tecnologías NetChoice, instó hoy a los jueces a rechazar la idea de que la moderación de contenidos realizada por empresas privadas sea censura.
«Realmente creo que la censura es algo que sólo el gobierno puede hacerte». clemente dijo. «Y si no es el gobierno, realmente no deberías etiquetarlo como ‘censura’. Es sólo un error de categoría.»
Las empresas utilizan la discreción editorial para hacer que los sitios web sean útiles para los usuarios y anunciantes, dijo, argumentando que la moderación de contenido es una actividad expresiva protegida por la Primera Enmienda.
El juez Kagan habla de antivacunas e insurrectos
Henry Whitaker, procurador general de Florida, dijo que las plataformas de redes sociales se promocionaban como foros neutrales para la libertad de expresión, pero ahora afirman ser «editores del discurso de sus usuarios, como un periódico».
«Afirman que poseen un amplio derecho de la Primera Enmienda a censurar cualquier cosa que alberguen en sus sitios, incluso cuando hacerlo contradice sus propias representaciones ante los consumidores», dijo. Argumentó que no se debería permitir que las plataformas de redes sociales censuren la expresión, al igual que las compañías telefónicas.
Sosteniendo que las redes sociales en realidad no actúan como editores, dijo que «es un tipo extraño de editor que en realidad no mira el material» antes de publicarlo. También dijo que «más del 99 por ciento de lo que pasa en las plataformas básicamente pasa sin revisión».
La jueza Elena Kagan respondió: «Pero ese 1 por ciento parece haber enfadado mucho a algunas personas». Al describir las prácticas de moderación de las plataformas, dijo que el 1 por ciento del contenido moderado es «como, ‘no queremos anti-vacunas en nuestro sitio o no queremos insurrectos en nuestro sitio'». Quiero decir, eso es lo que motivó estas leyes, ¿no? Y lo que molesta a la gente es que otras personas tienen puntos de vista diferentes sobre lo que significa proporcionar información errónea sobre la votación y cosas así».
Más tarde, Kagan dijo: «Doy por sentado que YouTube o Facebook o lo que sea tienen opiniones expresivas. Hay tipos particulares de expresión definidos por el contenido que no quieren que se acerque a su sitio».
Al señalar la moderación del discurso de odio, la intimidación y la desinformación sobre la votación y la salud pública, Kagan preguntó: «¿Por qué no es una violación clásica de la Primera Enmienda que el estado entre y diga: ‘no vamos a permitir que ¿Hacer cumplir ese tipo de restricciones?'»
Whitaker instó a Kagan a «observar la actividad objetiva que se está regulando, es decir, la censura y la eliminación de plataformas, y preguntarse si eso expresa un mensaje. Porque [the social networks] alberga tanto contenido, un observador objetivo no atribuirá fácilmente ningún contenido particular que aparezca en su sitio a alguna decisión de abstenerse de censurar o eliminar la plataforma».
Thomas: ¿Quién habla cuando un algoritmo modera?
El juez Clarence Thomas expresó dudas sobre si la moderación de contenido transmite un mensaje editorial. «Dígame nuevamente cuál es la conducta expresiva que, por ejemplo, realiza YouTube o Twitter cuando desbanca a alguien. ¿Cuál es la conducta expresiva y a quién se la comunica?» -Preguntó Tomás.
Clement dijo que las plataformas «están enviando un mensaje a esa persona y a su audiencia más amplia de que ese material» no está permitido. Como resultado, los usuarios «no verán material que viole los términos de uso. No verán un montón de material que glorifique el terrorismo. No verán un montón de material que glorifique el suicidio». Clemente dijo.
Thomas preguntó quién «habla» cuando un algoritmo realiza moderación de contenido, particularmente cuando «es un algoritmo de aprendizaje profundo que se aprende a sí mismo y tiene muy poca intervención humana».
«Entonces, ¿quién habla, el algoritmo o la persona?» -Preguntó Tomás.
Clement dijo que Facebook y YouTube están «hablando, porque son ellos los que utilizan estos dispositivos para ejecutar su discreción editorial en estos volúmenes masivos». La necesidad de utilizar algoritmos para automatizar la moderación demuestra «el volumen de material en estos sitios, lo que simplemente muestra el volumen de discreción editorial», dijo.