Un par de casos de la Corte Suprema que se pronunciarán a finales de este año pueden cambiar el futuro del discurso en línea. También plantean dudas sobre el poder legislativo sobre las grandes empresas tecnológicas.
Los dos casos, NetChoice contra Paxton y Moody contra NetChoice, son el resultado directo del ataque del 6 de enero de 2021 al Capitolio de Estados Unidos, que dejó cinco personas muertas, incluido un oficial de policía del Capitolio. El entonces presidente Donald Trump había reunido a sus partidarios en la Casa Blanca, algunos de los cuales marcharon hasta el Capitolio. en un esfuerzo por perturbar el Congreso desde contar los votos del Colegio Electoral hasta formalizar su derrota ante el entonces presidente electo Joe Biden.
En respuesta, las empresas de redes sociales, incluidas Twitter, Facebook y YouTube, prohibieron la cuenta de Trump, citando preocupaciones. podría incitar a más violencia en sus esfuerzos por anular las elecciones. Investigaciones, incluso de ProPublica y The Washington Postconsideró que esas redes sociales habían desempeñado «un papel fundamental en la difusión de mentiras que fomentaron la violencia del 6 de enero».
Legisladores y gobernadores de Texas y Florida respondió con leyes eso incluía disposiciones obligatorias, que efectivamente exigían que plataformas como Twitter, Facebook y YouTube albergaran discursos controvertidos, lo quisieran o no. NetChoice, un grupo de la industria tecnológica, presentó una demanda para bloquear ambas leyes, defendiendo los derechos de las redes sociales a moderar el contenido y tomar decisiones editoriales.
Ahora, la Corte Suprema decidirá si las empresas de redes sociales deben difundir discursos, incluida la retórica nazi y la desinformación médica.
Después de casi cuatro horas de debate judicial el 26 de febrero, según informes de El Correo de Washington, Los New York Times y El periodico de Wall Streetlos jueces de la Corte Suprema se mostraron escépticos ante los argumentos de Texas y Florida.
La Corte Suprema no ha dicho cuándo se pronunciará, pero normalmente anuncia decisiones para casos de alto perfil al final de su mandato, entre mediados y finales de junio.
La Primera Enmienda
Muchos defensores del discurso en línea señalan la Primera Enmienda a la Constitución de EE.UU. como guía sobre cómo las empresas deben moderar la expresión en línea.
La Primera Enmienda dice: «El Congreso no promulgará ninguna ley que respete el establecimiento de una religión, o que prohíba su libre ejercicio; o que limite la libertad de expresión o de prensa; o el derecho del pueblo a reunirse pacíficamente y a solicitar la Gobierno para la reparación de agravios.»
Las primeras cinco palabras son un punto clave de este tema. Hasta que las redes sociales se convirtieron en una parte diaria de muchas de nuestras vidas, había poco debate sobre el hecho de que la Primera Enmienda había sido redactada para impedir que el gobierno decidiera lo que los estadounidenses pueden y no pueden decir. Pero a medida que las redes sociales han crecido hasta incluir a miles de millones de personas, en algunos casos con poblaciones en línea más grandes que cualquier país de la Tierra, algunos políticos han comenzado a argumentar que esto debería aplicarse también a las grandes plataformas tecnológicas.
Sección 230
Algunos legisladores han centrado su atención en una ley de 1996 llamada Ley de Decencia en las Comunicaciones, que incluía una disposición, denominada Sección 230, que protegía a las empresas de tecnología de la responsabilidad legal por lo que se publica en sus plataformas. Pero la ley también permite que los servicios eliminen publicaciones que sean ilegales, obscenas o que violen las reglas de su plataforma, siempre que actúen de «buena fe».
Los legisladores dicen que la Sección 230 ha sido torcida. Los legisladores republicanos argumentan que las empresas de tecnología utilizan la ley para justificar la censura de publicaciones que no les gustan. Muchos demócratas, organizaciones de derechos de las víctimas y grupos contra el odio dicen que la ley ha permitido que las grandes tecnológicas se beneficien del acoso, la desinformación y la violencia generalizados.
Como resultado, los legisladores que normalmente no están de acuerdo en casi nada se han encontrado en el lado opuesto de las empresas de tecnología en este debate.
«Nadie eligió a ejecutivos de las grandes tecnologías para gobernar nada, y mucho menos todo el mundo digital», escribieron en un artículo los senadores Lindsey Graham, republicano de Carolina del Sur, y Elizabeth Warren, demócrata de Massachusetts. Los New York Times el año pasado.
El Fundación Frontera Electrónica, Luchar por el futuro y otros grupos advirtieron que cambiar las protecciones de responsabilidad en la Sección 230 para abordar cuestiones relacionadas con la expresión en línea podría generar más censura. Las empresas de redes sociales, por ejemplo, podrían empezar a tomar medidas drásticas contra amplios sectores de expresión en línea para minimizar su riesgo legal.
Las empresas de redes sociales ya han demostrado que están dispuestas a tomar medidas drásticas. Aunque el Congreso no ha aprobado ninguna ley sustantiva sobre el tema, dijo Meta, matriz de Facebook. degradará y ralentizará la difusión de noticias y debates políticos en sus plataformas en un esfuerzo por evitar repeticiones de amplias campañas de desinformación, incluidas aquellas que ayudaron a provocar el ataque del 6 de enero al Capitolio.
Los argumentos de NetChoice de la Corte Suprema
Muchos de los nueve jueces de la Corte Suprema revelaron escepticismo sobre las leyes de Texas y Florida durante la sesión maratónica para escuchar el caso el 26 de febrero.
El presidente del Tribunal Supremo, John Roberts, dijo que la Primera Enmienda juega un papel importante en el debate sobre si las empresas de redes sociales o el gobierno tienen poder para decidir qué voces se escuchan en línea.
Otros jueces, incluidos Sonia Sotomayor y Ketanji Brown Jackson, expresaron preocupación porque la naturaleza de las leyes era demasiado amplia. La jueza Elena Kagan sugirió que las leyes pueden ser inconstitucionales cuando se aplican a herramientas de expresión, como Facebook y YouTube.
Pero el juez Kagan también dijo que las leyes podrían impedir legítimamente que una empresa como Uber expulse a personas de su servicio porque no le gustan sus opiniones políticas. La activista de derecha y candidata fallida al Congreso de Florida, Laura Loomer, fue prohibido en Uber y Lyft en 2017 después de que acusó a los servicios de «contratar terroristas islámicos».
Que sigue
El tribunal se reunirá durante los próximos meses para debatir y redactar sus opiniones, ya sea a favor o en contra de lo que decida la mayoría de los magistrados. Es poco probable que el tribunal diga algo hasta el final de su mandato, normalmente a finales de junio o principios de julio.
Sin embargo, es posible que tengamos una idea de la decisión del tribunal antes de su anuncio oficial. Hace dos años, un proyecto de decisión sobre Dobbs v. Jackson Women’s Health Organization se filtró a Politico, alertando al público sobre la decisión de la Corte Suprema de revocar en última instancia el histórico fallo Roe v. Wade que legalizó el aborto en todo Estados Unidos. El tribunal dijo que llevó a cabo una investigación para encontrar la fuga, pero nada parece haber resultado de ello.
En cambio, la Corte Suprema se ha vuelto más central en el mundo político, con numerosas historias de escándalos relacionados con errores éticos y malas prácticas financieras por parte de algunos de los jueces más destacados del tribunal.