Cómo es que la Corte Suprema podría reconfigurar la libertad en las redes sociales

Se espera que los jueces sopesen los derechos de libertad de expresión de las plataformas de medios sociales frente a los derechos de sus usuarios en los casos de Florida y Texas

Por Matthew Vadum
11 de diciembre de 2023 11:09 PM Actualizado: 18 de diciembre de 2023 8:36 PM

Una batalla inminente en la Corte Suprema puede determinar cómo moderan el contenido las empresas de medios sociales . El más alto tribunal del país estudiará las impugnaciones de las leyes de Florida y Texas que regulan la moderación de contenidos en las redes sociales.

Observadores y activistas de izquierda y derecha están pendientes de los casos.

Lo que está en juego es el derecho de los estadounidenses a expresarse libremente en Internet y el derecho de las plataformas de redes sociales a tomar decisiones editoriales sobre los contenidos que albergan. Ambos derechos están protegidos por la Primera Enmienda de la Constitución de Estados Unidos.

Republicanos y conservadores se indignaron cuando las plataformas actuaron de forma concertada para vetar al presidente Donald Trump en enero de 2021, bloquearon un artículo del New York Post que podía alterar las elecciones sobre el portátil de Hunter Biden en 2020 y silenciaron opiniones discrepantes sobre los orígenes del virus COVID-19, los tratamientos para la enfermedad que causa y las vacunas.

Steven Allen, miembro distinguido del Capital Research Center, un grupo de vigilancia, dijo que los conservadores llevan mucho tiempo quejándose del trato que reciben en las plataformas de las redes sociales.

«Imagínese que existiera un sistema análogo al de Facebook, en el que si uno dice algo por teléfono a alguien que no le gusta a Facebook, o que no le gusta a la compañía telefónica, y entonces interrumpen la llamada para decir: ‘Sabe, los expertos no están de acuerdo con eso’… y entonces no le dejarían seguir diciendo lo que quería decir», dijo Allen.

«La gente estaría, por supuesto, indignada».

No se debería permitir a Facebook «elegir a los que no le gustan», dijo a The Epoch Times.

Los demócratas y los liberales, por su parte, afirman que las plataformas no hacen lo suficiente para eliminar la llamada incitación al odio y la supuesta desinformación, que consideran problemas sociales acuciantes.

Los moderadores de la red social Reddit presentaron un escrito en el que afirmaban que, si se confirmaban las leyes, el sitio ya no podría retirar contenidos que amenazaran, por ejemplo, a los jueces de la Corte Suprema.

Proporcionaron una captura de pantalla del titular de un artículo de prensa en el que se leía «John Roberts, presidente de la Corte Suprema, dice que el sistema judicial ‘no puede ni debe vivir con miedo'».

El presidente del Tribunal Supremo, John Roberts, y la jueza Elena Kagan escuchan mientras el presidente Joe Biden pronuncia su discurso sobre el Estado de la Unión en el Capitolio de EE.UU. en Washington el 7 de febrero de 2023. (Chip Somodevilla/Getty Images)

Una persona comentó: «Tenemos la guillotina, será mejor que corras».

En respuesta a otro artículo sobre la corte, un usuario escribió: «Promover la violencia es la única respuesta racional, por eso las autoridades no quieren que lo hagas.»

Dos grupos a favor del control de armas que presentaron escritos ante la Corte Suprema argumentan que se debe permitir a las empresas de medios sociales combatir el discurso del odio, que según ellos contribuye a la «violencia armada en el mundo real.»

Douglas Letter, director jurídico del Centro Brady para la Prevención de la Violencia Armada, dijo en el comunicado de prensa que acompaña al escrito que a menudo «los autores de tiroteos masivos se radicalizaron en línea.»

«Estas experiencias en línea son formativas en la germinación de estos actos mortales», dijo Letter. » La Corte Suprema debe entender la relación mortal entre el contenido en línea y la tragedia del mundo real».

Impugnación de las leyes de Florida y Texas

NetChoice, una coalición de asociaciones comerciales que representan a empresas de medios sociales y empresas de comercio electrónico, impugnó una ley de Florida que tipifica como infracción el hecho de que una plataforma de medios sociales desplante a un candidato político, sancionable con una multa de 250,000 dólares al día.

La ley también establece restricciones a la deplorabilidad de otros usuarios y exige una aplicación coherente de las normas de moderación.

La Corte de Apelaciones del 11º Circuito de Estados Unidos paralizó parte de la ley y Florida apeló ante la Corte Suprema.

Al firmar la ley en 2021, el gobernador de Florida, el republicano Ron DeSantis, dijo que garantiza a los floridanos «protección contra las élites de Silicon Valley.»

El gobernador de Florida, Ron DeSantis, habla con agentes de policía en el barrio de Staten Island, en Nueva York, el 20 de febrero de 2023. (Spencer Platt/Getty Images)

«Muchos en nuestro estado han experimentado la censura y otros comportamientos tiránicos de primera mano en Cuba y Venezuela», dijo el Sr. DeSantis. «Si los censores de Big Tech aplican las reglas de manera inconsistente, para discriminar a favor de la ideología dominante de Silicon Valley, ahora tendrán que rendir cuentas».

El presidente Trump presentó un escrito ante la Corte Suprema en octubre de 2022 como ciudadano privado, instando a la corte a escuchar el caso de Florida.

«La experiencia reciente ha fomentado una preocupación generalizada y creciente de que las plataformas de medios sociales gigantescas están utilizando su poder para suprimir la oposición política», declaró su escrito.

«Esta preocupación es mayor porque las plataformas a menudo ocultan las decisiones de excluir a determinados usuarios y puntos de vista, sin dar ninguna explicación significativa de por qué se excluye a ciertos usuarios mientras que se tolera a otros que publican contenidos equivalentes».

Una mujer sostiene un cartel de protesta «Save the Net» durante una manifestación contra la propuesta de derogación de la neutralidad de la red frente a la sede de la Comisión Federal de Comunicaciones en Washington el 13 de diciembre de 2017. (Alex Edelman/AFP vía Getty Images)

Ohio, Arizona, Missouri, Texas y otros 12 estados argumentaron en un escrito judicial que Internet es la plaza pública moderna y que las plataformas de medios sociales que participan en la censura «socavan el libre intercambio de ideas que las protecciones de la libertad de expresión existen para facilitar.»

La supresión de ideas amenaza «el desarrollo de importantes ideas y descubrimientos, muchos de los cuales comienzan como opiniones marginales», afirma el escrito.

El 11º Circuito anuló parte de la ley de Florida, al considerar que «con pequeñas excepciones, el gobierno no puede decir a una persona o entidad privada qué decir o cómo decirlo».

Incluso las plataformas «más grandes» son «actores privados cuyos derechos protege la Primera Enmienda… [y] sus llamadas decisiones de moderación de contenidos constituyen ejercicios protegidos de juicio editorial».

La Corte de Apelaciones del 5º Circuito de EE.UU. adoptó la postura contraria, declarando constitucional una ley de Texas contra las plataformas y rechazando la «idea de que las corporaciones tienen un derecho de la Primera Enmienda libre para censurar lo que dice la gente».

Ambas leyes estatales exigen a las plataformas que expliquen sus decisiones de moderación de contenidos.

Cuestiones jurídicas

La Corte Suprema intentará responder si las restricciones a la moderación de contenidos y los requisitos de explicación individualizada de las dos leyes estatales cumplen con la Primera Enmienda.

Christopher Newman, profesor asociado de Derecho en la Facultad de Derecho Antonin Scalia de la Universidad George Mason, predice que entrará en juego la Sección 230 de la Ley Federal de Decencia en las Comunicaciones de 1996.

En general, esta disposición protege a los proveedores de servicios de Internet (ISP) y a las empresas de ser considerados responsables de lo que los usuarios digan en sus plataformas. Sus defensores afirman que esta disposición, a veces llamada «las 26 palabras que crearon Internet», ha fomentado un clima en línea en el que ha florecido la libertad de expresión.

La sección 230 dice: «Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o altavoz de cualquier información proporcionada por otro proveedor de contenidos informativos».

Empleados trabajan en la «Sala de Guerra» de Facebook, durante una manifestación de medios de comunicación en Menlo Park, California, el 17 de octubre de 2018. (Noah Berger/AFP vía Getty Images)

El 5º Circuito examinó la sección y dijo que significa que el Congreso creía que los ISP, al publicar posts, no están hablando por derecho propio y, por lo tanto, «no llegan a reclamar el manto de protección de la Primera Enmienda», dijo Newman.

Pero la sección 230 también dice que «los ISP son inmunes a la responsabilidad por su decisión de retirar ciertos contenidos, porque son ofensivos, obscenos o lo que sea», dijo Newman.

El objetivo principal de esta sección era «precisamente que el gobierno quisiera que las plataformas de medios sociales intentaran vigilar y mantener la pornografía fuera de sus sitios», dijo.

«Está claro que el Congreso quería que las plataformas de redes sociales tuvieran el derecho, sin responsabilidad… de tener las dos cosas… de obtener protección frente a la responsabilidad por las cosas malas que permiten publicar a sus usuarios, al tiempo que son inmunes a la responsabilidad por ser selectivas sobre lo que permiten».

La doctrina del common carrier, que tiene sus orígenes en Inglaterra, también es probable que se plantee en los argumentos orales, dijo Newman.

La idea básica que subyace al estatus de common carrier es que es «casi análogo a tratar a alguien como un servicio público», lo que da al gobierno poder para regularlo en aras del interés público, dijo.

Ser considerado un common carrier da al gobierno autoridad «para imponer obligaciones básicas de no discriminación… [como] las que se imponen a un servicio público. No se puede excluir arbitrariamente a la gente de la plataforma, y hay que dar a la gente un servicio en condiciones equivalentes», dijo Newman.

Ambas leyes estatales prohíben determinados tipos de discriminación por parte de las plataformas e «imponen requisitos de divulgación bastante onerosos, como que, básicamente, cada vez que se toma una decisión de moderación de contenidos, hay que publicar una opinión explicando por qué se ha hecho», dijo.


El CEO de Facebook, Mark Zuckerberg, testifica a distancia a través de videoconferencia mientras el senador Thom Tillis (R-N.C.) escucha durante una audiencia del Comité Judicial del Senado en el Capitolio en Washington el 17 de noviembre de 2020. (Hannah McKay/POOL/AFP vía Getty Images)

«Imagina ser una empresa de medios sociales que está lidiando con miles de millones de publicaciones al día, y tener que tomar decisiones de moderación de contenido a escala.

Tener que redactar una explicación que justifique cada decisión de moderación sería «prohibitivo», afirmó Newman.

Jim Burling, vicepresidente de asuntos jurídicos de la Pacific Legal Foundation, un bufete nacional de abogados de interés público sin ánimo de lucro que se enfrenta a los abusos del gobierno, dijo que los estadounidenses están justificadamente enfadados por la conducta de las plataformas de medios sociales.

Las personas que expresan opiniones que cuestionan el «dogma progresista» han sido excluidas de las redes sociales y muchos usuarios han sido expulsados de YouTube, según declaró Burling a The Epoch Times.

«Así que mucha gente está legítimamente disgustada porque las empresas de redes sociales les mantienen fuera. Y la guinda del pastel, por supuesto, es lo que hemos sabido recientemente del [gobierno] de Estados Unidos ejerciendo una presión extrema sobre las empresas de medios sociales para que censuren.»

El 20 de octubre, la Corte Suprema admitió a trámite la petición en el caso Murthy contra Missouri. El tribunal examinará si el gobierno de Biden infringió la Constitución al presionar a las empresas tecnológicas para que eliminaran lo que consideraba contenido falso o engañoso sobre el COVID-19 y las disputadas elecciones presidenciales de 2020.

La vicepresidenta Kamala Harris aplaude mientras el presidente Joe Biden firma una orden ejecutiva sobre inteligencia artificial, en la Casa Blanca en Washington el 30 de octubre de 2023. (Brendan Smialowski/AFP vía Getty Images)

Burling dijo que los casos de Texas y Florida le han recordado la Doctrina de la Imparcialidad, una política de 1949 de la Comisión Federal de Comunicaciones de EE.UU. (FCC) que obligaba a los titulares de licencias de radiodifusión a presentar puntos de vista diferentes sobre cuestiones controvertidas.

La política fue confirmada por la Corte Suprema en 1969, pero rescindida por la FCC en 1987.

«De vez en cuando hay gente que quiere reimponer una especie de Doctrina de la Imparcialidad», dijo, añadiendo que las cortes «nunca la han derogado en firme».

¿Hasta qué punto puede un gobierno -estatal, federal o local- regular la expresión en una empresa de medios sociales?». dijo Burling.

Esa va a ser la pregunta de los 64,000 dólares».

Casos recientes

La Corte Supremoase pronunció sobre las redes sociales a principios de este año.

En sus sentencias del 18 de mayo en Twitter Inc. contra Taamneh y González contra Google LLC, el tribunal eludió la cuestión del escudo de responsabilidad de las plataformas por los contenidos de los usuarios.

José Hernández (3º izda.) y Beatriz González (2ª dcha.), padrastro y madre de Nohemí González, fallecida en un atentado terrorista en París en 2015, caminan con su abogado Eric Schnapper (dcha.) a las puertas del Tribunal Supremo de Estados Unidos en Washington el 21 de febrero de 2023. (Drew Angerer/Getty Images)

Taamneh se refería a un jordano muerto en un atentado terrorista del ISIS en una discoteca de Estambul. La familia del hombre alegó que Twitter, Facebook y Google debían ser considerados responsables porque no hicieron lo suficiente para retirar los vídeos del ISIS que, según ellos, ayudaban al grupo terrorista.

En González, la familia de una mujer estadounidense asesinada en un atentado del ISIS en París interpuso una demanda, alegando que Google, propietaria de YouTube, era responsable en virtud de la Ley Federal Antiterrorista por ayudar a los esfuerzos de reclutamiento del ISIS mediante el supuesto uso de algoritmos para dirigir a los usuarios a vídeos del ISIS.

La Corte Suprema se puso unánimemente del lado de Twitter, Google y Facebook, al considerar en los dos casos que no se había probado una conexión entre los gigantes de Silicon Valley y las muertes de sus familiares, por lo que no era necesario entrar en la cuestión de la Sección 230.

La Corte Suprema también vio dos casos, O’Connor-Ratcliff contra Garnier y Lindke contra Freed, el 31 de octubre.

La cuestión legal es si un funcionario público está llevando a cabo una acción gubernamental sujeta a la Primera Enmienda cuando bloquea el acceso de alguien a su cuenta de redes sociales.

En el primer caso, dos miembros electos del consejo escolar local de California, que utilizaban sus cuentas personales de Facebook y Twitter para comunicarse con el público, bloquearon a unos padres que, según ellos, les estaban enviando spam.

Los padres alegaron que se comunicaban de buena fe.

La Corte de Apelaciones del Noveno Circuito de los EE.UU. dio la razón a los padres, al considerar que los cargos electos que utilizaban cuentas en las redes sociales participaban en un foro público.

En el segundo caso, un administrador municipal de Michigan que utilizaba Facebook para comunicarse con sus electores bloqueó a las personas que criticaban la respuesta del municipio a la pandemia de COVID-19. La Corte de Apelaciones de los Estados Unidos falló a favor de los padres. La Corte de Apelaciones del 6º Circuito de los EE.UU. falló a favor del funcionario, sosteniendo que actuaba únicamente a título personal y que sus actividades no constituían una acción gubernamental.

La cuenta de Twitter suspendida del presidente Donald Trump en la pantalla de un iPhone en San Anselmo, California, el 8 de enero de 2021. (Justin Sullivan/Getty Images)

El presidente Trump fue demandado en 2017 por el Instituto Knight de la Primera Enmienda y siete personas a las que había bloqueado en Twitter. El Tribunal de Apelaciones del 2º Circuito de Estados Unidos dio la razón a las personas, al considerar que el entonces presidente había violado la Primera Enmienda.

En abril de 2021, casi tres meses después de que el presidente Trump fuera expulsado de Twitter, el Tribunal Supremo dictaminó que la controversia era discutible porque el presidente había abandonado el cargo. Posteriormente, Elon Musk compró Twitter y revocó la prohibición.

Los argumentos orales en Moody v. NetChoice LLC y NetChoice LLC v. Paxton se esperan para la primavera.

Las decisiones se esperan para junio de 2024.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.