El asalto del Capitolio ha sido sin duda un hecho sin precedentes en la historia reciente de los Estados Unidos. Los tumultos del día 6 de enero han espoleado un debate jurídico y político importante acerca de la necesidad de inhabilitar o destituir al presidente Donald Trump solo unos pocos días antes de la toma de posesión de su sucesor Joe Biden.

En medio de estas graves circunstancias, otro hecho (seguramente de alcance comparativamente menor) está empezando a acaparar la atención de analistas diversos: la decisión de la red social Twitter de eliminar temporalmente, y posteriormente de forma definitiva, las publicaciones y la cuenta del todavía presidente, con motivo de su capacidad demostrada de incitar a la comisión de actos violentos. Decisión que ha sido también secundada por otras redes sociales de gran visibilidad como Facebook.

Esta decisión ha espoleado con fuerza un debate que venía ya desarrollándose y que seguramente requiere de un análisis jurídico en mayor profundidad que la de los titulares o simplificaciones con las que generalmente se aborda el tema. La cuestión, a mi entender, no es solo ni principalmente si Twitter o Facebook pueden censurar a Donald Trump, sino de forma previa, si la decisión de estas plataformas de aplicar sus normas internas de uso frente a quien parece haberlas vulnerado constituye en puridad un acto de censura, y por ende una violación del derecho fundamental a la libertad de expresión.

El derecho fundamental a la libertad de expresión, tanto en el sistema europeo como estadounidense, se proclama y protege en favor de los individuos frente a posibles intromisiones o limitaciones provenientes de los poderes públicos.

En el caso de los Estados Unidos, y con relación concretamente a las plataformas o redes sociales como Twitter of Facebook, la interpretación y doctrina jurisprudenciales son muy claras. Las redes no son un foro público, sino un espacio de carácter privado en el que los usuarios se sujetan a las normas internas establecidas por la plataforma correspondiente. Quienes ostentan, pues, el derecho a la libertad de expresión, son las propias redes sociales. La imposición legal o judicial de una obligación de mantener una determinada publicación en contra de su criterio o sus propias políticas de moderación de contenidos sería pues “forced speech”, y por ello una violación de la Primera Enmienda.

En Europa (y aquí hay que entender tanto el marco de tutela de derechos fundamentales que representa el espacio del Consejo de Europa como el entorno más acotado de la Unión Europea), la protección del derecho a la libertad de expresión se articula en principio, igualmente, en torno al citado eje Estado-individuo. En la jurisprudencia del Tribunal Europeo de Derechos Humanos es difícil encontrar sentencias que reconozcan un efecto “horizontal” al derecho a la libertad de expresión (es decir de una persona o entidad privada frente a otra), y los muy escasos ejemplos en los que se apunta a ello se refieren a dinámicas muy específicas (por ejemplo, la relación entre empleado y empleador) y en conexión con otros derechos fundamentales (particularmente la no discriminación). En el ámbito de la Unión Europea tampoco existe un reconocimiento de la protección de la libertad de expresión en las relaciones de tipo privado, si bien podemos ver cómo las normas recientemente aprobadas o propuestas en materia de regulación de plataformas (por ejemplo, las Directivas en materia de propiedad intelectual o servicios audiovisuales, la propuesta de Reglamento sobre contenidos terroristas en línea o la propuesta de Digital Services Act) sí establecen de forma muy genérica que a la hora de adoptar determinadas decisiones en materia de moderación de contenidos (particularmente en casos de contenidos aparentemente ilegales), estas corporaciones privadas deberán “tener especialmente en cuenta” el impacto de dichas medidas en el derecho repetidamente mencionado. Lo que tal aserto significa realmente en la práctica queda todavía pendiente de ser visto a partir de casos concretos y futuras y esperables decisiones del Tribunal de Justicia.

Ciertamente, en países como Alemania o Italia existen ya algunas resoluciones judiciales (generalmente de primera instancia) en las que se ha obligado a redes sociales a reestablecer un contenido retirado por aquéllas, al considerar el tribunal en cuestión que ello suponía una violación del derecho a la libertad de expresión. Se trata, sin embargo y por ahora, de resoluciones puntuales, en las que, generalmente, el órgano juzgador ha entendido que la restricción de la libertad de expresión daba lugar a un perjuicio considerable con relación a otros derechos o a la propia “función social” del contenido retirado (por ejemplo, la eliminación de la cuenta de Facebook de un partido político en periodo electoral). Habrá que ver, en todo caso, en qué términos se pronuncian, seguramente en un futuro próximo, más altas instancias judiciales y constitucionales, así como el propio Tribunal Europeo de Derechos Humanos, con relación a casos de esta naturaleza.

En este marco, lo cierto es pues que en la actualidad las plataformas controlan los contenidos de los usuarios, en primer lugar, en la medida en que éstos se encuentran sujetos a los límites legales aplicables a cualquier otro mecanismo de distribución. En este sentido, y sin perjuicio de que un juicio de estas características deba ser realizado por parte de una autoridad pública con poder para ello, existe un consenso mayoritario sobre que, en casos excepcionales de manifiesta ilegalidad (retransmisión en directo de un ataque terrorista, pornografía infantil, etc.), las plataformas pueden y deben actuar expeditivamente y por iniciativa propia. En segundo lugar, es innegable también que las plataformas establecen, más allá de los límites legales, sus propias normas y mecanismos internos de moderación de contenidos. Esta práctica, es importante destacarlo, es consecuencia de la importante presión a la que éstas están sujetas por parte de instituciones públicas, la sociedad civil y los usuarios, a fin de que eliminen contenidos “indeseables” u “objetables” (si bien no necesariamente ilegales): desinformación, spam, determinadas formas de hostigamiento, promoción de conductas socialmente indeseables, etcétera.

En este segundo ámbito, los debates se centran en la actualidad en la necesidad de que dicha moderación de contenidos (que, en general, se considera inevitable e incluso deseable) se lleve a cabo sobre la base de criterios tales como la transparencia, la claridad y la previsibilidad, la no-discriminación entre usuarios y la posibilidad efectiva de recurrir o cuestionar las decisiones de las plataformas por parte de los usuarios. Precisamente, las actuales propuestas de reforma legislativa tanto en Estados Unidos como en Europa se orientan a la introducción de nuevas obligaciones legales a cargo de las plataformas a fin de que cuenten con una serie de garantías procedimentales o estructurales que permitan a los usuarios publicar los contenidos en un marco de seguridad y certeza “normativas”. 

¿Es pues censura la decisión de Twitter o Facebook de “silenciar” a Donald Trump? En estricto rigor jurídico, y por las razones mencionadas creo que no lo es. En el caso de Donald Trump, asimismo, dispone de un gran número de espacios y plataformas (en el sentido amplio) alternativas para expresar todos los exabruptos que desee ¿Tienen o deberían tener absoluta discrecionalidad las redes sociales para establecer y aplicar sus propias normas internas, incluidas sanciones como las referidas? Teniendo en cuenta el papel que dichas redes juegan en la esfera pública, la respuesta también es no. Es urgente establecer, como se ha dicho, nuevas regulaciones que delimiten correctamente los parámetros con base a los cuales dichos poderosos sujetos privados pueden establecer y aplicar sus políticas internas de “regulación” de contenidos, sin perjuicio de las potestades indelegables de las autoridades públicas (especialmente las judiciales) en materia de contenidos ilegales.

*JOAN BARATA es jurista miembro de la PDLI, experto en libertad de expresión y regulación de las plataformas de Internet.

Artículo publicado originalmente en ‘Agenda Pública’ (10/01/2021)