-
+

Un debate ponderado sobre leyes, redes sociales y moderación de contenidos

Joan Barata

10 de Octubre de 2021, 10:43

El uso progresivo de las redes sociales y otras plataformas de alojamiento de contenidos para la difusión de ideas, opiniones e informaciones por parte de cualquier usuario ha espoleado encendidos debates acerca del encaje de la libertad de expresión, como derecho fundamental y universal, en este nuevo contexto. 

Recordemos que la libertad de expresión es un derecho originalmente reconocido (y así es como aparece configurado tanto en la Constitución Española como en los instrumentos internacionales y regionales correspondientes) en relación con el individuo y frente a las autoridades del Estado, y no en relación con corporaciones privadas. 

Tanto en algunos países de Europa como en Estados Unidos existen en estos momentos interesantes debates jurídicos acerca del modo en el que los usuarios de dichas plataformas intermediarias cuentan con una esfera de protección de su autonomía para expresarse en el marco de los espacios privados suministrados por éstas, así como de las posibilidades de cuestionar decisiones privadas de moderación de contenidos y, eventualmente, obligar a estas corporaciones a mantener disponibles ciertas publicaciones en contra de sus propias normas de comunidad.

En un artículo previo sobre Twitter, Trump y la supuesta censura ejercida por parte de las plataformas ya puse de manifiesto cómo en Estados Unidos los intermediarios no son considerados un foro público. Al tratarse de un espacio de carácter privado en el que los usuarios se sujetan a las normas internas establecidas por la plataforma correspondiente, quienes ostentan el derecho a la libertad de expresión son las propias redes sociales. La imposición legal o judicial de una obligación de mantener una determinada publicación en contra de su criterio o sus propias políticas de moderación de contenidos sería, pues, compelled speech y, por ello, una violación de la Primera Enmienda.

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

La fortaleza de esta construcción jurisprudencial y la conmoción causada entre las filas más conservadoras por la suspensión, por parte de varias redes sociales, de la cuenta (personal) del presidente Trump por incumplir sus normas de comunidad ha llevado a la reciente presentación, por parte de miembros del Partido Republicano, de varias propuestas orientadas a limitar dicho poder editorial de las plataformas; el cual, por cierto, se percibe como sesgado a favor de una mentalidad progresista contraria a la proliferación de determinados discursos extremistas.

Un ejemplo particularmente paradigmático de esta visión, extremadamente politizada como hemos visto, del modo en el que hay que avanzar en el terreno de la regulación de las plataformas nos lo ha suministrado el Estado de Florida, el cual aprobó una ley por la que (y sobre la base de una muy ambigua definición de redes sociales), se impedía a éstas excluir a cualquier persona que tuviese el estatuto jurídico de candidato en unas elecciones; condición relativamente fácil de adquirir después de rellenar algunos formularios. Las personas que ostentasen dicha condición no podían ser sujetas a ningún tipo de filtrado algorítmico (cómo pueda ser eso técnicamente posible en el marco de plataformas que, precisamente, utilizan mecanismos automatizados para poder ser operativas es algo sobre lo que el legislador no nos ilustra, seguramente inconsciente del significado e implicaciones de su propia propuesta). Ello abarcaría no sólo a los contenidos publicados por parte de los candidatos en cuestión, sino también a las publicaciones de terceros sobre los mismos.

Asimismo, las plataformas tampoco podrían cancelar las cuentas o ocultar el contenido de "empresas periodísticas". Éstas y otras controvertidas previsiones fueron recurridas ante la Corte para el Distrito Norte de Florida, que las anuló hace pocos meses.

Los argumentos de la Corte son bastante contundentes. Así, se señala que, en ausencia de criterios propios de moderación de contenidos (en particular, cuando dicha ausencia es impuesta por el legislador), las plataformas se volverían en un espacio "inaceptable" y completamente inútil para sus usuarios. Un argumento interesante y seguramente cierto, aunque no propiamente jurídico.

La Corte afirma también que esta ley sería contraria a la normativa federal (concretamente, la conocida Sección 230 de la Ley de Decencia de las Comunicaciones, que inmuniza y da poder a las plataformas para tener sus propias políticas de moderación de contenidos sin restricciones).

En tercer lugar, se repite un principio fundamental contenido en la jurisprudencia: las plataformas son, como ya se ha dicho, titulares del derecho reconocido en la Primera Enmienda y, por ello, no pueden ser obligadas a publicar o mantener contenidos en contra de su propio criterio.

Otro argumento de calado formulado por la Corte es el hecho de que la ley articula distinciones y diferencias de tratamiento entre distintos tipos de contenidos (o speech), lo cual obliga a articular un escrutinio estricto. En este ámbito, la Corte no encuentra fundamento constitucional a la decisión de privilegiar unos contenidos frente a otros (todos ellos definidos muy vagamente), especialmente en lo que se refiere a las empresas periodísticas y a las publicaciones sobre candidatos; e incluso llega a señalar que, bajo una apariencia de neutralidad, ésta es una ley que se orienta claramente a proteger a candidatos de una determinada ideología política.

La disputa no se acaba aquí. El pleito ha sido llevado a la Corte del Circuito 11 y puede incluso llegar al Tribunal Supremo. Mientras tanto, estados como Texas han puesto en marcha los mecanismos para adoptar leyes parecidas. Un poco más al sur, el presidente brasileño, Jair Bolsonaro, también ha querido llevar adelante una iniciativa legislativa muy parecida, pero ha sido frenado muy recientemente por el Senado.

En Europa, los debates son quizá un poco más complejos. La normativa de la Unión Europea en ámbitos tales como la propiedad intelectual, contenidos terroristas en línea o servicios audiovisuales incluye entre sus previsiones vagas referencias a la necesidad de que las plataformas intermediarias actúen "sin perjuicio del respeto a la libertad de expresión". Lo que ello implica o significa es algo todavía pendiente de dilucidar en el mencionado nivel ya que, por otra parte, las autoridades europeas vienen presionando durante la última década a las compañías tecnológicas para que 'hagan más' en materia de eliminación diligente de contenido 'indeseable'; categoría que no abarcaría solamente a información ilegal, sino también contenidos nocivos como puede ser la desinformación. Comunicaciones, recomendaciones, acuerdos de buenas prácticas y, finalmente, normas jurídicas vinculantes (y aquí la futura Ley/Reglamento de Servicios Digitales desempeñará un papel fundamental) incentivan e incluso pueden obligar (bajo la amenaza de grandes multas) a las plataformas a adoptar normas internas de moderación de contenidos que pueden determinar la afectación de contenidos perfectamente legales aunque considerados como dañinos sobre la base de criterios normativos bastante amplios.

Cierto es que la propuesta últimamente mencionada incluye algunas salvaguardias para los usuarios, especialmente en materia de transparencia y eventuales apelaciones de decisiones que afecten a sus derechos. Sin embargo, existe un temor fundado a que las mencionadas obligaciones sistémicas en materia de moderación de contenidos y mitigación de riesgos sociales acaben teniendo un impacto significativo en la libertad de expresión. 

Una aportación interesante en este terreno nos lo ha proporcionado recientemente Alemania. No me refiero ahora a la muy controvertida ley de regulación de las plataformas o NetzDG, a la que ya dediqué en su día algunos comentarios, sino a una incipiente corriente jurisprudencial, confirmada recientemente por dos sentencias del Tribunal Federal de Justicia. Lo interesante de esta jurisprudencia es el intento, sobre la base de la idea general del Drittwirkung (o eficacia horizontal, es decir, frente a terceros y no solamente frente al Estado, de los derechos fundamentales), de construir una aproximación más articulada a la cuestión de la relación entre la ley y las normas internas de las plataformas.

Según esta aproximación, las plataformas tendrían la posibilidad de tener sus propias normas internas de moderación de contenidos (desnudez, acoso, desinformación, discursos intolerantes…) más allá de lo previsto en la ley. Además, ello debería verse como un ejercicio del derecho de las plataformas no solamente a tener su propio modelo de negocio, sino también su propia concepción editorial en materia de contenidos. Por consiguiente, los usuarios no podrían acudir a un juez para exigir, en cualquier supuesto, la restitución de un contenido legal eliminado por una plataforma por incumplir sus normas internas. Sin embargo, y a la vista del papel que plataformas como Facebook ejercen en la esfera pública y en la creación de las condiciones para el efectivo ejercicio de derechos fundamentales, algunos aspectos de su comportamiento y su impacto en estos últimos podría ser equiparable a actuaciones por parte de autoridades estatales. Ello no justificaría la adopción de leyes que indiquen a las plataformas qué contenidos legales pueden regular y en qué sentido, pero sí cómo lo hacen (debido proceso). Así pues, podrán los tribunales controlar y corregir decisiones de moderación de contenidos sobre la base de reglas internas no jurídicas cuando con ello se haya afectado al derecho del usuario a ser informado de la decisión y de sus motivos y/o se le haya impedido cuestionarla. 

La cuestión es, pues, hasta qué punto los debates europeos (más ponderados y menos politizados que los estadounidenses) pueden abrir el camino hacia un debate sobre la regulación de las plataformas menos basado en posturas extremas. La regulación de procesos, más que de contenidos, puede abrir una puerta a la solución de las complejas implicaciones derivadas del interés, por parte de autoridades y una parte de la sociedad, en delegar en las plataformas la capacidad de decidir no solamente sobre aspectos de legalidad, sino también de nocividad. En todo caso, hay todavía un largo camino por recorrer; especialmente en España.

Contra la pandemia, información y análisis de calidad
Colabora con una aportación económica
   

¿Qué te ha parecido el artículo?
Participación