Alemania privatiza el control legal de los contenidos

Los medios de comunicación se han hecho eco recientemente de un proyecto de ley aprobado por el Gobierno alemán (y pendiente de ser discutido y, a su vez, aprobado en el Parlamento) el cual, al parecer, establecería la obligación, a cargo de redes sociales que alojan contenidos de terceros (como Facebook, Twitter o YouTube), no solamente de eliminar, sino también de denunciar ante la Policía Criminal Federal, una serie de delitos graves entre los que se incluyen diversas modalidades de discurso de odio, propaganda extremista, expresiones gráficas de violencia o amenazas de asesinato o violación, entre otros.

Esta nueva propuesta debe entenderse en el marco de la polémica legislación ya existente en el país, el cual tomó ya en 2017 la iniciativa de imponer una serie de novedosas obligaciones a las redes sociales en materia de control de contenidos ilegales. Concretamente, el 1 de enero de 2018 entró en vigor la comúnmente conocida como ‘NetzDG’, abreviación de Netzwerkdurchsetzungsgesetz y que se podría traducir como ley reguladora de la aplicación del ordenamiento jurídico en las redes. Esta norma fue ya objeto de un gran número de debates y críticas (por ejemplo, aquí), siendo considerada por parte de organizaciones defensoras de los derechos fundamentales en línea como desproporcionada, inadecuada y promotora de la censura privada en Internet.

En síntesis, la NetzDG obliga a las grandes plataformas (aquéllas con más dos millones de usuarios en Alemania) a proporcionar a éstos los mecanismos para denunciar frente a estos sujetos privados un amplio elenco de categorías delictivas (22, concretamente) ya incluidas en la legislación penal vigente. Una vez recibida la correspondiente denuncia, corresponde a la plataforma determinar si el contenido es auténticamente ilegal.

A tal efecto, y según la NetzDG, en casos de contenido “manifiestamente ilegal”, las plataformas deben retirarlo en 24 horas. En los casos en los que dicha determinación sea más compleja, la remoción deberá llevarse a cabo en el plazo de siete días. El no cumplimiento de tales obligaciones se sanciona con multas de hasta 50 millones de euros. Asimismo, las plataformas están obligadas a publicar “informes de transparencia” en los que se reflejen las decisiones adoptadas en materia de control (o “moderación”, en la terminología al uso) de contenidos.

La NetzDG, todavía plenamente en vigor, puede considerarse como una ley realmente única tanto con relación al tipo de obligaciones que impone a este tipo de proveedores como a su extensión e intensidad, así como a la gravedad de las sanciones que contempla en casos de contravención de sus previsiones. Aunque su efectividad como herramienta para combatir y eliminar ciertas formas de contenido ilegal en línea está, a fecha de hoy, pendiente de demostrarse con datos fiables, lo cierto es que la fama de la NetzDG alcanzó escala mundial y su aprobación por parte de una democracia liberal europea ha sido explícitamente usada, y apreciada, por regímenes autoritarios o semi-autoritarios en otras partes del mundo como justificación para aprobar normas considerablemente restrictivas, aparentemente inspiradas en aquélla. Entre dichos regímenes hay que mencionar Rusia, Venezuela, Bielorrusia, Honduras, Malasia, Singapur o Filipinas.

[Recibe diariamente los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

En todo caso, y a partir de las referencias de prensa disponibles, la reforma recientemente propuesta por parte del Gobierno alemán debe comprenderse e inserirse, como se ha apuntado, en el marco legal preexistente establecido por la NetzDG. El objetivo de dicha reforma sería pues, por un lado, ampliar el número de categorías delictivas con respecto a las cuales las plataformas tendrían responsabilidades de actuar; y, por el otro, aumentar también las obligaciones de éstas al tener no sólo que eliminar el contenido en cuestión, sino también denunciarlo ante la oficina policial competente.

Por todo lo anterior, las reflexiones que pueden sucintamente hacerse aquí con relación a la propuesta de reforma repetidamente referida se encontrarían esencialmente en línea con los reproches que la NetzDG ha venido mereciendo ya desde su aprobación en su versión inicial.

En primer lugar, una norma de estas características comporta un riesgo evidente de sobre-remoción (y, en caso de aprobarse la reforma, de sobre-denuncia) de contenidos. Si pende sobre las plataformas una espada de Damocles en forma de grandes multas para aquellos casos en los que no han acertado a considerar un determinado contenido como ilegal, está claro que dichas compañías preferirán ‘pecar por exceso’ antes que ‘por defecto’, procediendo pues a eliminar (y eventualmente a denunciar) cualquier contenido que suscite la mínima sospecha de ser ilegal. Es evidente el impacto que ello tiene sobre el ejercicio de la libertad de expresión, especialmente si tenemos en cuenta el hecho de que, en puridad, no estamos frente a una decisión de carácter estrictamente privado, sino ante una limitación materialmente implementada por una compañía privada, aunque sobre la base de una obligación (y hasta podríamos decir que presión) derivada de una norma jurídica cuyo cumplimiento es verificado por parte de las autoridades.

[Escuche el ‘podcast’ La Semana de Agenda Pública]

La segunda reflexión está en buena medida ligada a la primera. Siendo cierto todo lo anterior, será necesario pues concluir que, en puridad, nos encontramos ante el ejercicio delegado de la potestad (típicamente estatal hasta la fecha) de determinar el alcance legítimo de la libertad de expresión y, lo que es más importante, actuar en consecuencia (especialmente en lo que se refiere a la retirada del contenido correspondiente). Es evidente, y no es este complejo asunto el contenido del presente artículo, que las plataformas defienden, sobre la base de su propio modelo de negocio, el derecho a establecer sus propias condiciones de uso y normas de comportamiento, por lo que, en principio, los usuarios deberían asumir que los límites y parámetros que rigen en el entorno virtual correspondiente no son los propios de un espacio público abierto.

Sin embargo, en aquellos casos en los que las plataformas son forzadas a convertirse en instrumento de aplicación de normas jurídicas, insisto, éstas no estarán ya actuando en su condición de meros sujetos privados, sino como intérpretes y ejecutores, ex lege, en la delimitación nada más y nada menos que del legítimo ejercicio de un derecho fundamental. Es verdad que todas estas decisiones pueden sujetarse en última instancia a control jurisdiccional, pero el impacto de la remoción inmediata de un determinado contenido difícilmente podrá compensarse con una decisión judicial favorable a las pretensiones de su autor.

Es innegable la importancia que, en el marco de la formación de la opinión pública e incluso el fomento de la cohesión, la paz social y la seguridad, desempeñan los contenidos distribuidos a través de las redes sociales. Lo que resulta menos evidente es que las autoridades abdiquen de los procedimientos y garantías anudados a cualquier decisión relativa al ejercicio de derechos fundamentales para transferir dicha tarea a entidades privadas que actúan con menor transparencia y equidad y cuentan, asimismo, con considerables incentivos para tomar decisiones que los mecanismos propios del Estado de Derecho no podrían en muchos casos adoptar en muchos casos. O quizá precisamente era de eso de lo que se trataba.

Autoría

Deja un comentario

X

Uso de cookies

Esta página utiliza cookies propias y de terceros para mejorar nuestros servicios y mostrarle información relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso.. Puede cambiar la configuración u obtener más información aquí.