El 9 de julio pasado, la Asamblea Nacional francesa aprobó la proposición de ley para combatir el odio en internet, que ha pasado al Senado. Su texto apela a la restauración del Estado de derecho en internet y sigue la estela alemana en la lucha contra el llamado ciberodio, esto es, el discurso del odio en la Red.
El discurso del odio abarca, por un lado, el llamado 'acoso discriminatorio', esto es, aquellos discursos discriminatorios o estigmatizadores de las minorías sociales que se hallan en una situación de especial vulnerabilidad; y aquí entrarían los discursos racistas, islamófobos, homófobos, discriminatorios hacia las personas LGTBI, hacia las mujeres etcétera. Y, por otro, aquellos discursos, mensajes o expresiones que, atendiendo a las circunstancias y al contexto en que fueron pronunciados, generen una alta y pronta probabilidad (que no mera posibilidad) de riesgo de incitación a la violencia contra estos colectivos.
Pues bien, la lucha contra el discurso del odio en Internet afronta retos específicos que derivan de la singularidad de la Red como soporte de transmisión de contenidos: así, su carácter transnacional convierte al ciberespacio en un lugar sobre el que los gobiernos nacionales tienen poca capacidad de control. Internet permite la difusión inmediata y a escala mundial de cualquier tipo de mensajes por cualquier usuario. Así, la difusión desde un servidor radicado en un territorio concreto tiene un alcance de propagación inmediata a miles de kilómetros de distancia, siendo difícilmente determinable cuál es la jurisdicción competente para conocer de los potenciales delitos en que se pudiera estar incurriendo. Esto resta de eficacia práctica a las legislaciones nacionales y a la labor de las autoridades.
[Recibe diariamente los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
Así las cosas, la transmisión y difusión de odio o violencia parecen encontrar en Internet un espacio abonado, dado el anonimato que permite a sus usuarios. Aunque existen normas penales en todos los estados miembros de la Unión Europea contra la difusión de estos mensajes, que son aplicables al ámbito de Internet, la identidad de los autores reside en manos de las empresas propietarias de las redes sociales, las cuales suelen haber firmado un contrato de confidencialidad con sus usuarios en el mejor de los casos; cuando no se trata de identidades falsas, únicamente verificables a través del IP del ordenador empleado para cometer la supuesta infracción.
Las redes sociales se han convertido en el espacio preferido para el insulto, la humillación, el linchamiento social, el acoso o la amenaza. Estas actitudes resultan especialmente graves cuando incurren en machismo, homofobia, xenofobia, islamofobia, transfobia, anti-gitanismo, antisemitismo o cualquier otra ideología contraria a la dignidad de los colectivos especialmente discriminados.
En este contexto, las medidas para combatir estos discursos que se han ido adoptando hasta la fecha van desde la promoción de la autorregulación y la implementación de filtros informáticos por parte de las empresas de Internet, hasta la exigencia de actuaciones y responsabilidades a éstas por parte de los poderes públicos.
En relación con las medidas de autorregulación, debe señalarse que todas las grandes redes sociales (Twitter, Facebook, Instagram, Tumblr, etc.) e incluso los medios de comunicación convencionales, cuyos foros de comentarios digitales son también un canal habitual para el ciberodio, cuentan con políticas o condiciones de uso que, en principio, lo prohíben. Condiciones que, en la mayor parte de los casos, como el de Facebook, se concretan en compromisos del usuario, previa advertencia de que la compañía no puede asegurar que sea un espacio seguro.
Ha sido la propia compañía de Mark Zuckerberg la que, en su Informe de 2018 (en el que, por primera vez, ofreció las cifras de publicaciones y cuentas que había bloqueado por contenido inadecuado o propaganda terrorista), y de acuerdo a sus estándares comunitarios, reconoció que su tecnología funciona con menor efectividad en cuanto a los discursos de odio, puesto que de los 2,5 millones de contenidos que incumplían las normas en este sentido, sólo había detectado el 38%.
El segundo de los instrumentos apuntados es la exigencia de actuaciones y responsabilidades a los prestadores de servicios de Internet por parte de los poderes públicos. Ésta ha sido la línea de actuación seguida por la Unión Europea en los últimos años. Así, a finales de mayo de 2016, se produjo la firma de un Código de conducta propuesto por la Comisión Europea por el que las empresas de Internet se comprometieron públicamente a evitar la proliferación de mensajes que fomentaran el odio, el racismo y la xenofobia a través de la Red. Con la suscripción de dicho acuerdo, se comprometieron a revisar las solicitudes de retirada de contenidos ilegales de incitación al odio en un plazo de 24 horas.
Además, asumieron establecer procedimientos transparentes de examen de los contenidos denunciados y a valorar las denuncias que reciban en sus servicios con arreglo no sólo a sus normas de autorregulación, sino teniendo en cuenta también las legislaciones nacionales de transposición de la Decisión Marco europea relativa a la lucha contra determinadas formas y manifestaciones de racismo y xenofobia, considerada la base jurídica del Código de Conducta.
Pues bien, éste es el marco en el que parece moverse el legislador francés con su proposiócin de ley para combatir el odio en Internet. Su artículo 1 establece un nuevo régimen de responsabilidad administrativa aplicable a los operadores de plataformas que alojan contenido público con fuerte implementación en Francia; esto es, que superen un cierto umbral de conexión en territorio francés, que será fijado por decreto.
Según la relatora del proyecto, la diputada Laetitia Avia, dicho umbral debiera fijarse en torno a los dos millones de conexiones por mes, lo que evidencia que bajo su ámbito de aplicación se encuentran todas las plataformas de contenido relevantes como YouTube, Facebook, Dailymotion, pero también lo serían medios como la sección digital de foros de comentarios de lectores de 'Le Monde'.
La proposición de ley impone a estos operadores la obligación de retirar o de hacer inaccesible, en un periodo máximo de 24 horas después de la notificación, todo contenido que contenga una manifiesta incitación al odio o un insulto discriminatorio por razón de raza, religión, sexo, orientación sexual o discapacidad. Las enmiendas introducidas en la tramitación parlamentaria han permitido añadir la provocación al terrorismo y su apología, los contenidos tránsfobos y el acoso sexual.
De acuerdo con la proposición legislativa, el incumplimiento de dicha obligación comportará una sanción, imponible por el Consejo Superior de lo Audiovisual, de hasta 250.000 euros para una persona física y 1.250.000 euros para una jurídica. Y, en su caso, una pena de un año de prisión.
El mismo artículo primero prevé, asimismo, mecanismos que los operadores deberán implementar para permitir a los usuarios contestar la decisión de retirada o no de los contenidos.
Para reforzar la cooperación entre los operadores de las plataformas y las autoridades judiciales en materia de identificación de los autores de contenidos ilícitos, el artículo 5 de la proposición de ley prevé la obligación para los primeros de disponer de un representante legal en Francia, pues el requerimiento judicial a operadores instalados en el extranjero ha resultado, hasta la fecha, especialmente complejo.
Es evidente que tanto el Código de Conducta de la Unión Europea como este proyecto francés promueven el protagonismo de las empresas de Internet en el control del discurso del odio 'online', algo que no es asumible desde la perspectiva de la salvaguarda de la libertad de expresión y de los principios del Estado de derecho.
Las características de la red de redes convierten la persecución de delitos cometidos en su seno en una tarea difícilmente abarcable si se desliga de la colaboración de las empresas de Internet, que son las únicas técnicamente capaces de cerrar las cuentas, facilitar identidades, etcétera con la mayor celeridad posible. Sin embargo, una cosa es pedir esa colaboración y otra muy distinta atribuir a compañías privadas, que se deben a los intereses comerciales de sus accionistas y cuyos mecanismos de revisión de contenidos no están sometidos a un marco de responsabilidad claro y transparente, que suplanten a las autoridades públicas en la decisión, persecución y sanción del discurso del odio 'online' mediante el cierre de webs y el borrado de contenidos.
¿Estamos dispuestos a dejar la libertad de expresión en manos de un algoritmo?