-
+

Facebook castiga a Netanyahu

Joan Barata

6 mins - 16 de Septiembre de 2019, 21:40

Cuando falta muy poco para que concluya la campaña electoral en Israel, diversos medios se han hecho eco de que la red social Facebook había suspendido temporalmente (durante 24 horas) una de las aplicaciones de la página del primer ministro y candidato Netanyahu (concretamente, un chatbot) por violar las normas de uso de la plataforma en lo que se refiere al discurso del odio. Concretamente, a través de dicho sistema se había enviado un mensaje afirmando que los políticos árabes querían "destruirnos a todos".
 
Se trata de una noticia hasta cierto punto anecdótica y que, sin embargo, ha tenido una repercusión internacional y una cobertura mediática mucho mayores que buena parte de los debates políticos, mucho más de fondo, que han venido teniendo lugar durante el periodo señalado.

Ello se debe, principalmente, a la cada vez mayor relevancia del debate acerca del papel de las plataformas en línea, y especialmente las redes sociales, en la moderación de los contenidos colgados por terceros. Este debate se mueve entre dos extremos aparentemente incompatibles: mientras hay quienes (especialmente en el terreno de las autoridades) creen que estas empresas hacen poco para eliminar ciertos contenidos indeseables, otros advierten de que estos intermediarios han devenido un aparato de censura privada sistemática.

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

El caso que nos ocupa tiene unas características particulares que merecen un cierto comentario. En primer lugar, no estamos hablando de la decisión de suspender la cuenta o cercenar la posibilidad individual de expresarse por parte del candidato, sino de la decisión de impedir el uso de un sistema de inteligencia artificial incorporado a la cuenta en cuestión, el cual permite simular conversaciones humanas con terceros que interactúan con la página. Se suspende, pues, un programa de inteligencia artificial por algo que dicho programa ha creado y difundido.

Sin embargo, nadie ha cuestionado el hecho de que la responsabilidad de la difusión del mensaje es en todo caso, de los humanos que gestionaban la página y el programa, ya que el mismo combinaba mensajes e ideas introducidos por personas físicas; las cuales, en última instancia, hubiesen podido impedir la difusión del mensaje en cuestión. Esto es una obviedad que siempre es importante subrayar frente a quienes articulan complicadas teorías jurídicas para encauzar legalmente lo que no es sino fruto de un diseño netamente humano y, por ello, bajo la responsabilidad también de personas físicas.

En segundo lugar, es cierto que en este caso lo que está en cuestión es la atribución al contenido en cuestión del carácter de 'discurso del odio'. Ésta es una categoría jurídica compleja y, a menudo, interpretada de forma expansiva y abusiva (en España tenemos ejemplos dramáticos de esta desviación) para encajar todo aquello que pueda resultar ofensivo o hiriente para un determinado grupo de personas.

Lo interesante, sin embargo, es que Facebook no utiliza el ordenamiento jurídico israelí (entendemos que, a priori, aplicable al caso) para determinar si la expresión del bot es o no constitutiva de discurso del odio. Es más, hasta donde llega mi conocimiento, ninguna autoridad del país ha considerado intervenir en la materia. Si lo hubiese hecho, es obvio que hablaríamos de sanciones bastante más gravosas que la suspensión temporal del uso de un programa informático. Lo que ha hecho Facebook es aplicar su propia definición de lo que es discurso del odio. Una definición interna que no es el fruto de ningún debate legislativo o consulta democrática, sino el resultado de un proceso interno de decisión corporativa acerca del contenido que es o no aceptable en la plataforma. Y no estamos hablando aquí de una decisión privada aplicable solamente al territorio de Israel, sino a un conjunto de normas que se aplican globalmente, independientemente del territorio físico concreto de que se trate.

En el caso de Facebook, es innegable que la definición de lo que es discurso del odio es bastante amplia, incidiendo pues potencialmente en expresiones que en diversos países de corte liberal formarían parte del derecho a la libertad de expresión, y sin coincidir tampoco con los parámetros en virtud de los cuales el derecho internacional ha delimitado dicho concepto: la plataforma considera discurso del odio cualquier ataque directo contra personas que se basa en lo que se consideran características protegidas (tales como raza, etnicidad, religión, casta, género u orientación sexual, entre otras). Sobre la base de dicha definición e independientemente, pues, de cualquier otro debate basado en el derecho positivo (donde la calificación como discurso del odio sería, creo, bastante dudosa), parecería que lo publicado en la cuenta de Netanyahu sí podría incluirse en la categoría en cuestión.

Sin embargo, es cierto también que la razón de ser de dicha definición no puede buscarse solamente en quienes controlan y dirigen la plataforma, sino en una creciente presión, por parte de autoridades públicas de diverso nivel y origen, con el fin de que las plataformas moderen y limiten, por ellas mismas, determinados tipos de expresiones. Esta presión se ejerce tanto con la imposición de responsabilidades de diverso orden en el caso de que determinado tipo de expresiones acaben colándose (véase, por ejemplo, la ley aprobada recientemente en Francia sobre esta materia), como con la amenaza de regulaciones estrictas en caso de no llevar a cabo estas tareas de forma forzosamente voluntaria (como sucede con el código de conducta firmado en 2016 entre la Comisión Europea y Twitter, Facebook, Microsoft y YouTube). Ello lleva, inevitablemente, a la aplicación de un particular celo por parte de las plataformas en la evitación y eliminación (automática, en muchos casos) de contenidos que puedan acabar situando a aquéllas en una situación de responsabilidad, dando lugar a un escenario (ya bien documentado) de excesiva eliminación de contenidos.

Vemos, pues, que el carácter global de las actividades y normas internas de las grandes plataformas no impide a los estados, especialmente aquéllos que tienen normas más restrictivas en materia de contenidos, influir en su comportamiento. Queda, sin embargo, mucho recorrido para evitar que dichas normas sean aplicadas de forma no transparente y, en muchos casos, arbitraria. Por lo tanto, es necesario profundizar en la cada vez más compleja interacción entre normas públicas y privadas en materia de contenidos a fin de evitar que las consecuencias de dicha confusión la sufran quienes aspiran a expresarse libremente en el ciberespacio.
¿Qué te ha parecido el artículo?
Participación