Las últimas acciones emprendidas por la Unión Europea y cuarenta y un estados de la Unión frente a las redes sociales más importantes anuncian un cambio de paradigma y parecen de algún modo dar la razón a la política legislativa europea.
De una parte , la Comisión indaga a
X y a
Meta,
Tik-Tok y en aplicación del Reglamento de Servicios Digitales, (DSA por las siglas en inglés de
Digital Services Act). En el primer caso el motivo se refiere a la
supuesta difusión de contenidos ilícitos y desinformación, en particular la difusión de contenidos terroristas y violentos y la incitación al odio. En el segundo se consideran las medidas adoptadas
para cumplir las obligaciones relacionadas con las evaluaciones de riesgos y las medidas paliativas para proteger la integridad de las elecciones y tras los atentados terroristas perpetrados por Hamás en todo Israel,
en particular en lo que respecta a la difusión y amplificación de contenidos ilegales y desinformación. Los plazos de respuesta finalizaban respectivamente los días 18 y 25 de octubre.
Todas y cada una de estas redes sociales han sido consideradas plataformas en línea de muy gran tamaño y ello les obliga, entre otras cosas, a analizar y evaluar con diligencia cualquier riesgo sistémico en la Unión que se derive del diseño o del funcionamiento o uso de su servicio y los sistemas relacionados con éste, incluidos los sistemas algorítmicos. Esta obligación supone un cambio de paradigma en relación con el
status quo anterior que era
meramente reactivo y no obligaba a realizar acción alguna hasta tener el conocimiento efectivo de la comisión de algún ilícito o de la causación de un daño por un usuario.
[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
Desde un punto de vista material, la norma incorpora el enfoque basado en el riesgo que inauguró el Reglamento General de Protección de Datos y que está integrando cada pieza normativa de la UE en el ámbito digital.
Este enfoque implica la necesidad de desarrollar metodologías en todos los niveles para identificar la probabilidad de que se materialice cualquier impacto en los derechos fundamentales u otros bienes jurídicos relevantes ya sea debido a una vulnerabilidad o a una amenaza. Su vulneración se considera un riesgo sistémico y, en consecuencia, se les impone una obligación de diligencia en la medida en la que juegan un papel relevante en el ecosistema digital y ocupan una posición de dominio cuya responsabilidad se traduce en el despliegue de un rol de garante.
Es una obviedad que estos entornos digitales disponen de recursos más que suficientes para desplegar algoritmos de personalización de una enorme profundidad. No en vano les han permitido liderar el mercado mundial de la publicidad.
En este sentido, ninguna red social es ya un mero contenedor de información. Si así fuera las personas usuarias verían su espacio por orden meramente cronológico y no en el que decide el proveedor conforme a sus intereses. Por tanto, esas capacidades pueden y deben desplegarse también en la gestión del riesgo. En ningún caso esta metodología obliga a una retirada per se de cualquier contenido. El análisis de riesgos se dirige a identificar el riesgo potencial, a establecer medidas de remedio y a disponer de un plan de reacción y contingencia.
Es una obviedad, al menos para cualquier experto en el mundo digital que las situaciones de crisis política, económica, social o geoestratégica, -como es el caso-, las catástrofes naturales o los procesos democráticos son contextos generadores de riesgo.
Y es harto conocido que el riesgo por excelencia consiste en la proliferación de fake news y en la incitación a la polarización social incluido el discurso de odio. En consecuencia, se trata de eventos fácilmente previsibles incluso para personas no expertas. Por otra parte, como ya demostró el asunto Cambridge Analytica, el riesgo no sólo deriva de los contenidos sino también del modo en el que puede instrumentalizarse el funcionamiento de la red social y/o la manera en la que incluso sin una intencionalidad directa su algoritmo de personalización viraliza un contenido lesivo.
Por esta razón se obliga a los prestadores de plataformas y de motores de búsqueda de muy gran tamaño a gestionar el riesgo derivado del funcionamiento de sus sistemas algorítmicos y en particular de sus sistemas de recomendación y de publicidad. Para la DSA en tiempos de crisis la acción de remedio debe ser urgente exigiendo si procede medidas específicas. Estas crisis se caracterizan por la presencia de circunstancias extraordinarias que pueden dar lugar a una amenaza grave para la seguridad pública o la salud pública en la Unión o en partes significativas de la Unión y se identifican con conflictos armados o actos de terrorismo, las catástrofes naturales como terremotos y huracanes, así como las pandemias y otras amenazas transfronterizas graves para la salud pública.
Lo que se espera de estas redes no es otra cosa que poner su potencial tecnológico al servicio del bien común. El legislador europeo no ha definido una obligación genérica de diligencia. La UE ha establecido criterios muy precisos para la adopción de medidas que, sin duda, se encuentran en el estado del arte. Y por ello, estas entidades deben proceder a la “adaptación de los procesos de moderación de contenidos”. Esta obligación general se completa con un deber adicional diligencia y rapidez en el tratamiento de las notificaciones relacionadas con tipos específicos de contenidos ilícitos. Cuando los detectan es necesaria una
“rápida retirada de los contenidos notificados, o el bloqueo del acceso a ellos, en particular en el caso de la incitación ilegal al odio o la ciberviolencia”. Esta medida no es meramente reactiva, obliga a retroalimentar el plan de gestión del riesgo procediendo a la adaptación de los procesos de toma de decisiones pertinentes y a implementar recursos específicos para la moderación de contenidos.
Por otra parte, la
demanda presentada por la mayoría de los Estados de la Unión afirma que las plataformas de Meta se han diseñado intencionalmente para literalmente
“atraer, implicar y, en última instancia, atrapar a jóvenes y adolescentes”. De ser ciertas, las afirmaciones de la demanda son estremecedoras. Los Estados afirman que el esquema de Meta constaba de cuatro partes:
- A través de su desarrollo de Instagram y Facebook, Meta creó un modelo de negocio centrado en maximizar el tiempo y la atención de los jóvenes usuarios en sus plataformas de redes sociales
- Meta diseñó y desplegó un producto cuyas características eran perjudiciales y psicológicamente dirigidas a promover un uso compulsivo y prolongado de la plataforma, al tiempo que aseguraba falsamente al público que sus productos era seguros y adecuados para usuarios jóvenes
- Mientras tanto publicaba de forma rutinaria informes engañosos que alardeaban de una baja incidencia de daños a los usuarios
- A pesar de la abrumadora investigación interna, del análisis de expertos independientes y de los datos disponibles públicamente de que sus plataformas de redes sociales causan daño a los usuarios jóvenes, Meta sigue negándose a abandonar el uso de funciones perjudiciales conocidas y, en su lugar ha redoblado sus esfuerzos para tergiversar, ocultar y restar importancia al impacto de esas características en la salud mental y física de los jóvenes usuarios.
A partir de aquí se describe un modelo de negocio dirigido a maximizar el tiempo de permanencia de los jóvenes en la red social.
Por otra parte, existiría un diseño intencional orientado a estimular los mecanismos cerebrales de recompensa. En este sentido la generación de dopamina que producen los likes seguiría los mismos circuitos que producen adicción a las drogas o el juego. La dependencia se vería acrecentada al favorecer una suerte de
scrolling infinito en los que los contenidos nunca acaban y siempre hay que seguir. Por otra parte, la estructura visual y lumínica de la pantalla estimularía la vigilia afectando a los ciclos del sueño. Finalmente, la generación de contenidos favorecería la dismorfia en la concepción del propio cuerpo con resultados previsibles en términos de trastornos alimentarios. Por último, la compañía ni siquiera habría sido diligente en las obligaciones de verificación de edad que impone una ley vigente desde 1998, la
Children's Online Privacy Protection Rule ("
COPPA"). Resulta interesante constatar que la compañía es demandada mediante una acción civil sustentada en la Ley Federal (
15 U.S.C § 6504) que les permite solicitar del Tribunal la aplicación de la norma vulnerada, la prohibición de la práctica, denunciada, obtener daños, restitución u otra compensación en nombre de los residentes del Estado u obtener cualquier otra reparación que el tribunal considere adecuada.
Por otra parte, cada uno de los Estados demandantes invoca adicionalmente su propia legislación.
Las acciones legales descritas ofrecen lecciones relevantes.
La primera, no es otra que demostrar que ya pasó el tiempo de moverse rápido y romper cosas. La disrupción tecnológica no puede poner en riesgo nuestros derechos. Sin embargo, debemos considerar una segunda cuestión.
Hasta hoy, la tesis de redes sociales y buscadores consistía en afirmar que promovían el interés público facilitando un ecosistema para el ejercicio de la libertad de expresión y el debate democrático. Los hechos demuestran que esta era una afirmación falaz. La realidad es muy distinta. Las redes sociales y los buscadores no pueden buscar legitimación social, política o jurídica alguna erigiéndose en soporte indispensable para la formación de la opinión pública.
Este objetivo es inalcanzable debido a que el propio diseño de estos entornos favorece la divulgación de noticias falsas y la obstaculización del debate y la confrontación de pareceres. Cada día existen menos dudas sobre cómo el funcionamiento de los algoritmos diseñados específicamente para la agitación emocional que acompaña al consumo compulsivo produce un daño colateral que pone en riesgo nuestros derechos y la propia democracia.
La doctrina del libre mercado de las ideas que en su día aplicó el Tribunal Supremo de Estados Unidos en Reno v. Aclu debe ser reconsiderada en el contexto de las redes sociales y los buscadores. Y ello se debe a que no es en absoluto un mercado ni libre ni tecnológicamente neutral. El código informático y la algoritmia intencional convierten a los proveedores del servicio en el árbitro que decide qué es lo que cada usuario leerá en cada momento y bajo qué condiciones y en consecuencia todo aquello que se le oculta. En el mundo físico, la creación, distribución y acceso a la información viene determinado por las leyes y las propias capacidades de quien la emite, de la fotocopia a la televisión de gran audiencia. Jamás había existido entidad alguna con el poder de decidir aquello que deseamos leer a partir de un análisis de nuestra conducta, de nuestras emociones o de nuestra ideología.
Este es el negocio, y prueba de ello es que Meta ha venido a notificar exactamente cuál es el precio: su libertad podría valer hasta 17 dólares al mes si Vd. no desea que se le aplique el algoritmo de perfilado. Las redes sociales y los buscadores no son un mero contenedor siguen reglas muy definidas de catalogación, distribución y exhibición de la información.
Un negocio de este tipo, por muy legítimo que sea, no puede poner en riesgo el sistema democrático o la garantía de los derechos y trasladar su responsabilidad al usuario final.
El requerimiento de la UE y la demanda civil en EE.UU. demuestran que los operadores jurídicos no estuvieron a la altura de las exigencias de la digitalización en la primera década de este siglo. ¿Acaso no existía acaso jurisprudencia norteamericana o nacional sobre el derecho a la intimidad o a la propia imagen? ¿Y entonces por qué las rutinas de subida de imagen no obligan al usuario a asumir su responsabilidad y a trazar en caso de demanda las no consentidas? ¿No reconocían las leyes el principio del interés superior del menor? ¿Hemos podido invertir en algoritmos muy sofisticados, pero no en validaciones de edad a pesar de que se regularon en 1998? ¿Debimos esperar 20 años para entender que el perfilado en publicidad manipula a los menores? ¿Qué una máquina lea un correo que Vd. envía a una cuenta gratuita de un tercer proveedor no afecta a su secreto de las comunicaciones o a su intimidad? ¿Qué un algoritmo intencionalmente estimule su dependencia emocional o su adicción al juego no causa un daño relevante desde el punto de vista del Derecho Civil?
¿No sería razonable si se paga con nuestros datos sumar al RGPD la protección que otorga la legislación sobre derechos de los consumidores o las normas civiles sobre contratación?
Las lecciones aprendidas en los dos casos que nos ocupan son dolorosas y esperanzadoras a la vez. De un lado, demuestran que una legislación sofisticada podría reconducir Internet al respeto a los derechos fundamentales. De otro, que ante la disrupción tecnológica que vulnera derechos, la acción del Estado no puede ni debe esperar. Puede que una demanda civil nos imponga menos respeto que una multa administrativa de la Comisión Europea o de una autoridad de protección de datos. Sin embargo, es un instrumento que siempre estuvo ahí y perdimos la oportunidad de aplicarlo.
¿Seguiremos esperando de 1 a 5 años a la regulación de la responsabilidad civil de la inteligencia artificial o recordaremos el Código Civil que un día estudiamos? ¿Esperaremos otra década para recordar que el Ordenamiento, y particularmente en lo relativo a los derechos fundamentales, aplica aun siendo analógico? ¿Hemos aprendido algo?
ARTÍCULOS RELACIONADOS
KENT NISHIMURA (GETTY IMAGES)