Hace poco más de una semana nos resultaba ocurrente, divertido e incluso interesante poner
al Fary a hablar en inglés sobre el hombre blandengue. Los ojos se nos hacían chiribitas con lo divertida y creativa que podía ser una inteligencia artificial capaz de traducir a otro idioma un video o un audio con nuestra propia voz. Por fin la frase “inglés nivel medio” iba a tener pleno sentido, y los traductores universales de la ciencia ficción se materializarían. En la consideración pública del fenómeno, el análisis del riesgo parecía ceder ante la novedad.
Solo dos días después nos dimos de bruces con la dura realidad.
No prestamos mucha atención el lunes a sí las grabaciones del Fary están protegidas por derechos de propiedad intelectual. No nos preguntamos si el medio de comunicación que las generó conserva algún derecho de explotación. Y, sin embargo, un enfoque de este servicio basado en el análisis de riesgos debería habernos puesto en alerta. Seguramente no todos hicimos las preguntas pertinentes. ¿Cómo es posible que cualquiera pueda coger un video de Internet, subirlo a este servicio y realizar la traducción? ¿Bajo qué condiciones opera el proveedor? ¿Qué derechos se reserva? Y, desde el punto de vista de su fiabilidad, ¿las traducciones podrían generar conflictos o malentendidos? Estas preguntas quedan particularmente opacadas en el momento en que descubrimos que unos menores extremeños usaron imágenes de sus compañeras para crear ficticias películas porno.
Es más, alguno tiene incluso la peregrina idea de practicar sextorsión. Y así, de repente, sin solución de continuidad pasamos de la chanza a casi el terror.
¿Qué hemos aprendido respecto del impacto de las tecnologías en nuestros derechos en los últimos 20 años? ¿Para qué celebramos el día de la internet segura desde hace más de un decenio? De algún modo podríamos tener la falsa impresión de no haber aprendido casi nada. En el momento de redactar estas líneas, la mayor parte de medios de comunicación centra su análisis en los menores.
Nos interesa la calificación de la conducta y la eventual atribución de responsabilidad penal. O aspectos de naturaleza sociológica, en la carencia de educación en valores o en cómo el porno ha sustituido trágicamente a la educación sexual.
Y es hora de plantearse si de nuevo vamos a aplicar el tradicional esquema reactivo que ha caracterizado a nuestra acción pública en relación con las tecnologías digitales.
[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
La mayor parte de aproximaciones de la doctrina jurídica a este fenómeno tienden a ser pesimistas. Se constata que la rápida evolución tecnológica no es capaz de ser abarcada por el derecho,- no se le pueden poner puertas al campo, se decía en los albores de este Siglo XXI-, que el poder de las empresas multinacionales es omnímodo y que desde el derecho nacional, las capacidades de acción son mínimas.
Precisamente por ello, la Unión Europea se ha embarcado con muy buen criterio en el esfuerzo regulador que conducirá al Reglamento de Inteligencia Artificial y a la Directiva sobre responsabilidad civil en esta materia.
A este argumento se suma el de la pretendida
“neutralidad tecnológica”. Al parecer las tecnologías son neutrales por definición y hay que atribuir a los usuarios los usos inadecuados. Esta afirmación resulta sencillamente inasumible. En primer lugar, porque los hechos demuestran que en las dos últimas décadas el modelo de negocio digital se ha definido de modo muy preciso y las tecnologías emergentes son monitorizadas en su ciclo de vida, madurez y disrupción entre otros por Gartner.
La realidad es que en no pocas ocasiones los desarrolladores y los gestores de negocio no integran en su “estado del arte” la ética y el cumplimiento normativo. Ni la ética ni el derecho se integran en los procesos de identificación de requerimientos para el desarrollo de la IA, en su concepción y análisis, ni en las etapas de su desarrollo: investigación, prototipado, diseño, pruebas, entrenamiento y validación.
Quien ha diseñado una IA que produce pornografía no puede desconocer ni más de un siglo de protección de la intimidad y la imagen, ni la historia de la propiedad intelectual, ni las casi cinco décadas de protección de los menores. Y en la medida en la que no consideró los riesgos derivados de su tecnología y no adoptó medidas responsables para gestionarlos debería ser reputado responsable.
Desgraciadamente, en la mayor parte de los análisis solemos olvidar que la acción de los poderes públicos en estos casos se requiere aquí y ahora. No existe duda alguna sobre cómo las lecciones aprendidas inspirarán la futura legislación. Sin embargo, la falta de un marco regulador específico no es excusa. Sin perjuicio de los aspectos penales que están siendo profundamente analizados podemos evaluar los hechos desde el punto de vista de distintos sectores del ordenamiento jurídico.
Es evidente que, tanto en los convenios internacionales suscritos por España como en la Constitución Española y el ordenamiento jurídico existen herramientas dirigidas a la garantía de los derechos de los menores. Por poner un ejemplo muy obvio,
Ley Orgánica 8/2021, de 4 de junio, de protección integral a la infancia y la adolescencia frente a la violencia, ofrece un marco respecto de las violencias ejercidas a través de la tecnología. Y aunque es una ley eminentemente programática contempla herramientas para la acción.
De manera muy precisa su artículo 52 atribuye funciones y competencias a la Agencia Española de Protección de Datos y define como finalidad esencial de su acción pública garantizar una protección específica de los datos personales de las personas menores de edad en los casos de violencia ejercida sobre la infancia y la adolescencia. Especialmente cuando se realice a través de las tecnologías de la información y la comunicación.
Esta previsión específica obliga a reflexionar sobre la dimensión del asunto a la que seguramente estemos prestando menor atención. Debería preocuparnos que acciones van a emprender los poderes del Estado en relación con esta materia. L
a Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, indica de modo muy preciso que los derechos y libertades consagrados en la Constitución y en los Tratados y Convenios Internacionales en que España sea parte son plenamente aplicables en Internet. Y ordena a los prestadores de servicios de la sociedad de la información y los proveedores de servicios de Internet contribuir a garantizar su aplicación. Y esta es la cuestión,
¿Qué responsabilidad incumbe en estos hechos la cadena de proveedores de servicios que operan en internet?
El desarrollador de este lúbrico invento debería conocer de modo muy preciso que casi sin excepción todos los ordenamientos jurídicos, constitucionales o no, protegen el derecho a la intimidad personal y familiar, a la propia imagen y al honor. Y en el caso de los menores con mayor intensidad. Deberían saber que la oferta de bienes o servicios a dichos a personas radicadas en la Unión cuando se tratan datos personales obliga a cumplir el Reglamento General de Protección de Datos independientemente de si se requiere un pago. Por otra parte, la filosofía inspiradora del marco regulador de los servicios de la sociedad de la información es la misma y el escenario de responsabilidad proactiva se ha incrementado con el Reglamento de Servicios Digitales. Ello sin perjuicio de la posible exigencia de responsabilidad por los daños infringidos sea esta contractual o extracontractual.
Lo obvio es que el desarrollo de cualquier servicio en Inteligencia Artificial viene obligado a cumplir con el derecho preexistente que de forma ineludible forma parte de su estado del arte. No es concebible bajo ningún punto de vista el diseño intencional de una IA que se presente como un instrumento para la comisión de delitos. Y si este riesgo existe obliga a la empresa titular a desplegar las máximas cautelas en el proceso de contratación y uso de la misma.
Nunca un menor debió poder llegar a usar esta tecnología, nunca debió poder registrarse y ni un menor, ni un adulto, deberían poder jamás cargar imágenes reales sin prueba indudable y fehaciente de contar con la titularidad sobre las mismas, con los debidos permisos y/o consentimientos. Cualquier otro enfoque no es otra cosa que hacerse trampas en el juego del solitario. Sin embargo, este tipo de conductas ni es ni casual, ni es inusual. En unas ocasiones responde a una carencia absoluta de ética y soporte jurídico. En muchas otras, obedece a un cálculo de riesgo regulador intencional. La compañía busca una rápida monetización y esos ingresos rápidos y frecuentemente generosos le permiten afrontar cualquier multa o indemnización futura.
Los hechos demuestran que el argumento que descarga toda la responsabilidad en el usuario, no sólo es falaz, es una trampa discursiva que sustenta modelos de negocio ética y jurídicamente inadmisibles. Y esta afirmación de principio obliga a los poderes públicos, al Estado, a ejercer el poder de coerción que le confiere el derecho. Es obligación ineludible de las administraciones y poderes concernidos ponerse a trabajar intensamente buscando un enfoque holístico que contemple todas y cada una de las posibles acciones legales que sean viables.
Es el momento de lanzar un mensaje claro y directo a la industria.