-
+

De la limitación de la informática a la transformación digital

Ricard Martínez

4 de Diciembre de 2021, 08:53

La Constitución Española, en su artículo 18.4, establece que "ley limitará el uso de la informática". Se alinea con la Constitución portuguesa de 1976, que consagra el derecho fundamental a la protección de datos y prohíbe atribuir un número nacional único a los ciudadanos para evitar los cruces de datos y el control estatal. Una y otra se insertan en el contexto de la reivindicación de un nuevo derecho fundamental llamado 'hábeas data', libertad, informática, autodeterminación informativa y, finalmente, derecho a la protección de datos; también a la concepción de la informational privacy en Estados Unidos. 

Se trata de una respuesta funcional al despegue de la informática en el contexto de los totalitarismos de posguerra mundial, del macartismo y de la Guerra Fría. En el periodo de 1960 a 1980, la doctrina más reconocida reivindicó un nuevo derecho. Alan Westin (EE.UU.), Stefano Rodotá, Enrique Pérez Luño y Lucas Murillo de la Cueva subrayaron el profundo impacto que la evolución tecnológica podía producir en las libertades. Paralelamente, iniciativas como el 'Younger Committee's Report' de 1973 acompañarán acciones legislativas que cristalizarán en leyes como la del Land de Hesse de 1970, la Privacy Act de 1974 en EE.UU. o las leyes de Suecia (1973) o Francia (1978). En el ámbito regional europeo, el Consejo de Europa dictó sendas recomendaciones sobre ficheros públicos y privados que culminaron en el Convenio 108/1981, para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal. La doctrina, los legisladores y los tribunales definieron así las condiciones de limitación del Estado a la hora de procesar información personal, atribuyendo a las personas un derecho de control sobre los datos. En la sentencia de la Ley del Censo de 1982, el Tribunal Constitucional Federal alemán declarará que un ciudadano que se sintiera en todo momento vigilado por el Estado no podría autodeterminarse libremente.

Simultáneamente, las tecnologías de la información avanzaron al ritmo la Ley de Moore y se sofisticaron de forma acelerada. La transición al ordenador personal e internet marcará la necesidad de abordar no sólo la garantía de los derechos frente al Estado, sino también respecto del sector privado. Por otra parte, en la transición entre la primera generación de Internet y la Web 2.0 se manifestarán las posibilidades que ofrecen estas tecnologías, como brillantemente describiera Manuel Castells en La Sociedad Red y La Galaxia Internet. La aparición de las redes sociales y el despegue de los 'smartphones' consolidarán el modelo de negocio dominante en Internet: la 'monetización' de la privacidad

Sin embargo, tras los atentados del 11 de septiembre de 2001, y la aprobación de la USA Patriot Act o la directiva de conservación de datos en las telecomunicaciones, la acción de los estados en la lucha antiterrorista monopolizará la preocupación de la doctrina y de las organizaciones de defensa de los derechos fundamentales. Si sumamos a ello la generalización de la videovigilancia (David Lyon), la labilidad de la privacidad en una sociedad líquida (Zygmunt Bauman) o los riesgos en una sociedad transparente (Byung-Chul Han), siguieron incrementándose los riesgos para las libertades. Durante medio siglo este escenario de riesgo ha modulado la posición de la doctrina en relación con la garantía de nuestros derechos fundamentales ante un doble esquema de control informacional. Así, al control estatal se sumarán el perfilado y el 'filtro burbuja' (Eli Pariser) y el despegue de técnicas publicitarias neuro-emocionales, cuya manipulación intencional permitió las estrategias de manipulación electoral de Cambridge Analytica, aquello que Zuboff denomina capitalismo de la vigilancia. 

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

Así, tanto el imaginario social como la aproximación filosófica y jurídica a esta materia, se consolidó una posición netamente defensiva en relación con la informática que en ocasiones manifiesta una oposición, una desconfianza absoluta sobre ciertos tratamientos que pudieran realizar tanto el sector público como el privado. La posición de Yuval Noa Harari y otros autores durante la pandemia de Covid-19 sería un claro ejemplo de ello.

En este sentido, la única opción viable para garantizar nuestros derechos no puede ser otra que una constante escalada regulatoria, en la que la paradoja de Aquiles y la tortuga siempre estaría presente, ya que la velocidad disruptiva de las tecnologías de la información se acelera de modo implacable.

Sin embargo, el último decenio viene anunciando un cambio de paradigma. La combinación de la computación en la nube y las herramientas analíticas alimentan nuevos modelos a la hora de abordar y explotar los datos para los sectores público y privado. La más evidente consiste en cómo la inteligencia artificial, anunciada en el seminario del campus del Dartmouth College en el verano de 1956, alcanza un cierto grado de madurez en el caso de la IA de propósito singular. Si sumamos la sensorización de la Internet de los Objetos y la conectividad que de las redes 5G, nuestro mundo se abre a una nueva fase de innovación disruptiva: la Cuarta Revolución. 

Hoy cabe plantearse cuál es el sentido que deberíamos dar a la limitación constitucional de los usos de la informática. A nuestro juicio la UE, en su estrategia digital, ha definido una aproximación muy precisa que implica un salto cualitativo fundamental: apuesta por un diseño del tratamiento de la información desde una aproximación centrada en el ser humano y en la garantía de sus derechos fundamentales, y fomenta la utilización directa y la reutilización de todo tipo de información. La transformación digital comporta necesariamente la analítica de datos no personales, personales y anonimizados y la definición de entornos de tratamiento confiables. Para ello, se ha diseñado un ecosistema normativo que incluye, entre otros, el Reglamento General de Protección de Datos, el Reglamento sobre uso de datos no personales y la Directiva 'Open Data'. A ellas se sumarán la 'Data Governance' y el Reglamento sobre la IA.

La primera persigue crear un sector de intermediación en el uso seguro de datos de carácter personal que incremente el volumen de reutilización de los datos procedentes del sector público, que permita la compartición de datos del sector privado en entornos confiables y que fomente la donación de datos por parte de las personas. Este nuevo ecosistema requiere de entidades capaces de garantizar adecuadamente nuestros derechos. Adicionalmente, los resultados del Grupo de Expertos de Alto Nivel sobre IA y las reflexiones estratégicas en materia de ética y responsabilidad civil del Parlamento Europeo cristalizan en una propuesta de Reglamento que se centra en la calificación y análisis del riesgo y en la definición de responsabilidades de cada uno de los operadores. 

La conclusión es obvia: el Espacio Europeo de Datos no puede funcionar desde la aproximación defensiva clásica. La garantía de los derechos fundamentales es irrenunciable, pero, a partir de ahora debería descansar en la protección de datos desde el diseño y por defecto. El tratamiento de datos exigirá un enfoque centrado en el análisis de riesgos y en la definición de las condiciones que los eliminen, mitiguen o controlen. Además, exigirá el despliegue de una panoplia de medios tecnológicos entre los cuales descuellan las Privacy Enhancing Technologies y las técnicas que erigen la seguridad y la trazabilidad en el centro del sistema. El 'código', como ya señalara Lessig, se erige en un instrumento indispensable para la garantía de los derechos. 

Los sectores público y privado deberán dotarse de altas capacidades para el abordaje ético, jurídico, y tecnológico necesarios para el despliegue de los nuevos entornos de explotación de la información. Y éste es un esfuerzo que sólo puede ser conjunto, desde el diálogo y la concertación y desde un profundo conocimiento de la materia. La Ley española adelantó este escenario en 2018 atendiendo a quienes en sede parlamentaria reivindicamos un modelo seguro para la investigación con datos en salud, centrado en la definición de entornos tecnológicos confiables y soportados por modelos de responsabilidad jurídica y gobernanza de los datos. Hoy, España es sin duda el entorno más favorable del conjunto de la Unión para la investigación y para el nacimiento de nuevas ideas de innovación en salud digital al servicio del bien común. Ello, además, debería estimular una transformación de este sector y acrecentar su confiabilidad y competitividad. El premio de la Agencia Española de Protección de Datos a nuestra investigación aplicada al 'Proyecto HealthData29' demuestra que, además, es un escenario de alta calidad en la garantía de los derechos.

El conjunto de planes ordenados sobre la transformación digital de nuestro país va a ser altamente dependiente del cumplimiento normativo en esta materia, y ello exigirá, sin lugar a dudas, de un abordaje tan garantista como sofisticado. Poco antes de su muerte, en el contexto del Conversatorio sobre Derechos Digitales, Stefano Rodotá alertó una vez más sobre el impacto de las tecnologías de la información y las comunicaciones en nuestras libertades. El espíritu de su obra seminal Tecnologie e diritti sigue vivo y exige que seamos capaces de definir el escenario de una tecnología concebida desde los derechos humanos, garante de los mismos y al servicio del bien común.

Contra la pandemia, información y análisis de calidad
Colabora con una aportación económica

¿Qué te ha parecido el artículo?
Participación