-
+
FLORENCE LO (REUTERS)

¿Y si paramos de romper cosas con la IA?

Ricard Martínez

9 mins - 12 de Abril de 2023, 07:00

En el momento de redactar estas líneas más de mil personas, 1377, han firmado la carta abierta 'Pause Giant AI Experiments: An Open Letter' en la que se propone una moratoria de al menos seis meses en el desarrollo de la Inteligencia Artificial Las razones que avalan tal propuesta se basan con toda seguridad en el despegue acelerado de varias inteligencias artificiales como Midjourney, ChaptGPT o Abbrevia.me. La propuesta respondería entonces a la necesidad de gestionar el riesgo. La IA presenta para cualquier observador mínimamente avezado amenazas y vulnerabilidades significativas. El documento identifica la aceleración de la carrera tecnológica como la mayor de ellas. Por otra parte, la IA podría producir riesgos sistémicos para nuestros derechos y libertades, para la propia democracia, en función de la finalidad a la que se destina y del alcance que plantearía lograr una super-IA

Sin embargo, ni una sola de las consideraciones que aporta la carta abierta es mínimamente novedosa. Si en lugar de moverse rápido y romper cosas los sectores público y privado hubieran desplegado los pasos necesarios para garantizar el cumplimiento de la normativa preexistente, esta carta no habría sido necesaria. En primer lugar, resulta sencillamente indiscutible, al menos en aquellos estados que se definen como democráticos y/o sociales de derecho que la tecnología debe respetar los derechos fundamentales. Si el riesgo es tan acuciante como para solicitar una moratoria de seis meses en los desarrollos, solo admite una explicación: se es consciente de que los laboratorios de desarrollo están probando y/o lanzando al mercado productos cuyo funcionamiento o cuyo uso vulnera el conjunto de valores, principios y derechos que vertebran nuestras democracias y que no deberían ser objeto de comercialización. De ello tenemos sobrados ejemplos con Cambridge Analytica o Team Jorge

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

¿Por qué una super-IA preocupa a científicos, filósofos y juristas? El aterrador experimento mental que ofrece Max Tegmark en Vida 3.0 cuyo capítulo primero dibuja una uto-distopia contraintuitiva lo explica muy bien. Una empresa diseña una inteligencia de propósito general que gobierna el mundo desde una ética de la paz, la justicia, el desarrollo sostenible y los derechos fundamentales mediante la predeterminación, promoción y manipulación de toda una generación de profesionales de la política. Se alcanza un viejo sueño de la humanidad y, sin embargo, el ejemplo causa desazón. Demuestra que necesitaríamos una nueva divinidad, la IA, que nos predestine mediante las probabilidades que nacen de un conjunto de correlaciones que nunca fuimos capaces de diseñar, intuir o aplicar, pero que resultan banales para la máquina. 

Es fundamental entender, que los riesgos que se identifican en la Carta hunden sus raíces en el modelo de negocio que surgió desde finales de los años noventa hasta la aprobación del Reglamento General de Protección de Datos. Midjourney, ChaptGPT o Abbrevia.me, no han hecho nada distinto de lo que anteriormente hicieran Google, Facebook, Amazon y decenas de redes sociales o aplicaciones móviles: han actuado de modo más rápido y visible. 'Moverse rápido y romper cosas' fue la filosofía que ha dado lugar a esta crisis. La ventaja competitiva de muchas entidades en IA se basa en algo tan sencillo como en haber tratado nuestros datos durante décadas 'para mejorar la experiencia de usuario'. Bajo el paraguas benigno de un remedo del estado social, al que se refirió Morozov, se nos ofrecía como donación un contrato altamente oneroso. Cada uno de nuestros e-mails o búsquedas fue rigurosamente analizado, cada clic del teclado en su móvil, cada vez que regaló un like, que dictó audio en su mensajería y corrigió errores, cada paso caminado, cada latido registrado, estaba alimentando datos y dando vida a la actual generación de Inteligencia Artificial de propósito singular. Es más, no hace tanto que descubrimos que al otro lado de los asistentes vocales alguien escuchaba todo sin que en ningún momento se nos hubiera pedido permiso para participar en un laboratorio de analítica del lenguaje como sujetos de investigación.

Cuando en los años 90 del pasado siglo nos enfrentamos a la ingeniería genética y a la biotecnología el riesgo era evidente. La simple evocación de la posibilidad de engendrar quimeras, la manipulación de lo que nos caracteriza como seres humanos, removió nuestras conciencias. Miles de años de tradición religiosa y ética habían definido de modo muy preciso qué entendíamos bajo el concepto de humanidad. Hasta la persona más atea incorporaba una visión de lo que supone la esencia de ser humanos en su ADN cultural. De aquí, definiéramos un marco normativo, el Convenio de Oviedo, que ha inspirado la práctica en esta materia.      



No ha sucedido lo mismo ni en materia de privacidad, ni en IA, realidades que escapan a nuestro marco de referencia mental.  En una sociedad en la que el usuario no estuvo dispuesto a pagar un euro al año para evitar la monetización de sus datos en el primigenio WhatsApp, nunca alcanzamos la madurez suficiente ni desplegamos la voluntad política de promover un marco internacional sobre la privacidad. Y ello, pese al esfuerzo de la Agencia Española de Protección de Datos y de las autoridades de protección de datos de todo el mundo, en la Declaración de Madrid de 2009 que promovía unos estándares globales de privacidad, o a la creación en 2015 de una relatoría especial de Naciones Unidas

Y con nuestra inacción alentamos una carrera en la acumulación y uso de la información personal atesorada por muy pocos proveedores. Vamos camino de tres décadas de monetización de nuestros datos, en un marco de asimetría subrayado por Paul Schwartz, -'¡en 1998!'-, en el que siempre pierde el individuo, en el que el 'consentimiento explícito' del RGPD es absolutamente ineficaz. Este proceso ha permitido no sólo el despegue empresarial de determinadas compañías que operan en régimen de cuasi-monopolio en su segmento de servicios de la sociedad de la información, sino también la construcción de la infraestructura de hardware (cloud), software (analítica de datos) e información que les ha conferido  ventaja en el despliegue de modelos de IA huérfanos de cualquier fiscalización. Compañías que, a diferencia de su competencia, cuentan con recursos más que suficientes según Viktor Mayer-Schöenberger (Access Rules (2022), para cumplir el vigente marco normativo gracias al músculo financiero adquirido cuando la normativa era más laxa. Debemos entender, que este periodo retroalimentó el problema que hoy enfrentamos en el ámbito de la Inteligencia Artificial. 

Por otra parte, como han puesto de manifiesto los profesores Luis Moreno y Andrés Pedreño el despliegue de la IA se produce en un entorno de competencia que en los últimos tiempos adquiere tintes claramente geopolíticos. Y ello se produce en un contexto asimétrico en el que la Unión Europea va por detrás. Estados Unidos abandera el territorio de la interpretación generosamente lábil, cuando no fluida, de los requerimientos jurídicos exigibles a las tecnologías de la información y las comunicaciones. Por su parte, China despliega sus esfuerzos gracias a un capitalismo de estado que incorpora un significativo monopolio de las fuentes de datos y de control social total. Mientras, la Unión Europea se propone como un gigante regulador, adalid de los derechos fundamentales, extraordinariamente lento en su proceso legislador y atenazado por una interpretación de su propia normativa que opera disuadiendo de la investigación, la innovación y el emprendimiento. 

Desgraciadamente, la carta  abierta se instala en la alerta, en la identificación del riesgo y sólo encuentra una solución: apretar el botón del pánico. Desde hace bastante tiempo un sector de los investigadores venimos aplicando las metodologías propias del diseño basado en un enfoque de riesgo. Y en esta aproximación la pregunta relevante es cómo. Y la respuesta es doble.  Primero, obviamente, cumpliendo con las leyes. Así, la primera declaración de la Carta de Derechos Digitales,  impulsada por el Gobierno de España afirma el principio del Estado de Derecho. En segundo lugar, como señaló el Parlamento Europeo y se incorpora en la Propuesta de Reglamento de IA evolucionando la legislación cuando ello resulte necesario. De hecho, los autores de nuestra Carta en lugar de una estructura de principios o valores, optaron por una claramente proto-normativa que lanzaba un mensaje claro: no hay tiempo, nuestra velocidad y la de las tecnologías digitales es asimétrica, no podemos esperar ni en lo jurídico, ni en lo social, no podemos dejar a nadie atrás como se señaló expresamente durante la presentación del documento

Y no nos faltan modelos. El Convenio 108/1981 del Consejo de Europa para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal, junto con el marco regulador de los ensayos clínicos, son claros ejemplos de hacía dónde se debe caminar. Estas normas crean ecosistemas jurídicos y éticos muy precisos, se abren a la autorregulación y el compromiso individual y empresarial, pero definen a su vez un marco de tutela estatal garantizado por autoridades administrativas independientes dotadas de enforcement y de garantía jurisdiccional. 

Se requiere por tanto de una legalidad internacional y europea capaces de encauzar el diseño y uso de la Inteligencia Artificial y junto a ella un conjunto de políticas sociales que garanticen que en esta revolución no sacrificaremos a los más débiles, ni seguiremos forzando las reglas, ni menoscabaremos los recursos del Estado y las libertades públicas.  Necesitamos una IA para el bien común, y ello implicará nuevos modos de entender el trabajo, la empresa, la sociedad en su conjunto y nuestras propias democracias.  Encauzar el despliegue de la IA es un reto común a la humanidad que debe ser abordado con celeridad.  No basta con proclamas y declaraciones de principios, no basta con alertar sobre los riesgos, no basta con una moratoria, no basta con la autocontención, es momento para la acción decidida de los poderes públicos garantizando nuestros derechos y avanzando en la regulación internacional y nacional.  
 
Read the article in English

¿Qué te ha parecido el artículo?
Participación