En 2022, China tendrá una cámara de vigilancia de circuito cerrado (CCTV) por cada
dos habitantes. Una ciudadana que haga negocios en Londres es captada en un único día por unas
300 cámaras. En Atlanta ya hay 16 de ellas por cada 1.000 personas. La inteligencia artificial aplicada a la vigilancia se extiende más rápido de lo esperado. Al menos
65 de los 176 países del mundo utilizan activamente la tecnología para rastrear y controlar a la ciudadanía. Ante la ausencia de una regulación específica, las empresas privadas y los organismos públicos, tanto en las democracias como en los estados autoritarios, han estado adoptando esta tecnología a discreción. Parece que
ha llegado el momento de poner orden.
Es innegable que el reconocimiento facial, la aplicación biométrica utilizada para identificar o verificar la identidad de una persona, está cada vez más presente en nuestra vida cotidiana. Es usada para
etiquetar a personas en redes sociales y para desbloquear teléfonos; para el
check-in en algunos aeropuertos o para controlar la atención del alumnado en la escuela. No parece existir un consenso social sobre la ética del reconocimiento facial, y crece la inquietud. Existen demasiados interrogantes sobre la conveniencia de sus aplicaciones y los límites de las mismas.
Los algoritmos utilizan características faciales para identificar, verificar y clasificar a los individuos. El rostro de una persona es un elemento único y frágil. Es su identidad y, de alguna manera, también su singularidad. La libertad nos garantiza poder elegir cambiar de aspecto si así lo queremos.
Convertir el rostro humano en otro objeto de categorización mediante procesos automatizados controlados por empresas y gobiernos genera muchas preguntas; y muchas preocupaciones, no sólo relacionadas con la privacidad.
Para abordar adecuadamente los efectos de esta tecnología, es importante comprender, primero, dónde se implementan estas herramientas y cómo se utilizan. El
think tank Carnegie Endowment ha creado un índice global de sistemas de vigilancia de inteligencia artificial. En la siguiente ilustración se puede observar la expansión del reconocimiento facial en todo el mundo.
[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
Las Fuerzas y Cuerpos de Seguridad han comenzado a utilizar esta tecnología para diferentes fines, entre ellos la identificación de sospechosos. Como consecuencia, ha surgido un debate intenso. A pesar de que una gran parte de los norteamericanos
confían en su uso responsable por parte de los poderes públicos, saben poco sobre el reconocimiento facial y no quieren que las empresas privadas puedan tener acceso a los datos con fines publicitarios. De hecho, cada vez son más los gobernantes preocupados por su uso en nombre de la ley y el orden.
¿Hasta qué punto merece la pena la pérdida de privacidad a cambio de la promesa de una mayor seguridad?
San Francisco y algunas otras ciudades
han prohibido que sus departamentos de Policía hagan uso de esta herramienta. La regulación es posible en ciudades y estados donde existe una fuerte oposición a que las fuerzas de seguridad usen la tecnología. Todavía no funciona bien. La Unión Estadounidense por las Libertades Civiles (Aclu, por sus siglas en inglés) puso a prueba el sistema de reconocimiento facial de Amazon y los resultados hicieron saltar las alarmas. Se escanearon con el programa
Amazon Rekognition las caras de los 535 miembros del Congreso de Estados Unidos y las cruzaron con 25.000 fotografías públicas de sospechosos policiales. ¿El resultado? El sistema confundió a 28 congresistas con posibles delincuentes. ¡Sorpresa!
El sistema falla. Hay evidencia de que existen
sesgos étnicos y que sistemáticamente se perjudica a la ciudadanía afroamericana.
Casi el 40% de las coincidencias falsas en el análisis de los políticos norteamericanos se correspondían con las fotografías de personas de color, pese a que estas sólo representan un 20% de los congresistas. Un informe reciente reveló que el sistema utilizado por la Policía metropolitana de Londres
fallaba en cuatro de cada cinco casos.
Y todo puede empeorar. Diversas investigaciones han mostrado el peor uso que se le puede dar a este tipo de herramientas, cuyo potencial para mejorar nuestras vidas es enorme:
China y la caza de la minoría musulmana 'uighur', a cuyos miembros encierran en campos de detención una vez identificados. Pero insisto, no hace falta irse tan lejos ni pensar que es algo de lo que sólo hay que preocuparse si vives en un país bajo un régimen autoritario.
Entendiendo que existen reticencias a regular la tecnología para no lastrar el proceso de innovación y desarrollo, no debe ignorarse la preocupación creciente manifestada por distintos grupos ante la completa autonomía de la que disfruta actualmente la inteligencia artificial y, particularmente, de algunas de sus aplicaciones. Los riesgos que entraña la manipulación de los votantes cuando se usa la tecnología para recomendar contenidos mediante algoritmos lo explicamos cuando afirmamos que
Facebook podía influir en el voto y nadie lo controlaba. En el caso del reconocimiento facial, es evidente que se pueden causar
daños colaterales gravísimos, que afectan especialmente a grupos de población vulnerables como minorías, menores o personas de ingresos bajos.
Lo que todavía no está tan claro es cuál es el problema que pretende solucionar el reconocimiento facial masivo. Puede que sea ésa la razón por la cual varias jurisdicciones de todo el mundo se han movido para imponer una moratoria sobre el uso de esta tecnología.
Necesitamos evaluar no sólo la tecnología por sus propios méritos, sino también por la dirección que toma cuanto más se despliega. Debemos garantizar un marco de desarrollo tecnológico en el que se evite que la vigilancia mejorada por la inteligencia artificial viole la privacidad y las libertades civiles; que se use para difundir contenido falso y dañino; para atacar a gobiernos, organizaciones e individuos, y que proteja la privacidad de los datos.
Europa discute actualmente la ética de la inteligencia artificial y la necesidad de regulación en sentido amplio. Sin duda, será clave para garantizar que todas las organizaciones y gobiernos asumen la responsabilidad que les corresponde, siendo necesariamente transparentes en el uso de la tecnología. Debemos asegurarnos de que entendemos cómo podemos conseguir que ésta se utilice de manera segura y responsable.
Probablemente haya llegado el momento en el que toque también determinar si hay algún caso en el que la tecnología de reconocimiento facial pueda permitirse en una sociedad democrática. Dependiendo de la respuesta, deberemos ponernos en marcha para implementar las salvaguardas necesarias que garanticen los derechos fundamentales de toda la ciudadanía.