El interés actual por el dato ha nublado nuestra perspectiva histórica respecto a la inscripción, el registro y la notación de aquello que nos acontece y nos rodea. Esta fiebre no es algo nuevo, nos ha acompañado desde los mismos orígenes de nuestra civilización, como demuestran las tablillas sumerias, los pergaminos egipcios o los numerosos petroglifos del Neolítico. A partir de ese momento hubo una eclosión en la actividad de registro de datos y una evolución de las matemáticas hacia formas y fórmulas cada vez más complejas, capaces de predecir eventos y comportamientos futuros.
Esos dos componentes serán también los que definan el posterior esfuerzo científico de aproximación a la realidad, que alcanzará su formulación más ambiciosa ya a comienzos del siglo XIX, con el famoso demonio de Laplace. El matemático francés definiría su modelo como "una inteligencia tal que para ella nada es incierto, y el pasado, al igual que el futuro, están presentes ante sus ojos". Es decir, la posibilidad de un conocimiento omnisciente como programa de máximos para el saber humano. La evolución tecnológica que acompañó a la industrialización invitaba a un optimismo exagerado, mientras que la estadística se introducía en las Ciencias Sociales como una forma de explicar y predecir el comportamiento de grandes conjuntos de población.
Así, a la voluntad de registro y el uso predictivo de las matemáticas se unieron la capacidad tecnológica y su aplicación sobre el comportamiento social para dar lugar, a finales del siglo XX, a lo que hoy conocemos popularmente como big data. Con el desarrollo de grandes procesadores informáticos y una capacidad de almacenamiento jamás imaginada por los antiguos, junto con lenguajes de programación cada vez más funcionales, nos hemos sentido por un momento cerca de cumplir el sueño de Laplace, haciendo del dato uno de los elementos centrales de la articulación económica y política de la sociedad.
[Recibe diariamente los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
Este reinado del dato es, junto con el desarrollo de la inteligencia artificial, la manifestación más concreta de lo que se ha dado en llamar 'capitalismo cognitivo', la fase actual del modelo de producción y consumo postindustrial. Por eso también se habla de los datos como el nuevo petróleo y todas las empresas, en mayor o menor medida, están teniendo que afrontar una transformación digital en la que resultan fundamentales las tareas de recogida, procesamiento, análisis y comprensión del dato.
En todo este proceso, como parte de la disciplina de las ciencias de la computación, va a cobrar especial protagonismo un concepto familiar para los matemáticos y programadores, pero prácticamente desconocido para los profanos: el algoritmo. Al igual que el dato, el algoritmo no es algo nuevo, sino que su formulación remite ya a un sabio medieval árabe llamado Al Juarismi. Un algoritmo define un procedimiento a seguir para obtener un resultado determinado, que puede incluir distintos pasos y métodos como condicionales, bucles, etcétera. Un programa informático es un algoritmo; una receta de cocina, también.
Dentro de este campo algorítmico, en conjunción con las matemáticas y los modernos lenguajes de programación, se van a definir diversos procedimientos de machine learning o aprendizaje automático, según los cuales una máquina aprende de los datos hasta el punto de ser capaz de predecir con un altísimo nivel de acierto nuevos eventos y conductas. Así, los bancos pronostican quién será capaz de devolver un crédito o quién puede pagar una hipoteca, las compañías aseguradoras o las eléctricas predicen el fraude, las empresas comerciales localizan potenciales compradores y las de servicios adivinan los gustos de sus consumidores.
Pero los usos no acaban ahí. Los hospitales pueden anticipar los días de estancia de un enfermo en un hospital, los museos pueden adivinar el número de visitantes que tendrán a una hora determinada, la Policía localiza a potenciales delincuentes y los meteorólogos afinan cada vez más sus previsiones. Visto desde fuera, el método algorítmico es una brutal herramienta adivinatoria que confiere gran poder a quien la domina.
Las redes sociales como Twitter o Facebook, las búsquedas en Google o el historial de compras en Amazon se han convertido en una fuente inestimable de conocimiento que los bancos, empresas, gobiernos y partidos políticos utilizan para sus intereses, afinando cada vez más el tiro hacia los deseos y creencias de cada individuo, personalizando las campañas y llegando a conocernos mejor que nosotros mismos. Y nosotros les cedemos todo ese saber de manera gratuita.
Pero es aquí donde llegamos a la parte problemática del asunto puesto que, desde hace tiempo, el uso de datos masivos para la generación de conocimiento ha quedado en manos privadas o de gobiernos autoritarios como el de China, de tal forma que la ciudadanía se ha quedado fuera del acceso a un recurso de gran valor.
A pesar de un primer abordaje legislativo del problema sobre la privacidad y protección de datos en el marco europeo, el monopolio de su uso sigue estando en manos del Estado y el mercado como un medio eficaz de rentabilidad económica y política. Es en este sentido que Cathy O´Neil se refiere al big data como un conjunto de "armas de destrucción matemática", puesto que el gobierno del dato se emplea para controlar a las poblaciones y para hacer más eficiente su explotación material y simbólica.
Surge así un problema fundamental a resolver en los próximos años: quién, cómo y para qué accede a los datos y las herramientas tecnológicas que los interpretan. Para evitar que el demonio de Laplace se convierta en una auténtica distopía que dé cuerpo a un Gran Hermano hacen falta políticas públicas de control y gestión de los datos masivos, así como una democratización global de su uso y conocimiento. La ciudadanía debe tener a su alcance el uso y disfrute de ese saber, mientras que los estados y corporaciones han de trabajar en una transparencia progresiva para que el algoritmo no se convierta en la justificación de políticas autoritarias y regresivas.
En ese sentido, pronto veremos cómo los partidos políticos incluyen en sus programas un apartado dedicado a la gestión pública del dato, y la sociedad civil habrá de movilizarse para reclamar un acceso justo y en igualdad de condiciones a las posibilidades que abre el big data. Con voluntad política, movilización social y educación ética quizá podamos poner la tecnología del dato al servicio de una mejor gestión de los recursos naturales y sociales, en un ámbito en el que la empresa aplique verdaderamente su responsabilidad social corporativa, y que el Estado trabaje en la formación crítica de ciudadanos para que sean cada vez más difíciles de manipular.