Demasiado grande para confiar: Facebook puede influir sobre el voto y nadie lo controla

Si quieres influir sobre el voto de las personas tienes que usar Facebook. Esta es una conclusión a la que han llegado prácticamente todos los partidos políticos. La cantidad destinada a anuncios en cada una de las tres compañías poseídas por el gigante tecnológico (Whatsapp e Instagram) es una cuestión de estrategia electoral. Trump eligió mayoritariamente Facebook. Probaron más de 50.000 variaciones de anuncio diarias siguiendo un plan de micro-targeting, una selección cuasi milimétrica del votante al que quieres llegar. Le salió bien. Si a través de Facebook se puede influir intencionalmente sobre el votante, ¿debemos considerarla una red social o estamos hablando de otra cosa? ¿Cómo se consigue esa influencia? Y sobre todo, ¿es la autorregulación el camino a seguir?

[Recibe diariamente los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

La influencia se consigue cuando una sola empresa posee todos los detalles de un tercio de la humanidad. Y cuando decimos todos, son todos: desde tu edad, pasando por tu estado de ánimo hasta tus gustos. Es difícil encontrar nada comparable. Es la tercera web más visitada del mundo y su nivel de penetración es equiparable al del correo electrónico. Más de 2.500 millones de personas tienen hoy en día una cuenta. Cada segundo se crean 5 nuevos perfiles. Hay 83 millones falsos. Cada 60 segundos se generan en la plataforma 510.000 comentarios. El 50% de los jóvenes entre 18-24 años abren la aplicación según se levantan. El mayor grupo dentro de la plataforma son aquellos comprendidos entre 24 y 35 años. Su visión del mundo está condicionada por lo que leen ahí.

El gran activo de Facebook, además de los datos, es el News Feed o muro de cada uno de sus usuarios. El sueño de cualquier publicista. Y de cualquier spin doctor. Nadie controla un espacio así. Aquí es donde se informan cuatro de cada diez usuarios. La televisión, radio y periódicos son cada vez menos utilizados. Si la televisión es la principal fuente de noticias para el 81% de las personas de más de 65 años, sólo lo es para el 16% de los jóvenes entre 18 y 29 años. La revolución digital ha implicado también una transformación informativa. Y decidir las noticias que lee un tercio de la humanidad es algo muy poderoso. Puro potencial político.

Nada de lo que uno ve en Facebook está dejado al azar o a la cronología de los acontecimientos. La mayoría de los usuarios no son conscientes de que se selecciona el contenido que ven. No tenemos claro que los gobiernos lo sean.

La empresa decide qué aparece en el muro de cada persona. Los criterios en los que se basa esta decisión son poco transparentes. El principal objetivo del algoritmo, la fórmula matemática que selecciona contenidos basándose en unos criterios preestablecidos, es captar la atención del usuario y hacer que permanezca en la plataforma el máximo tiempo posible. Es lo que se conoce como economía de la atención. Dos son los motivos por los que interesa tu atención: en primer lugar, el uso normalmente genera contenidos (fotografías, vídeos, noticias compartidas, etc.) que a su vez son un incentivo para que otros usuarios accedan también a la plataforma en un ciclo de retroalimentación constante.

En segundo lugar por el ‘engagement’, una métrica clave cualquier plataforma digital que mide la interacción entre usuarios o de los usuarios con lo que se comparte. Cuanto mayor es la cantidad de contenidos mayor es también la posibilidad de que estos generen algún tipo de reacción (positiva o negativa) y el espectador permanezca conectado durante más tiempo. La dura competencia por esta atención ha hecho que las emociones tengan un papel destacado en estas interacciones. Facebook ha admitido que la curva de atención aumenta a medida que el contenido es más extremo (gráfico 1). Es un modelo perverso que obliga a intentar permanecer lo más cerca del límite posible porque es lo más rentable para la propia plataforma.

Gráfico 1. Patrón natural de interacciones con contenido en Facebook

El algoritmo decide si los usuarios visualizan noticias de uno u otro medio basándose, entre otras variables, en las interacciones previas con esa página. El objetivo es maximizar el tiempo de uso y, con ello, ser más atractivos para que los anunciantes alquilen ese espacio. Por dimensionar de lo que estamos hablando, los anunciantes del New York Times tienen acceso a 3.5 millones de lectores diarios, sobre los que pueden conocer datos como la edad, género, ciudad o poder adquisitivo pero siempre de manera agregada y nunca con la capacidad de dirigir su publicidad a un subtipo de lector en particular. Por el contrario, en el muro de Facebook tienen acceso a 400 veces más público con la capacidad de precisar el usuario que verá el anuncio usando variables demográficas, sociológicas y políticas. No es de extrañar que de media el 15% del contenido que vemos en el muro sean anuncios. El gigante hace caja: el 99,98% de los ingresos provienen de este negocio. Muchas de las decisiones corporativas de los últimos años se explican por su dependencia total del negocio publicitario que en 2018 alcanzó una cifra récord de $55.000 millones en ingresos. No para de crecer.

Uno de los principales retos a los que se empiezan a enfrentar los legisladores es cómo garantizar que no se manipula a la población a través de la selección de noticias partidarias de una determinada ideología. Se sabe por ejemplo que hay sesgos de género en las noticias que llegan a tu muro si eres hombre porque los hombres tienden a apoyar más los contenidos populistas. También el componente anti-élites del discurso obtiene más «me gusta» de los usuarios masculinos y por tanto, lo verán más. Sin una rendición de cuentas efectiva sobre cómo se priorizan unos contenidos sobre otros, los usuarios y usuarias quedan sujetos a las preferencias de la plataforma, al aislamiento ideológico y la reafirmación in crescendo de sus propias ideas. La compañía es consciente de que cuando pretende maximizar la interacción de la audiencia, polariza. Precisamente por ello, y por las críticas recibidas tras distintos escándalos, ha alterado su algoritmo para reducir la proporción de noticias en favor de las interacciones más personales. El problema radica en que es una decisión de la propia empresa, que puede modificar según considere. En cada uno de los cambios que realice afectará a la opinión de miles de millones de personas. Aquí no hay códigos deontológicos ni regulaciones que afectan a la prensa o a los grupos de comunicación. Solo decisiones empresariales y autorregulación.

Si el primer reto al que se enfrentan es la proporción de contenidos politizados o noticias que se ponen a disposición de cada una de las personas, el segundo es la calidad del propio contenido. ¿Cómo se controlan miles de millones de posts cada día en más de 100 idiomas? Establecer la línea roja es polémico. Mientras que en ámbitos como el terrorismo las políticas de prohibición y eliminación de contenidos relacionados están más claras, otros ámbitos como la desinformación o la manipulación política requieren de muchos matices. Tareas como distinguir entre usuarios que comparten noticias falsas deliberadamente no son evidentes. La compañía se enfrenta a dilemas respecto al contenido y respecto a quién lo revisa. Algo que ha decidido subcontratar con unas condiciones laborales criticables. Llamativo cuanto menos ante la importancia de la decisión que se encomienda

Nadie cuestiona ya que la moderación de contenidos es una necesidad. Aunque de momento no es una responsabilidad de la propia compañía. Al menos en gran parte de los países. Los nuevos modelos de negocio nacidos dentro de la economía digital han querido controlar las narrativas precisamente para no tener que “caer” dentro de la regulación existente y poder así, beneficiarse de la ausencia de ella. Facebook no quiere ser un medio de comunicación, quiere ser una red social, una compañía tecnológica o más recientemente un banco. ¿Durante cuánto tiempo se puede seguir así?

Más del 50% de los europeos cree que el contenido político e ideológico debe ser prohibido en las redes sociales para proteger la democracia. ¿Cuándo se consideraría una plataforma demasiado grande o demasiado tóxica? ¿Supone la selección de contenidos o favorecer unos sobre otros un papel editorial?

Lo que sí resulta necesario es un acuerdo global sobre cómo abordar esta nueva realidad que influye sobre tantos miles de millones de personas. Un primer paso podría ser una Ley de rendición de cuentas de los algoritmos (Algorithmic Accountability Act), como la que se ha presentado en Estados Unidos. Lo siguiente sería decidir qué sucede cuando los algoritmos son hallados culpables. Mientras tanto, podemos replantearnos si la narrativa marketiniana que nos han contado coincide con la realidad y no se pueden aplicar regulaciones ya existentes. Facebook puede haberse convertido en un gigante que es “demasiado grande para caer”, debemos ver si también es “demasiado grande para confiar” -en que se autorregulará pensando en el bien común.

Autoría

Dejar un comentario

X

Uso de cookies

Esta página utiliza cookies propias y de terceros para mejorar nuestros servicios y mostrarle información relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso.. Puede cambiar la configuración u obtener más información aquí.