Cuando se pregunta a ChatGPT que peligros implica su existencia, una de las respuestas de su lista es la
desinformación. Según ChatGPT, y según algunos de los
principales expertos en el tema a nivel global, la proliferación de grandes modelos lingüísticos (
Large Language Models, o LLM por sus siglas en inglés) crea una ventana de oportunidad para el aumento masivo y sin precedentes de la desinformación.
La opinión dominante es que, hasta ahora, con contenido generado principalmente por humanos, la democracia ha sufrido una erosión generalizada a raíz de la proliferación de desinformación. Es el momento de entender hasta qué punto un potencial crecimiento de la misma gracias a los LLM puede ahondar en dicha erosión y que herramientas están a nuestra disposición para evitarlo.
El primer aspecto que es importante entender es que hemos aprendido hasta ahora sobre desinformación. Tradicionalmente se ha pensado que, si el problema era la falsedad del contenido -las famosas
fake news-, atajando esa falsedad se podría dar solución al problema. De ahí la proliferación de
factcheking y la presión a las grandes redes sociales para imponer sistema de moderación.
Tanto el fact-checking como la moderación del contenido han demostrado que su éxito es, cuanto menos, limitado. De igual modo, escalar su implantación al nivel que sería necesario es
imposible, como señala el experto Mike Masnick. Moderar el contenido -decidir que puede y que no puede ser publicado- en redes sociales con cientos de millones de posts al minuto es simplemente imposible, y, como afirma Masnick, aunque se consiguiera moderar el 99,9% de lo publica, ese 0,1% que no es moderado significaría
miles de posibles posts sin moderar al día.
[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]
Por ello muchas voces expertas han señalado que el
problema no solo está en el contenido per se,
sino en los actores que distribuyen ese contenido y en las técnicas coordinadas de influencia que se usan, por ello urge entender como puede el uso de la inteligencia artificial afectar a actores y técnicas.
Los actores (partidos políticos, candidatos, gobiernos extranjeros, grupos de presión, organizaciones sociales o empresas privadas) buscan de manera premeditada manipular y engañar a la población. Los LLM pueden multiplicar el número de actores ya que decrecen las barreras de entrada.
Los actores que ya disfrutan de los recursos necesarios podrán multiplicar exponencialmente el alcance de sus operaciones de influencia. Al mismo tiempo, las
empresas especializadas en estos servicios, se pueden volver más precisas, menos detectables y sobre todo mucho más efectivas.
En cuanto a las técnicas coordinadas de influencia, los LLM pueden, potencialmente, mejorar y aumentar el alcance de las técnicas ya existentes -como por ejemplo el
astroturfing, o la coordinación multiplataforma- a través de generar
más contenido,
más preciso, y con
menor tiempo y costes. Por ejemplo, durante un evento como una protesta masiva sería posible inundar las redes sociales con contenido falso sobre la misma, o no relacionado desviar la atención, como
ya hace China. Al mismo tiempo, se podrían crear nuevas técnicas, como chatbots
personalizados que intenten
persuadir a nivel individual.
Aun así, es evidente que la capacidad de los LLM para generar grandes cantidades de contenido nocivo y engañoso no tiene precedente. Los meses antes del lanzamiento de ChatGPT-4, OpenAI, organización detrás del LLM, creó un
equipo rojo de expertos. Este equipo se encargó de probar de manera adversarial el modelo, buscando posibles debilidades para generar protecciones adicionales, y
una de sus conclusiones fue que su uso para generar contenido engañoso es uno de los principales peligros. Esto se puede dar tanto en pequeños textos (post en redes sociales por ejemplo) como en texto más largo como pueden ser noticias en medios o discursos políticos. En su documento técnico de ChatrGPT-4 OpenAI afirma que estos modelos pueden servir para reforzar ideologías y formas de ver el mundo, y hacer más difícil la reflexión y la mejora de las mismas.
ChatGPT es un modelo que solo produce -por ahora- texto, pero existen modelos que producen imágenes o incluso video, como por ejemplo StableDiffusion, lo cual multiplicará no solo la cantidad sino también el tipo de contenido nocivo y engañoso que se puede generar.
Sumado a todo ello hay que tener en cuenta la falta de transparencia total que ChatGPT-4 implica.
OpenAI ha decidido no publicar detalles sobre los datos que ha utilizado para entrenar a su modelo lingüístico. Esto rompe con algunos de los
principios de lo que se denomina
Trustworthy AI o Inteligencia Artificial de confianza, especialmente en lo referido a la privacidad, la explicabilidad -saber porque el modelo genera un resultado y no otro- y a la transparencia.
Dado que no se conoce lo que usa el modelo para inferir sus resultados, no se pueden conocer los posibles sesgos que puede tener. Esto es de especial importancia si entendemos que los LLM son modelos generales, es decir, no están diseñados para un uso concreto, sino que se podrán implementar para variedad de servicios.
Actores políticos podrían usar ChatGPT-4 para diseñar campañas políticas para diferentes grupos sociales sin poder conocer que posibles sesgos tiene el modelo, y por lo tanto, que sesgos aparecerán en sus campañas.
¿Y existe algo que podamos hacer? Hay varios frentes en los que se puede actuar. Por un lado, a nivel legislativo es necesario superar los obstáculos regulatorios que existen, e incluso la idea de que cualquier regulación
es imposible y frenará la evolución frente a otras potencias que no lo hacen, en especial, China. La Unión Europea se encuentra enfrascada en la negociación del
Artificial Intelligence Act. La legislación, en proceso desde 2021, buscaba regular sistemas de inteligencia artificial a través del daño que pudieran causar, prohibiendo aquellas que pudieran causas daños inaceptables y creando rigurosos requisitos para aquellas que puedan causar daños.
Sin embargo, modelos como ChatGPT no tienen un uso concreto y por lo tanto desafían la regulación incluso antes de que esta se apruebe. Estos modelos también suponen un desafío para la
futura Agencia Española de Supervisión de la Inteligencia Artificial, ya que de nuevo, su articulación en los riesgos se ve dificultada por la generalidad de los LLM.
Algo plausible a medio plazo es la creación de un sistema donde diversos grupos de interés (estados, organizaciones internacionales, sociedad civil, grupos de expertos y empresas privadas) dirimieran los principios rectores del uso de la inteligencia artificial. Este sistema lleva
funcionando décadas para el gobierno de la infraestructura de internet, y aunque no es perfecto, ha conseguido asentar una serie de principio y normas que han mantenido a internet relativamente abierto y libre.
Algunos expertos han planteado incluso establecer un sistema de democracia deliberativa que se establezca como garantes de los derechos de la población frente a los sistemas de inteligencia artificial.
Quizás lo más importante es entender que la desinformación, aquellos que la usan y las técnicas usadas no son el problema, sino un síntoma de algo mayor que aflige a la democracia a nivel global:
el gradual debilitamiento de la confianza en las instituciones que deben actuar como contrapesos. Estas incluye medios de comunicación, la justicia, las fuerzas de seguridad, pero también el parlamento, las diferentes agencias de regulación y un largo etcétera de instituciones que deben servir no para ejecutar la política del ejecutivo, sino para asegurar que los
atributos democráticos permanecen intactos. El debilitamiento de estas instituciones -y de los derechos que las mismas protegen- se da a nivel global, y la desinformación es solo una de las armas.
ChatGPT, y los modelos de inteligencia artificial son, principalmente, nuevos retos en la defensa de la democracia.