Estrategia de difusión deliberada de datos inexactos o sesgados con el propósito de manipular la percepción pública o socavar la confianza institucional.
Descripción
En el marco de la economía del conocimiento, donde el valor reside en la veracidad y el procesamiento de la información, la desinformación actúa como un agente contaminante. No se trata de un simple error o una interpretación errónea (lo que en inglés se llama misinformation), sino de una estrategia intencionada de distorsión cognitiva.
Este fenómeno se apoya en la infraestructura de las TIC para escalar de forma exponencial. A través de algoritmos de recomendación y cámaras de eco en entornos digitales, la desinformación explota sesgos psicológicos para propagarse más rápido que los datos verificados.
En una era de saturación informativa como la actual, la desinformación no solo busca que los receptores se crean una mentira, sino lograr que desconfíen de toda verdad, neutralizando así el valor del conocimiento auténtico.
Pilares
Para comprender cómo opera esta estrategia se deben considerar tres dimensiones:
-
La intencionalidad: A diferencia del error fortuito, existe un diseño previo para engañar o desorientar.
-
La viralidad tecnológica: El uso de redes distribuidas permite que un contenido falso alcance una masa crítica antes de que pueda ser desmentido.
-
El efecto económico: Al erosionar la calidad del capital informativo, la desinformación genera ineficiencias en la toma de decisiones, afectando tanto a mercados financieros como a procesos democráticos.
El vínculo con la posverdad
En la actual economía del conocimiento, la jerarquía del dato ha mutado. La posverdad es una condición donde los hechos objetivos tienen menos influencia en la formación de la opinión pública que las apelaciones a la emoción y a las creencias personales. En este escenario, la desinformación encuentra el terreno fértil para germinar.
La relación entre desinformación y posverdad es de carácter simbiótico: mientras que la primera constituye la herramienta, la segunda representa el entorno sociocultural que permite su éxito.
Podemos desglosar su interacción en tres puntos clave:
-
El método vs. el estado: La desinformación es la acción táctica (el «cómo» se engaña), mientras que la posverdad es el estado generalizado de la cultura política y social (el «dónde» sucede).
-
La validación emocional: En la posverdad, el receptor no busca necesariamente la verdad, sino la confirmación de sus prejuicios. La desinformación alimenta este deseo mediante contenidos diseñados para activar respuestas afectivas intensas.
-
La erosión de la autoridad: Ambos conceptos convergen en el desplazamiento de los expertos y las fuentes técnicas por narrativas alternativas que, aunque carezcan de rigor, resultan más atractivas o simples de procesar en la inmediatez de las redes.
Impacto en el ecosistema digital
A través de las TIC, la relación entre desinformación y posverdad se automatiza. Los sistemas de personalización no distinguen entre un dato empírico y un postulado de posverdad; simplemente priorizan aquello que genera mayor interacción. Esto crea un ciclo donde la desinformación refuerza la burbuja de posverdad de los usuarios, haciendo que la corrección de errores sea casi imposible una vez que el dato falso se ha integrado en la identidad individual.
El rol del algoritmo
En el ecosistema de las TIC, los algoritmos no son meros transmisores neutrales; actúan como curadores de contenido con objetivos comerciales que, a menudo, colisionan con el rigor informativo. Su intervención se manifiesta en tres niveles críticos:
-
La segmentación psicográfica (microtargeting): La IA analiza vastas cantidades de datos para identificar las vulnerabilidades, miedos y prejuicios de grupos específicos. Esto permite que la desinformación sea personalizada, entregando el mensaje falso justo a quien es más propenso a creerlo y compartirlo.
-
La optimización del engagement: Los algoritmos de recomendación están diseñados para maximizar el tiempo de permanencia en las plataformas. Dado que los contenidos que apelan a la indignación o al miedo —característicos de la posverdad— generan más interacciones que los datos técnicos neutros, el sistema prioriza orgánicamente lo falso sobre lo veraz.
-
La generación de contenido sintético: El auge de la IA generativa permite crear textos, imágenes y videos (deepfakes) con un realismo asombroso y a un coste casi nulo. Esto elimina la barrera de entrada para la creación de pruebas falsas, saturando el entorno de ruido que dificulta la distinción entre lo real y lo fabricado.
A día de hoy, el foco de la investigación y la discusión académica ya no está solo en definir «qué es mentira», sino en el AI slop (el lodo de la IA): la inundación de contenido mediocre y sintético que hace que el conocimiento humano verificado se vuelva más costoso y escaso, convirtiéndose en un artículo de lujo en la economía digital.
Estrategias de mitigación de la desinformación
La respuesta ante la automatización del engaño se articula en tres niveles complementarios: educativo, tecnológico y normativo.
Alfabetización mediática e informativa
Se trata de dotar a las personas de capacidades críticas para evaluar la procedencia, el sesgo y la intencionalidad de los datos. En un entorno de posverdad, la alfabetización mediática enseña a reconocer los disparadores emocionales que los algoritmos utilizan para viralizar contenidos.
Curación de contenidos y fact-checking
El surgimiento de organismos verificadores actúa como un filtro de calidad. Estas entidades de fact-checking utilizan, a su vez, inteligencia artificial para detectar patrones de desinformación de forma masiva, intentando equilibrar la balanza frente a los sistemas de generación sintética.
Arquitectura de «verdad por diseño»
Una arquitectura de verdad por diseño ofrece propuestas técnicas que integran la trazabilidad del dato desde su origen (como el uso de blockchain o marcas de agua digitales en imágenes y vídeos). El objetivo es que la infraestructura de las redes priorice la autenticidad sobre el simple engagement.
Ejemplos
Bibliografía recomendada
Simon, F. M., Nielsen, R. K., & Fletcher, R. (2025). Generative AI and News Report 2025: How people think about AI’s role in journalism and society. Reuters Institute for the Study of Journalism.
Analiza cómo el aumento del contenido sintético está generando una «fatiga de realidad» que devalúa el periodismo profesional en el mercado de la información.
European EPRS (2025). Information manipulation in the age of generative artificial intelligence. European Parliament Research Service.
Un documento técnico-político que disecciona la «economía de la mentira». Explica cómo la IA generativa ha reducido los costes de producción de desinformación, rompiendo las barreras de entrada para actores maliciosos y saturando las TIC con datos de baja calidad.
En línea: https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2025)779259
Gambacorta, L. (2026). Inteligencia artificial y estabilidad financiera, Funcas / Bank for International Settlements.
Analiza el impacto de la desinformación algorítmica específicamente en los mercados financieros. Vincula la desinformación con riesgos sistémicos en la economía real y la toma de decisiones empresariales.
En línea: https://www.funcas.es/wp-content/uploads/2026/01/Gambacorta_PEE186.pdf
Tuñón-Navarro, J., et al. (2025). Journalism, Disinformation, and Artificial Intelligence: Ethical, Political, and Social Challenges. MDPI Social Sciences (Special Issue).
Una compilación académica que aborda la «forensia de la realidad». Se centra en cómo las sociedades deben reconfigurar su capital cognitivo para sobrevivir a la desinformación a gran escala impulsada por modelos de lenguaje (LLM).
En línea: https://www.mdpi.com/journal/socsci/special_issues/28YBCR8230