
06 mar 2026
IEEE. Guerra por la verdad: anatomía y defensa frente a la desinformación rusa
Eduardo Lobo Almazán. Comandante de Transmisiones del Ejército de Tierra. Graduado en Psicología, DEM y graduado del US-Army CGSC y SAMS
Introducción
La guerra por la verdad ya no se decide en los despachos, sino en la mente del ciudadano. El modelo ruso Firehose of Falsehood convierte la repetición, la disponibilidad y el sesgo de confirmación en munición de precisión: una avalancha multicanal que explota la emoción, la distracción y las burbujas informativas para colonizar la agenda. Este artículo desnuda esa ingeniería psicológica —del efecto de verdad ilusoria al durmiente— y muestra por qué, incluso cuando los mensajes contradictorios aparecen, ganan tracción cuando la fuente goza de autoridad percibida.
Rusia no emite mensajes aislados: opera un ecosistema industrial —«producción, distribución y consumo»— que fabrica relatos, los amplifica mediante proxies y bots y los inserta en audiencias segmentadas para maximizar la polarización y la erosión institucional. Se radiografía la cadena de valor desinformativa —de la difamación y la contradicción estratégica a la amplificación y su consumo dirigido— para entender una influencia rápida, flexible y de difícil atribución.
El siglo XXI ha convertido la desinformación en vector estratégico: Rusia explota las fisuras de las democracias de la OTAN y la UE para polarizar, deslegitimar instituciones y condicionar elecciones democráticas. El caso de los Países Bajos evidencia cómo una narrativa manufacturada —euroescepticismo, vídeos fabricados, cuentas «zombi», encuadre emocional— penetra en el debate público y desplaza la realidad. Estos ejemplos ofrecen una lectura operativa de esas campañas para extraer palancas de resiliencia y blindaje electoral.
Europa ha alzado una arquitectura dual frente a la desinformación: una UE reguladora que combina autorregulación (Códigos 2018/2022) y hard law (DSA), y una OTAN operativa que articula la comprensión del entorno y la implicación pública con la coordinación multinivel. Aquí se contrastan el modelo normativo y el operativo, y se explica cómo se complementan para proteger el ecosistema informativo sin erosionar las libertades.
Por último, el artículo transita del diagnóstico a la prescripción con un enfoque de toda la alianza y toda la sociedad, anclado en el ciclo «preparar–actuar–aprender»: educación y alfabetización mediática, comunicación estratégica interoperable, innovación tecnológica y coherencia normativa UE–OTAN para pasar de la reacción tardía a la prevención sistemática.
La desinformación
El primer paso para diseñar una estrategia eficaz contra la desinformación es conocer la amenaza. El modelo propagandístico ruso, denominado Firehose of Falsehood o «manguera de falsedad», resulta eficaz porque manipula sesgos y heurísticos psicológicos que dificultan distinguir verdad de la falsedad1. La psicología explica por qué este enfoque logra moldear la opinión pública e influir en el comportamiento.
Rusia difunde una «avalancha de contenidos en múltiples plataformas», incrementando la probabilidad de que sus narrativas sean interiorizadas. Basado en la exposición selectiva, este método explota la repetición y el heurístico de disponibilidad: cuanto más se repite un mensaje, más creíble parece. La familiaridad reduce el pensamiento crítico, y el sesgo de confirmación consolida el impacto cuando el mensaje coincide con creencias previas.
Este modelo «difunde información de forma rápida, continua y repetitiva». La repetición continua provoca el efecto de verdad ilusoria, por el cual las afirmaciones repetidas se perciben como ciertas, especialmente entre audiencias pasivas. Los sesgos cognitivos, las primeras impresiones y las burbujas informativas refuerzan creencias previas y aíslan de visiones alternativas. Reiterar falsedades disminuye su percepción de inmoralidad y facilita su propagación.
La propaganda rusa «ignora la verdad objetiva y explota diversos sesgos psicológicos». El efecto durmiente explica cómo las personas recuerdan el mensaje, pero olvidan su fuente, lo que prolonga su impacto2. Unido al sesgo de confirmación, favorece la aceptación de narrativas que encajan con creencias previas, reduciendo la disonancia cognitiva3. Al recurrir a emociones como el miedo o la ira, refuerza ideologías y percepciones existentes4. En contextos de crisis e incertidumbre, cuando los mensajes oficiales son confusos, la desinformación se propaga con mayor eficacia, como demostró la pandemia del COVID-195. Esta estrategia maximiza su efecto al aprovechar la vulnerabilidad emocional y cognitiva del público.
Por último, la propaganda rusa «es inconsistente». La inconsistencia también refuerza su impacto. Aunque contradiga la repetición, puede estimular el interés público y la curiosidad, incrementando la credibilidad percibida6. Esto se observó en los mensajes cambiantes sobre el vuelo MH17 de Malaysia Airlines7. De modo similar, en el caso de la anexión de Crimea (2014), las narrativas inconsistentes del presidente Putin ilustran cómo la inconsistencia no necesariamente daña la influencia cuando señales periféricas —como la autoridad percibida de la fuente— refuerzan la credibilidad8. Esta flexibilidad permite adaptar narrativas a los objetivos estratégicos del Kremlin, manteniendo credibilidad a través de medios como RT y Sputnik9.
En síntesis, el modelo ruso de desinformación se sustenta en la explotación de heurísticos psicológicos que monopolizan la atención, moldean creencias y mantienen su influencia incluso cuando los mensajes son falsos o contradictorios. Comprender estos mecanismos es esencial para diseñar estrategias eficaces de detección y defensa.
Un enfoque regional. El caso de Rusia
La desinformación rusa opera como un ecosistema compuesto por tres partes: producción, distribución y consumo10. Manipula la información, la difunde mediante técnicas de diseminación adaptadas y la dirige contra audiencias diversas para influir en sus percepciones.
Imagen 1. Modelo patológico de los esfuerzos desinformativos malintencionados de Rusia. Creada por el autor.
Respecto a la fase de «producción», las campañas de desinformación rusas crean y manipulan la información para alcanzar fines estratégicos, difamando a gobiernos, actores no gubernamentales y políticas, mientras fomentan la discordia y promueven actores afines a Moscú11. En las elecciones francesas de 2017, medios rusos acusaron a Emmanuel Macron de ser un «agente estadounidense», empleando tópicos antisemitas para erosionar su credibilidad y polarizar al electorado, lo cual incitó a la acción política de teóricos de la conspiración de derecha y explotó las divisiones sociales12.
A la vez, Rusia amplifica narrativas positivas sobre su identidad, cultura, instituciones y logros, apelando a vínculos históricos con sus audiencias y utilizando grandes eventos internacionales como instrumentos de proyección de poder13. Por ejemplo, Rusia glorifica sus eventos internacionales para proyectar poder y desviar las críticas14.
Para confundir, genera y difunde versiones contradictorias, como en el caso del envenenamiento de Sergei Skripal, creando incertidumbre y desconfianza15. Mediante medios estatales y bots, difundieron mensajes que desacreditaron a las autoridades europeas con la intención de debilitar la cohesión euroatlántica16.
La producción de contenidos combina la fabricación, tergiversación y selección parcial de hechos, explotando la emoción y la confusión como armas de influencia global17.
Con respecto a la «distribución», Rusia distribuye su desinformación mediante una red diversa de actores y canales adaptados a cada contexto18. Así, medios controlados por el Estado, como RT y Sputnik, difunden abiertamente contenidos manipulados para moldear percepciones globales favorables al Kremlin19.
Otros actores, como la Internet Research Agency (IRA) o WikiLeaks, operan como intermediarios con vínculos opacos20. Por ejemplo, en las elecciones estadounidenses de 2016, emplearon acertadamente perfiles falsos para difundir mensajes divisivos y debilitar a Hillary Clinton, alineándose con los intereses estratégicos de Rusia21.
Asimismo, figuras y medios no afiliados, incluidos influenciadores de ideologías extremas en Europa y EE. UU., pueden amplificar involuntariamente las narrativas rusas, a veces con financiación encubierta. Influenciadores de derecha como Benny Johnson, Tim Pool y Dave Rubin, actores no estatales que, sin saberlo, participaron en operaciones de influencia rusa cuando medios estatales rusos financiaron de forma encubierta sus vídeos en inglés que promovían puntos de vista prorrusos22.
Rusia utiliza medios tradicionales, plataformas digitales y redes sociales como principales canales para alcanzar a sus audiencias objetivo23. Ejemplos incluyen los mensajes engañosos del Ministerio de Asuntos Exteriores ruso tras el caso Skripal en Twitter (ahora X), o la difusión masiva de contenidos por RT y YouTube24. Asimismo, foros organizados por proxies y comunicados oficiales refuerzan esta estrategia25.
En conjunto, la multiplicidad de actores y plataformas permite a Rusia diseminar su desinformación de forma eficaz, ocultar su origen y generar la apariencia de movimientos espontáneos alineados con sus intereses estratégicos.
Por último, el «consumo» de la desinformación rusa constituye la fase final del ecosistema. Las audiencias objetivo absorben contenidos diseñados para manipular la opinión pública y reforzar la polarización. Rusia orienta sus mensajes hacia grupos demográficos específicos mediante narrativas culturales, históricas y políticas que consolidan sesgos y desconfianza institucional.
Su alcance incluye al público general, élites e influenciadores26. En Europa, explota tanto a la extrema derecha como a la izquierda, con mensajes antioccidentales y antisistema, generando cámaras de eco que amplifican la discordia y minan la confianza en la OTAN y la UE27. Las elecciones estadounidenses de 2020 ilustran esta dinámica: la interferencia rusa buscó debilitar a Joe Biden mediante granjas de trolls y redes sociales controladas por la IRA, repitiendo tácticas ya empleadas en 2016 para dividir y reducir la participación electoral28.
Rusia también apela a vínculos culturales, religiosos e históricos. Narrativas como las anti-LGTBQ+ resuenan en Europa del Este, donde se proyecta a Moscú como defensora de los valores tradicionales frente a una «Gayropa» decadente29.
El uso de bots, astroturfing, cuentas automatizadas y manipulación de los algoritmos en redes sociales amplifica la difusión30. Con esto consigue generar la apariencia humana de los mensajes, como se evidenció en EE. UU. (2016 y 2020). Los bots inundaron las redes con contenido divisivo, ampliando su alcance y logrando involucrar a audiencias inadvertidas, cuyas voces reforzaron la legitimidad de los mensajes31.
Los métodos empleados por Rusia se adaptan al entorno mediático: medios tradicionales en el Este, redes sociales en el Oeste32. Su eficacia varía; en regiones prorrusas como Hungría, donde los medios locales replican abiertamente las narrativas, la influencia de la desinformación rusa es considerablemente mayor33; en aquellas zonas menos receptivas se requieren métodos encubiertos que crean esa sensación de apoyo34. Sin embargo, en los países bálticos o Finlandia, el público las rechaza, reflejado en el descenso de apoyo a símbolos soviéticos, como evidencia el descenso de participación en las celebraciones del 9 de mayo, fecha de la victoria soviética sobre Alemania35.
Claramente, la maquinaria de desinformación rusa opera mediante un ecosistema sofisticado de producción, distribución y consumo, sustentado en cinco pilares clave: comunicaciones oficiales, medios estatales globales, fuentes proxy, redes sociales y ciberespacio36. Su estructura le permite proyectar una narrativa flexible, descentralizada y difícil de atribuir. Los medios estatales refuerzan mutuamente estas narrativas, respondiendo rápidamente a objetivos políticos y manteniendo un enfoque constante en desacreditar a los adversarios percibidos. Y, aunque la UE haya sancionado a medios como RT y Sputnik, Rusia se adapta mediante nuevos dominios y plataformas, explotando los tiempos de respuesta más lentos de las democracias occidentales37. Pese a resultados disparos, la desinformación rusa sigue siendo un instrumento estratégico de Soft Power o Smart Power, que erosiona la cohesión social y desafía la resiliencia democrática global.
Un enfoque práctico. El siglo XXI
Desde el fin de la Guerra Fría y el ascenso de Putin, la desinformación rusa ha tenido como blanco a los países de la OTAN y la UE. Su propósito ha sido explotar divisiones sociales, debilitar la cohesión, polarizar la política y erosionar alianzas para alcanzar objetivos geopolíticos. Comprender estas campañas es esencial para diseñar una estrategia eficaz. El caso del referéndum celebrado en los Países Bajos ofrece lecciones clave para fortalecer la resiliencia, promover la alfabetización digital, proteger los procesos electorales y equilibrar las contramedidas con los valores democráticos.
El referéndum holandés de 2016 sobre el Acuerdo de Asociación UE-Ucrania ejemplifica cómo Rusia explotó el euroescepticismo para influir en la opinión pública. A través de medios como RT y Sputnik, amplificó narrativas que presentaban a Ucrania como corrupta y dependiente, difundiendo falsedades como la supuesta crucifixión de un niño o vídeos manipulados con soldados del batallón Azov quemando una bandera holandesa38. Aunque Bellingcat desmintió estos contenidos y los vinculó a la IRA, la campaña reforzó los esfuerzos rusos al mostrar a Ucrania como un riesgo para la estabilidad europea39.
Imagen 2. Imagen fabricada de miembros del Batallón Azov quemando la bandera holandesa40.
Rusia también aprovechó movimientos euroescépticos locales. El blog GeenStijl replicó la retórica anti-UE y las narrativas de Putin, describiendo el acuerdo como una amenaza a la soberanía rusa y a la identidad europea como producto del Euromaidán, además de tildar al gobierno ucraniano de neonazi41. Figuras políticas como Harry van Bommel (parlamentario de izquierdas) y Thierry Baudet (líder del partido Foro por la Democracia) amplificaron estos mensajes, otorgándoles legitimidad y contribuyendo al rechazo del acuerdo42.
El caso holandés demuestra cómo Rusia utiliza sesgos psicológicos como el efecto de verdad ilusoria y la exposición selectiva, entre otros, para reforzar prejuicios anti-UE y antiucranianos. Mediante narrativas contradictorias y mensajes adaptados, el Kremlin alineó sus esfuerzos con el Modelo Estratégico de Desinformación rusa descrito, alimentando la confusión y la desconfianza hacia la UE.
Las lecciones del referéndum evidencian la necesidad de adoptar medidas integrales contra la desinformación: análisis de vulnerabilidad, planes de contingencia, marcos legales y educación ciudadana. Fortalecer la resiliencia requiere también formar a los partidos, proteger a los medios, cooperar con las plataformas digitales y promover la colaboración internacional en buenas prácticas43.
Un enfoque estratégico. La Unión Europea y la OTAN
La UE afronta la desinformación mediante un enfoque mixto que combina autorregulación voluntaria y legislación obligatoria, buscando proteger el entorno informativo europeo sin vulnerar derechos fundamentales como la libertad de expresión.
Su marco se basa en el Código de buenas prácticas sobre la desinformación (2018) y su versión reforzada (2022), junto con la Ley de Servicios Digitales (DSA, 2022)44. Los códigos voluntarios recomiendan que, plataformas como «Meta, Google, X y TikTok», se sumen a la desmonetización de la desinformación, la transparencia en la publicidad política y el apoyo a verificadores e investigadores45. El código reforzado amplió estos compromisos a 44 medidas, creando un centro de transparencia y priorizando la alfabetización mediática, la eliminación de cuentas falsas y la promoción de información fiable.
La DSA, complementariamente, impone obligaciones vinculantes a las plataformas digitales, especialmente a las de gran tamaño, sobre moderación de contenidos, transparencia publicitaria y gestión de riesgos mediante auditorías independientes. Su propósito es garantizar un espacio digital seguro, predecible y respetuoso con la Carta de Derechos Fundamentales de la UE.
Además, la UE ha actuado frente a amenazas concretas como la desinformación rusa. Prohibió la emisión de RT y Sputnik tras la invasión de Ucrania y, en 2022, impulsó la creación de la Red Europea de Estándares de Verificación de Hechos (EFCSN), que agrupa a 45 medios de 30 países bajo un código ético común46.
Por último, el proyecto de Ley de Inteligencia Artificial (2021) refuerza este compromiso al exigir que los contenidos generados por IA sean claramente identificables, adaptando la regulación a los nuevos desafíos tecnológicos47.
Imagen 3. La estrategia de la Unión Europea. Creada por el autor
En síntesis, la estrategia de la UE contra la desinformación evoluciona de forma cíclica: desde la autorregulación de 2018 hasta la regulación plena de la DSA, perfeccionando continuamente sus herramientas para fortalecer la transparencia, la confianza y la integridad del ecosistema informativo europeo. No obstante, como la desinformación continúa haciendo daño, esta estrategia es insuficiente.
Aunque no existe un documento único, «la estrategia de la OTAN» frente a la desinformación se basa en un modelo de doble vía centrado en la comprensión y la implicación, reforzado por diversos elementos estratégicos que aumentan su capacidad para afrontar la guerra informativa en el entorno actual de seguridad48.
La comprensión del entorno informativo es el «primer pilar»49. Mediante su capacidad de evaluación, la OTAN analiza de forma continua las fuentes de desinformación, las narrativas hostiles y los comportamientos emergentes. El Concepto Estratégico de 2022, aprobado en la Cumbre de Madrid, identifica a Rusia como actor clave y subraya la necesidad de contrarrestar tácticas híbridas50. Ejemplos concretos de respuesta institucional incluyen la Rapid Response Unit británica, que detecta campañas rusas; las Fuerzas Armadas de Lituania, que monitorizan la propaganda; y la Oficina del Director de Inteligencia Nacional de EE. UU., que incluye a Rusia entre las principales amenazas.
El «segundo pilar» es la implicación pública, basada en la comunicación transparente y anticipatoria (pre-bunking)51. La OTAN combate las narrativas falsas antes de su difusión, informando con hechos a través de redes sociales y su web. Así, EE. UU. y el Reino Unido divulgaron inteligencia previa a la invasión de Ucrania en 2022, neutralizando los pretextos rusos52. El Comunicado de Bruselas de 2021 reafirmó la promoción de valores democráticos y la necesidad de amplificar voces creíbles53. Al abordar los mitos sobre sus ejercicios en Europa del Este, la OTAN demuestra que la comunicación proactiva es parte esencial de su estrategia.
El «tercer pilar» es la coordinación con aliados y socios, incluida la cooperación con la UE, el G7 y empresas tecnológicas54. A través del Sistema de Alerta Rápida de la UE, la OTAN comparte análisis y buenas prácticas frente a la desinformación. La Cumbre de Vilna de 2023 reforzó esta colaboración, y la iniciativa OTAN 2030 destacó la resiliencia como primera línea de defensa ante amenazas híbridas55.
Imagen 4. La estrategia de la OTAN. Creada por el autor
En resumen, la estrategia de la OTAN refleja una cultura estratégica defensiva basada en la conciencia situacional, la comunicación proactiva y la cooperación. Este enfoque integral demuestra su compromiso con la transparencia, la resiliencia y los valores democráticos, y sirve de base para futuras recomendaciones políticas frente a la desinformación rusa. Sin embargo, al igual que la estrategia de la UE, sigue siendo insuficiente.
Prospectiva
La UE y la OTAN afrontan un desafío creciente ante la desinformación rusa, una amenaza sofisticada que erosiona la confianza pública y los valores democráticos. Sus estrategias requieren mayor coherencia y coordinación, avanzando hacia un enfoque conjunto de toda la alianza y toda la sociedad. Basado en el modelo «preparar, actuar y aprender» de Pamment et al., este enfoque propone integrar educación, alfabetización mediática, comunicación estratégica e innovación tecnológica para construir una defensa proactiva y resiliente56.
La «preparación» es esencial para fortalecer la resiliencia institucional y social. La alfabetización mediática, la concienciación y la formación crítica permiten identificar la manipulación emocional y los sesgos cognitivos que sustentan la desinformación. Centros como el Hybrid Center of Excellence (CoE), Strategic Communication (StratCom) CoE y el Baltic Center for Media Excellence deben coordinarse con universidades y diversas ONG para desarrollar programas específicos y herramientas de detección basadas en inteligencia artificial. Un marco estratégico y legislativo común permitirá anticipar amenazas y reforzar las defensas sociales.
Una respuesta efectiva exige «actuar» mediante una coordinación multinivel frente a campañas activas y sus canales de difusión. La armonización de narrativas militares y civiles refuerza la credibilidad institucional y contrarresta la propaganda de actores estatales y sus proxies. Las herramientas de verificación automática y las alianzas público-privadas deben combatir bots y amplificadores encubiertos, promoviendo contenidos fiables y rompiendo burbujas informativas. A su vez, los marcos legales deben disuadir la producción y distribución de desinformación, todo ello sin comprometer los principios democráticos.
«Aprender» mediante una evaluación constante de campañas pasadas permite mejorar las respuestas futuras. Documentar narrativas hostiles —como las anti-LGTBQ+ en Europa del Este— facilita detectar vulnerabilidades y diseñar contracampañas adaptadas. La inteligencia artificial y la aplicación de técnicas de análisis de big data ayudan a identificar patrones de manipulación y sesgos explotados. Fomentar la transparencia y el debate público mediante líderes e influenciadores refuerza la confianza social y reduce la exposición a la manipulación digital.
En general, defenderse de la desinformación rusa requiere una estrategia integral, tecnológica y adaptativa que combine la capacidad institucional de la OTAN y la UE con la resiliencia de la sociedad civil. La preparación fortalece las defensas, la acción coordinada garantiza respuestas efectivas y el aprendizaje continuo asegura la adaptación frente a amenazas cambiantes. Este enfoque conjunto permitirá proteger los valores democráticos y consolidar una defensa sostenible frente al marco estratégico ruso de desinformación.
Imagen 5. La estrategia propuesta. Creada por el autor
Conclusiones
La desinformación rusa funciona mediante la combinación de volumen, velocidad y variabilidad: repite hasta generar ilusión de verdad, explota sesgos y crisis, y oculta incoherencias. Contrarrestarla exige anticipación psicológica (pre-bunking), fricción algorítmica a la repetición, verificación lateral sostenida, protocolos de crisis con desclasificación rápida y formación en sesgos. Este enfoque convierte el diagnóstico en ventaja operativa.
El modelo ruso es triádico y está apoyado en cinco pilares —comunicaciones oficiales, medios estatales, proxies, redes sociales y ciberespacio— con fabricación, contradicción calculada y segmentación. Degradarlo implica actuar en toda la cadena: producción y proxies (pre-bunking y sanciones), distribución (frenar repetición, retirar bots y astroturfing, auditar plataformas) y consumo (inoculación narrativa, prioridad a verificadores y portavoces). Al integrarse en células conjuntas de la UE–OTAN de respuesta rápida, reduciría la superficie de ataque y aumentaría los costes del adversario.
La evidencia (Países Bajos) muestra un patrón estable: amplificación coordinada, bulos y explotación emocional, con efectos de verdad ilusoria, confirmación y erosión de confianza. La respuesta requiere ciclos continuos de vulnerabilidad-contingencia, acuerdos con plataformas para cortar o limitar la repetición de desinformación y redes estables de pre-bunking y verificación con KPI de detección, retirada y alcance.
La UE y la OTAN aportan capacidades complementarias: la UE regula (moderación transparente, auditorías, priorización de información fiable), y la OTAN añade alerta situacional y coordinación aliada. Para cerrar brechas se requiere ejercer un mando y control conjunto, playbooks comunes, pre-bunking paneuropeo con métricas bien definidas, auditorías técnicas a plataformas y formación generalizada en resiliencia cognitiva a toda nuestra sociedad.
El futuro depende de un ciclo permanente «preparar–actuar–aprender». Preparar implica elevar el umbral cognitivo con alfabetización, pensamiento crítico y coordinación entre centros de excelencia y sociedad civil. Actuar supone sincronizar narrativas, alianzas público-privadas y degradación técnica de bots y astroturfing sin dañar derechos fundamentales. Aprender implica un análisis continuo de narrativas hostiles, técnicas de big data para identificar y desenmascarar los patrones y un liderazgo basado en la transparencia. Operativizar este ciclo mediante una célula conjunta constituida por la UE y la OTAN, ejercicios periódicos y KPI compartidos permitirá pasar de reacción fragmentada a prevención sistemática y blindar los valores democráticos.
La verdad es el terreno decisivo del siglo XXI: no defenderla no es neutralidad, es capitulación estratégica.
Eduardo Lobo Almazán
Comandante de Transmisiones del Ejército de Tierra.
Graduado en Psicología, DEM y graduado del US-Army CGSC y SAMS
Las ideas contenidas en estos artículos son responsabilidad de sus autores, sin que reflejen necesariamente el pensamiento del CESEDEN o del Ministerio de Defensa.
-
-
Guerra por la verdad: anatomía y defensa frente a la desinformación rusa (0,92 MB)
-
War for the Truth: Anatomy and Defense Against Russian Disinformation (0,91 MB)
-
