IEEE. Las redes sociales como armas de influencia masiva y la necesidad de una doctrina informativa

La exposición a Fake News de forma repetitiva en RRSS contribuye a que sea creíble para ciertas audiencias

15 sept 2025

IEEE. Las redes sociales como armas de influencia masiva y la necesidad de una doctrina informativa

Miguel López Garay. Teniente de Navío de la Armada

«La mejor victoria es vencer sin combatir» (Sun Tzu)

Introducción: La revolución de las redes sociales hasta posicionarse como instrumentos de poder e influencia

Ya en el Renacimiento, Maquiavelo reconocía la percepción y el control de la narrativa como elementos clave para la conservación del poder cuando afirmaba «todos ven lo que pareces ser, mas pocos saben lo que eres; y estos pocos no se atreven a imponerse a la opinión de la mayoría».1 Casi quinientos años más tarde y sin la necesidad de transcribirlos, podemos trasladar estos principios a la era Digital de nuestros tiempos, ya que se ajustan milimétricamente al uso extendido de las redes sociales (RRSS) y a la dificultad de discernir entre lo real o verdadero y lo imaginario o irreal, en los entornos virtuales.

La inteligencia artificial (IA)2 era algo prácticamente desconocido hace un lustro, pero ya se analizaba el cambio de paradigma que había supuesto la conexión a internet generalizada y disponible en un teléfono móvil, como una herramienta disruptiva que condecía a cualquier persona una ventana de acceso al mundo. A través de un smartphone cualquiera podía convertirse en un testigo directo de los sucesos a su alrededor y retransmitirlos a lugares remotos, en tiempo real. Simultáneamente, estos dispositivos han otorgado al ciudadano de a pie la oportunidad de informarse sobre acontecimientos inéditos, antes de que lo notifiquen los medios tradicionales, marcando con ello un cambio de tendencia en cómo se informa la sociedad del siglo XXI3.

Con la popularización de la antigua Twitter —ahora X— se consolidó esa tendencia. La aplicación evolucionó rápidamente desde una red social en la que los usuarios compartían sus quehaceres diarios en 200 caracteres, hasta situarse como un potente canal de comunicación masivo y en tiempo real. Pronto, Twitter se posicionaría como una alternativa potencial —y renovada— a los medios de comunicación tradicionales4, a la vez que abría paso a nuevos discursos o formas de comunicar, otorgando voz a actores inéditos —y primeros influencers—.

De manera similar, Facebook o Instagram también se postularon como principales aplicaciones vinculadas a la difusión de contenidos audiovisuales durante la pandemia del COVID-19. Inicialmente primaban el ocio y los deportes, pero progresivamente incorporaron contenidos antaño exclusivos a los canales informativos y medios de prensa generalistas, como son las noticias de actualidad sobre asuntos políticos, económicos, profesionales o religiosos. Este fenómeno marcó también un cambio de rumbo que ilustra el valor informativo de estas plataformas, ahora ya posicionadas como medios de comunicación masivos.

Paralelamente, el periodo post-pandémico sirvió como un campo de cultivo para la expansión de TikTok, la red social que se caracteriza por la difusión de videos de corta duración, que se editan conforme a filtros o tendencias musicales, generando por su novedad una gran atracción, especialmente entre los usuarios más jóvenes. Además, un porcentaje significativo de los menores de 24 años afirma que TikTok es el principal —y en muchas ocasiones incluso— el único sistema de acceso a la información de actualidad que consumen un significativo porcentaje de los jóvenes5, lo que favorece su exposición a contenidos sesgados y desinformación6.

Por último, recientemente han proliferado nuevos canales informativos a través de plataformas de mensajería como WhatsApp o Telegram, que permiten la difusión masiva de contenidos de forma directa y, a diferencia de las redes sociales tradicionales, estos canales restringen la interacción de la audiencia a una serie reacciones limitadas, generalmente mediante emoticonos, lo que los convierte en herramientas de comunicación mayoritariamente unidireccional. Esta disposición refuerza su utilidad para canalizar campañas de propaganda, difusión ideológica o distribución de desinformación, al reducir el debate, eliminar los comentarios y aumentar el control del emisor sobre el mensaje. Además, la percepción de privacidad que ofrecen con el cifrado, fomenta una mayor credibilidad y favorece la circulación de contenidos sin verificación, contribuyendo así a la consolidación de burbujas ideológicas herméticas, alimentadas por ecosistemas paralelos de información. Estas características sitúan a los canales de mensajería como otros espacios clave de las redes sociales, mediante los que canalizar estratégicas informativas, para aprovechar todo el abanico disponible en el entorno digital.

En este sentido, el control del relato y la capacidad de influir en la opinión pública han llevado históricamente a nombrar a la prensa como el «cuarto poder», reconociendo su rol como contrapeso a los poderes tradicionales del Estado. Con la evolución y concentración de los medios de comunicación, especialmente con la irrupción de la televisión y los conglomerados mediáticos, surgió la noción del «quinto poder», atribuido a la creciente capacidad de modelar percepciones a gran escala. Más recientemente surge el término «sexto poder»7, que hace referencia al papel transformador de las redes sociales y la ciudadanía digital conectada, englobando el poder de influencia directa en el debate público que otorgan los avances tecnológicos. Este «sexto poder» está erosionando los monopolios de la información tradicionales y configurando un nuevo espacio de poder descentralizado y altamente dinámico.

En definitiva, hemos sido testigos de la vertiginosa evolución de las RRSS desde sus comienzos como canales de comunicación e interacción social, capaces de reducir las distancias y conectar a usuarios ubicados a cada lado del Atlántico, hasta convertirse en auténticos instrumentos de poder e influencia global. Más allá de canales de comunicación o espacios para la interacción social y el ocio, estas aplicaciones ya se han postulado como un punto de acceso y difusión de información alternativo, capaces de construir relatos, crear percepciones y narrativas, para provocar reacciones en un mundo hiperconectado. De modo que, en la guerra de la información contemporánea, también se han transformado en el medio de comunicación por excelencia para las operaciones en el ámbito cognitivo.

Con una repercusión quizás semejante a la que en su día tuvo internet, cuando Bill Gates afirmaba «si tu negocio no está en internet, tu negocio no existe», en la actualidad, las redes sociales cuentan con más de 5.000 millones de usuarios activos8, lo que las ha posicionado como herramientas fundamentales para Estados, empresas e individuos. Ahora ya no es suficiente con estar conectados, sino que es necesario posicionarnos en todos los canales existentes para tratar de llegar a todos los públicos y audiencias posibles. Por ello, en el contexto actual de creciente tensión geopolítica, el alcance y repercusión de las redes sociales las ha llevado a postularse como un nuevo campo de batalla digital, que favorece la difusión de contenidos con un alcance mayor a cualquier época anterior y donde la verificación se ha convertido en un reto significativo, situando a las RRSS como instrumentos de poder y armas de influencia masiva9.

Por ello, han pasado de ser plataformas de interacción y movilización ciudadanas, para convertirse en un nuevo vector de las operaciones militares en el dominio cognitivo, el principal espacio de maniobra de la guerra en el mundo hiperconectado. En este nuevo ámbito de operaciones, las RRSS se han transformado en un instrumento poderoso, que puede moldear la percepción pública, influir en las decisiones políticas y, en algunos casos, desestabilizar gobiernos. Todo ello las posiciona como potenciales «armas de influencia masiva». Conscientes de su poder, actores estatales y no estatales ya las explotan en sus estrategias de comunicación, buscando atraer la atención pública para controlar el relato e, incluso, conducir actividades maliciosas para expandir narrativas y manipular la realidad.

En consecuencia, las Fuerzas Armadas de distintos países se encuentran en pleno desarrollo de «Maniobras Informativas» o marcos doctrinales que definan la acción de los ejércitos en el entorno digital, reconociendo la urgencia de desarrollar las capacidades militares para sus unidades operen de forma eficaz en el ámbito cognitivo, en un entorno informativo cada vez más complejo y disputado.

El empleo de las redes sociales como armas de manipulación masiva

A pesar de que las RRSS emplean tecnología de última generación, el uso de los medios de comunicación para influir no es algo nuevo. A principios del siglo pasado, el considerado promotor de la propaganda moderna, Edward Bernays, señalaba a la manipulación consciente y organizada de las opiniones de masas, como un pilar fundamental en las sociedades democráticas modernas. En la introducción de su libro Propaganda, Bernays afirma que quienes controlan este «mecanismo oculto» de la sociedad, constituyen el «gobierno invisible»10. En otras palabras, otorga el poder de controlar el mundo mediante una fuerza que moldea las mentes, define los gustos y sugiere ideas, sin que la mayoría de las personas siquiera sean conscientes de su influencia.

Eventos históricos y sociales como las Primaveras Árabes, el movimiento 15M en España, el «#MeToo», la gestión de la pandemia del COVID-19, la comunicación en los primeros días tras la Invasión Ucrania o la campaña en las últimas elecciones norteamericanas, muestran cómo estas plataformas han trascendido de su papel inicial, para convertirse en herramientas clave para la movilización social y la manipulación informativa. De hecho, su impacto va más allá de la difusión de noticias o la articulación de movimientos sociales.

En la actualidad, el uso de las redes sociales se ha extendido a todos los ámbitos de la vida contemporánea. Fusionando las capacidades de la comunicación global, con los avances tecnológicos más recientes, conceden canales inmediatos y de enorme alcance que las posiciona como herramientas clave para el marketing o como mecanismos de manipulación. Permiten la creación y difusión de contenidos a escala global y con grandes índices de audiencia, lo que también las ha convertido en armas estratégicas de manipulación masiva11, en el ya reconocido como el nuevo dominio de la guerra: el ámbito cognitivo.

Mediante la repetición de mensajes breves y potentes, las redes sociales generan efectos cognitivos, alterando opiniones y moldeando narrativas. De esta forma logran influir en las mentes de los usuarios y, por ende, en los procesos electorales y discursos cívicos, lo que despierta especial preocupación y recelo en Occidente12. Dado este poder intrínseco para la influencia de masas, se ha generado un debate sobre su uso extendido e impacto en las sociedades, así como sobre la necesidad de establecer mecanismos de control, verificación o censura.

El su último Informe Anual de Riesgos, el Foro Económico Mundial13 otorga de nuevo un lugar destacado al riesgo asociado a la información —en forma de desinformación y contenido engañoso—en el horizonte de riesgos a dos años. El Informe también subraya cómo esta amenaza dificulta la capacidad de individuos, empresas y gobiernos para discernir la verdad. Además, resalta cómo las amenazas de la polarización social y política se ven amplificadas en el entorno propicio de las RRSS, dado el sesgo algorítmico y la jerarquización de contenidos por usuarios y tendencias.

En la guerra de la información actual, permanente e inherente a la competencia geopolítica, y la «sociedad en red»14, las armas de manipulación masiva son el medio de comunicación principal para explotar el entorno de la información y generar efectos en el ámbito cognitivo, con el fin de alterar la moral y voluntad de las audiencias.

Así lo reflejó la OTAN en el Concepto Estratégico de 202215, en el que identificó a distintos actores estratégicos que amenazan la seguridad de los Estados explotando su digitalización, mediante diversas tácticas híbridas como son la desinformación, la manipulación o la posverdad. Todo ello con el objetivo de debilitar las normas multilaterales y promover modelos autoritarios de gobernanza, recurriendo a operaciones híbridas y cibernéticas maliciosas, a la expansión de la desinformación y a una retórica de confrontación, que ya perjudica directamente la seguridad de los aliados. Asimismo, recientemente, la OTAN ha definido el entorno de la guerra cognitiva como las «actividades militares y no militares deliberadas y sincronizadas a lo largo de la continua competencia, diseñadas para moldear el entorno informativo y afectar a las actitudes, percepciones y comportamientos de las audiencias, con el fin de obtener, mantener y proteger la superioridad cognitiva»16.

En España, la doctrina militar nacional va un paso más allá y contempla esta realidad, reconociendo seis dominios de las operaciones. Los dominios clásicos —terrestre, marítimo y aeroespacial—, han sido recientemente extendidos con la irrupción de los dominios no físicos, constituidos por el dominio espacial, ciberespacial y cognitivo, que incluye además el entorno de la información. Además, la doctrina de empleo de las FAS reconoce los dominios mixtos «que generan el dominio ciberespacial y el cognitivo», y que son transversales al resto de dominios17.


Ilustración 1 Dominios de las operaciones (Fuente: PCD-01)

En este nuevo dominio de la guerra, las RRSS ya ostentan un papel cardinal y multidisciplinar de especial relevancia. Representan retos y amenazas que afectan a la arquitectura de Seguridad y Defensa como catalizador de los dominios mixtos —y transversales a todos los ámbitos de operación—. En particular, en el ámbito cognitivo son capaces de aplicar el poder de la imagen —mediante videos de corta duración y repetitivos— y así permeabilizar mensajes fuerza al plano del racionamiento y las emociones, generando grandes efectos en la sociedad, que condiciona la toma de decisiones.

Campañas informativas o —desinformativas— canalizadas a través de RRSS y, más recientemente en canales de plataformas de mensajería como WhatsApp o Telegram, permiten modificar el conocimiento y alterar las creencias, pudiendo generar sentimientos o deseos, y por tanto motivaciones, con un poder de influencia extremadamente relevante. En definitiva, las RRSS son idóneas para ensalzar narrativas por el poder de las percepciones que recibimos a través de vídeos e iconografías, pudiendo alterar nuestras decisiones y generar conductas, ya sea como individuo o dirigente18.


Ilustración 2 Captura canal pro-ucraniano Ukraine NOW, en Telegram

Al mismo tiempo, las acciones realizadas a través de las RRSS permiten encubrir al atacante y, paralelamente, difuminan la frontera entre los conflictos o situaciones de crisis, de los periodos de paz, lo que ha favorecido su expansión en entornos estratégicos o la «zona gris» de los conflictos, dado el periodo de competencia geopolítica existente. Empleadas correctamente, devastan las ventajas que proporcionan los efectos físicos de las tácticas convencionales, hasta el punto de que una victoria en los ámbitos tradicionales de la guerra puede volverse en contra del atacante y acercarlo a una «derrota moral»19 y de consecuencias devastadoras en la campaña.

Los acontecimientos internacionales de la última década nos permiten ilustrar con ejemplos reales sobre cómo distintos Estados o actores internacionales emplean las «armas de manipulación masiva». Desde 2014, Rusia lleva a cabo una campaña de desinformación propagandística para justificar y encubrir la decisión unilateral de anexionar Crimea. Para ello, utiliza medios periodísticos estatales como Russia Today (RT) y Sputnik News, junto con una red de bots y cuentas falsas, que promueven narrativas repetitivas en redes sociales, con mensajes que denuncian que el gobierno ucraniano es neonazi, que la población de Crimea estaba en peligro, y que el referéndum de anexión fue legal y apoyado masivamente20.


Ilustración 3 Titulares de distintos medios rusos que ilustran el empleo de falsas narrativas (Fuente: The New York Times)21

Igualmente, durante la pandemia de 2020, las autoridades chinas retrasaron la divulgación de información crítica sobre la pandemia del COVID-19 en las primeras etapas del brote en Wuhan, incluyendo la demora en compartir el genoma del virus y la censura a médicos como Li Wenliang, que intentaron alertar sobre la situación22. Posteriormente, promovieron narrativas que sugerían que el virus se originó en Estados Unidos y destacaron su gestión ejemplar de la crisis, para reforzar su legitimidad. Y, desde un prisma más geoestratégico, realizaron operaciones híbridas y cibernéticas maliciosas que, junto con una retórica de confrontación y campañas de desinformación, buscaron ampliar su influencia y perjudicar a Occidente23.

La guerra en la franja de Gaza también nos aporta sendos ejemplos de cómo Hamás explota las RRSS para dar difusión a imágenes impactantes que denuncian las devastadoras consecuencias de los ataques israelís sobre la población civil. Hamás ha destacado por su capacidad para inundar redes sociales con imágenes aturdidoras, en muchos casos sacadas fuera de contexto24, logrando así revocar la superioridad de las Fuerzas Armadas de Israel y contrarrestar los ataques físicos, con tácticas morales que han conseguido convertir prácticamente cada uno de los ataques físicos israelíes, en presuntas atrocidades contra civiles. Estas tácticas, que incluyen narrativas de victimización absoluta de la población de Gaza y la justificación de sus ataques, han sido documentadas y analizadas por organizaciones como Human Rights Watch, Amnistía Internacional y desmentidas por el IDF como parte de su campaña de propaganda.


Ilustración 4 Imágenes generadas con IA para obtener efectos cognitivos en Gaza (Fuente DW)25

Los ejemplos actuales arrojan luz sobre cómo las redes sociales, a través del poder de la imagen, los algoritmos de recomendación, el diseño de campañas de desinformación y la viralización de narrativas, son capaces de modelar realidades y construir relatos, convirtiéndose en elementos centrales para la consecución de efectos en el ámbito cognitivo de los conflictos armados.

Ante esta nueva realidad, se puede afirmar que la expansión de los entornos digitales conlleva serias implicaciones en la arquitectura de Seguridad y Defensa, ya que representan desafíos y amenazas que deben abordarse desde distintas dimensiones para ser comprendidas en profundidad. Además, en caso de necesidad, y como parte de los planes de reacción o contingencia en el ámbito cognitivo, deben poder ser explotadas en todas sus capacidades, para conseguir la superioridad de la decisión en las operaciones en el multidominio.

Para ello es necesario, en primer lugar, romper la barrera de la falta de transparencia algorítmica y entender su papel en los procesos de radicalización. En segundo lugar, debemos ser capaces de identificar estrategias maliciosas de desinformación y posverdad, como posibles mecanismos de injerencia externa, que busquen una conformación artificial de la opinión pública. Y, por último, los nuevos tiempos requieren de una actualización constante para ser capaces de discernir entre lo real e imaginario, advirtiendo de manera temprana sobre posibles deepfakes o maniobras de engaño.


Ilustración 5 Influencia de las redes sociales en las percepciones (Fuente: elaboración propia)

Comprender la opacidad del algoritmo y su papel en la radicalización

El ser humano es propenso al pensamiento comunitario y a la polarización, lo que influye en cómo y por qué se toman ciertas decisiones. La confianza social es un mecanismo de supervivencia esencial sin el cual las divisiones y la polarización pueden profundizarse. Por ello, los riesgos asociados al sesgo algorítmico en las redes sociales son objeto de un exhaustivo estudio, con numerosos análisis e informes que alertan sobre sus implicaciones en todos los ámbitos de la sociedad.

El diseño de los algoritmos, las interacciones de los usuarios, así como el entrenamiento de la IA contribuyen a la generación de burbujas, dentro de las cuales se jerarquizan los contenidos de acuerdos a la edad de las audiencias, el historial de contenidos visualizados, los intereses identificados y las tendencias políticas, entre otros. Ya sea de manera intencional o aleatoria, la generación de estas burbujas contribuye a la “polinización” de micronarrativas o a la incubación de grupos de pensamiento sesgado. Además, tal y como presenta Miguel Palomo, en ocasiones «el deseo de verdad se convierte en una categoría superior a la de las condiciones de verdad, determinando definitivamente lo que para nuestra comprensión es y debe ser lo verdadero y lo falso»26. Es decir, frecuentemente, es el espectador el que decide “lo que quiere ver”, produciéndose un cambio epistémico, restando importancia a la verdad o conocimiento, a pesar del enorme acceso a la información en nuestros tiempos.

Un ejemplo ilustrativo de cómo los algoritmos pueden impactar negativamente en la dimensión cognitiva, favoreciendo la propagación de la desinformación y socavando la confianza social, se encuentra representado en el documental de Netflix El dilema de las redes sociales27. Esta obra expone de forma accesible cómo los sistemas algorítmicos, diseñados para maximizar la atención y el tiempo de uso, terminan por reforzar burbujas informativas, fomentar la polarización política y social, y facilitar la difusión de contenidos extremistas. Así, se presenta cómo los algoritmos, lejos de ser objetos neutrales, configuran los entornos digitales, promueven la manipulación emocional, dificultan el diálogo y contribuyen a la fragmentación del tejido social, por lo que entrañan grandes riesgos para las democracias.

La lógica de maximización del engagement de los algoritmos en las redes sociales conduce a que los contenidos más emocionales, controversiales o extremos tengan mayor visibilidad, alimentando un clima de desinformación y desconfianza institucional, que podría ser explotado tanto por actores internos como por potencias extranjeras con fines desestabilizadores28. Por ello, sus efectos son particularmente relevantes en el contexto de la Seguridad Nacional, ya que pueden contribuir a la expansión de discursos radicales que erosionan la cohesión social y amenazan la estabilidad política de los Estados29.

Además, a pesar de su aparente neutralidad técnica, los algoritmos pueden ser entrenados con datos sesgados o inyecciones diseñadas intencionadamente para posicionar ciertos contenidos o para amplificar determinadas narrativas. Ejemplo de ello es el caso del sistema Operation Sentinel del Department of Homeland Security (DHS) de los Estados Unidos30, una plataforma de análisis predictivo utilizada para la detección de amenazas a la seguridad nacional. A pesar de la imparcialidad inicial de su diseño, diversos estudios han señalado que, al estar entrenado con datos históricos recopilados en contextos marcados por sesgos raciales y religiosos, el sistema tiende a sobrerrepresentar a comunidades musulmanas o de origen árabe como potenciales amenazas, sin que los patrones reales de riesgo lo justifiquen empíricamente31. Este tipo de sesgo algorítmico no solo distorsiona las prioridades operativas del sistema, sino que puede vulnerar derechos fundamentales y erosionar la legitimidad institucional de las agencias de y seguridad.


Ilustración 6 HumanAlgorithm Biased: una transferencia de errores sistémicos (Fuente: elaborado por el autor)

En el ámbito de la ciberseguridad, los sistemas algorítmicos no solo son vulnerables a sesgos derivados de datos incompletos o desequilibrados durante la fase de diseño y producción, sino que también a formas activas de sabotaje informativo. Por ejemplo, el empleo de redes de bots para generar interacciones masivas y coordinadas pueden alterar los patrones de comportamiento o respuesta, y han sido empleados para alimentar el entrenamiento de los algoritmos, modificando así el entorno informativo —y las réplicas del software— de forma intencionada. Un caso paradigmático de esta problemática lo constituyen las campañas de desinformación vinculadas a actores extranjeros en las elecciones presidenciales de EE.UU. en 2016. Sendas investigaciones del Senado estadounidense revelaron que entidades como Internet Research Agency (IRA) emplearon miles de cuentas falsas y bots automatizados para amplificar contenido polarizante, sembrar división social y manipular el discurso político, influyendo de manera directa en los flujos de información que moldeaban la percepción pública32.

Este fenómeno adquiere una nueva dimensión con el auge de la inteligencia artificial generativa y los sistemas conversacionales, como los chatbots avanzados, que pueden ser alimentados —de forma maliciosa o inadvertida— con información sesgada o falsa, reproduciendo y amplificando dichos sesgos en sus respuestas, lo que plantea nuevos riesgos y entraña una nueva dificultad a la hora de verificar la fiabilidad de las fuentes automatizadas de información.


Ilustración 7 Representación de respuestas falsas en IA generativa (Imagen creada por el autor con apoyo de IA)

Entender el funcionamiento de estos algoritmos es fundamental para poder proteger a la sociedad, educar a las audiencias y diseñar los mecanismos de seguridad apropiados, que reduzcan los riesgos y minimicen la exposición a intenciones maliciosas que busquen explotar el funcionamiento de los algoritmos para difundir información e influir en el ámbito cognitivo.

Identificar injerencia, desinformación y posverdad

La creciente popularidad de las redes sociales en la comunicación global ha propiciado no solo la radicalización de ciertos discursos, sino también la emergencia de nuevas formas de injerencia política. Entre ellas destacan las campañas de desinformación, diseñadas para manipular la opinión pública mediante la difusión estratégica de contenidos falsos o engañosos.

Estas iniciativas impulsan narrativas hostiles a través de la repetición sistemática de contenidos y el uso estratégico de recursos visuales y apelaciones emocionales. De este modo, introducen lo que se ha denominado «hechos alternativos»33 y se articulan conforme a la lógica de la posverdad, en la que las emociones y creencias personales adquieren mayor peso que los hechos verificables34. Esta dinámica favorece la construcción de realidades distorsionadas que se instalan progresivamente en el imaginario colectivo35. En consecuencia, se consolida un entorno en el que la subjetividad se impone a la evidencia empírica, posicionando a las redes sociales como vectores especialmente eficaces para desestabilizar el tejido social y erosionar la confianza en las instituciones democráticas36.

Uno de los riesgos más críticos y asociados a estas campañas de desinformación es que sus efectos no se limitan a la opinión pública, sino que pueden incidir directamente en los procesos de toma de decisiones en materia de seguridad. En contextos especialmente sensibles —como elecciones, referéndums o crisis internacionales—, la desinformación se convierte en un arma estratégica en el marco de la guerra híbrida, debilitando la cohesión social, erosionando la legitimidad institucional y generando un entorno de ambigüedad que también condiciona y compromete la capacidad de respuesta del Estado.

Entre los mecanismos más eficaces empleados destaca la repetición sistemática de mensajes clave, una táctica que se fundamenta en el conocido «efecto de mera exposición»37. Este fenómeno psicológico sostiene que cuanto más se repite una idea, mayor familiaridad genera, y en consecuencia, tiende a percibirse como más creíble o verdadera. Esta técnica ha sido utilizada a escala global, desde las campañas de desinformación durante el referéndum del Brexit hasta las estrategias de influencia desplegadas en la guerra de Ucrania, donde actores estatales han recurrido a la manipulación visual y a narrativas emocionalmente cargadas para justificar acciones ofensivas y desacreditar a sus oponentes38.

En el ecosistema digital contemporáneo, la imagen que ya valía «más que mil palabras» se ha convertido en una herramienta de gran poder persuasivo a escala global. Memes, vídeos breves y montajes visuales circulan con mayor velocidad que los textos y apelan directamente a las emociones, generando respuestas inmediatas que pueden reforzar estereotipos o validar narrativas erróneas. Ejemplos documentados, como el uso de vídeos descontextualizados durante las protestas del movimiento Black Lives Matter o la difusión de imágenes manipuladas en el conflicto sirio, evidencian cómo el contenido visual puede ser instrumentalizado para desinformar, justificar intervenciones armadas o movilizar a la opinión pública a favor de determinados intereses geopolíticos39.

Esta instrumentalización se ve favorecida por un entorno sobresaturado de información, en el que la falta de alfabetización mediática se posiciona como otro factor clave de vulnerabilidad40.40 La combinación entre volumen informativo, la baja capacidad crítica y el funcionamiento algorítmico que priorizan lo emocional ha creado un caldo de cultivo ideal para la proliferación de bulos, narrativas polarizantes y teorías conspirativas. Investigaciones como la de Vosoughi41, demuestran que las noticias falsas se difunden con mayor rapidez y alcance que las verdaderas, especialmente cuando despiertan emociones intensas como son el miedo, la sorpresa o la indignación. Este fenómeno no solo fragmenta el espacio público, sino que también dificulta la capacidad de los Estados para ofrecer respuestas coordinadas y efectivas frente a amenazas reales, debilitando la credibilidad de las fuentes legítimas de información.

En síntesis, ante este panorama, minimizar, mitigar o neutralizar los efectos de la desinformación requiere una estrategia integral que combine la anticipación con la resiliencia social. Para ello es imprescindible avanzar en la identificación temprana de actores maliciosos, canales de distribución y mensajes manipulativos, mediante el desarrollo de sistemas avanzados de monitorización y análisis de datos abiertos. Igualmente, importante es fomentar la cooperación entre actores públicos y privados para compartir inteligencia y establecer marcos comunes de actuación para mantener el control del entorno informativo. No obstante, ante la imposibilidad de controlar la inmensidad de los entornos digitales, el elemento más decisivo radica en fortalecer la alfabetización crítica de la ciudadanía, promoviendo una cultura de pensamiento analítico que refuerce su inmunidad frente a la manipulación digital.

La disolución de los límites entre lo real y lo imaginario en los entornos digitales

La dicotomía entre lo real y lo imaginario ha sido objeto de reflexión profunda en la tradición filosófica, especialmente desde enfoques epistemológicos y ontológicos. Sin embargo, en la era digital, este debate ha trascendido el plano teórico para arraigarse en la experiencia cotidiana, transformándose en una preocupación central en los estudios sobre comunicación, cognición y política. En particular, las redes sociales y los entornos virtuales han amplificado la confusión entre lo que es real y lo que ha sido construido, manipulado o directamente inventado42.

Este fenómeno se agrava con la proliferación de tecnologías emergentes como los deepfakes o la inteligencia artificial generativa, que permiten producir contenidos falsificados de apariencia verosímil. Esta capacidad para fabricar realidades simuladas con alto grado de sofisticación, unida a la acción de bots automatizados que replican narrativas preconfiguradas, contribuye a erosionar las ya frágiles fronteras entre lo verdadero y lo falso. En este contexto, se configura una hiperrealidad mediada por algoritmos —tal como anticipó Baudrillard—, donde lo inventado no solo sustituyen a la realidad, sino que en muchas ocasiones son percibidos como más legítimos que los hechos43. El resultado es un ecosistema informativo fragmentado y vulnerable, especialmente susceptible a la manipulación con fines ideológicos, electorales o geoestratégicos. Esta dinámica no solo compromete la confianza pública, sino que condiciona los procesos de construcción de sentido, debilitando las bases del consenso democrático y la posibilidad de un debate racional informado.

Un caso paradigmático de esta distorsión de la realidad, —y de severa confusión epistemológica— es el resurgimiento del movimiento terraplanista. A pesar de que durante décadas fue considerado un discurso marginal, sin respaldo científico ni legitimidad social, recientemente ha encontrado un terreno fértil en plataformas digitales como YouTube, TikTok o Twitter/X. En estos espacios, el contenido pseudocientífico se presenta en formatos visuales atractivos, fácilmente compartibles y emocionalmente provocadores, lo que facilita su viralización. Además, la lógica algorítmica de estas plataformas —diseñada para maximizar la interacción y viralización, no la veracidad— favorece que narrativas ficticias como la negación de la esfericidad de la Tierra obtengan visibilidad, refuerzo social y una audiencia creciente. De este modo, creencias desacreditadas por la ciencia se reactivan y se consolidan en comunidades digitales cerradas, donde el refuerzo mutuo sustituye al debate crítico y a la evidencia científica.


Ilustración 8 El líder de terraplanismo, Mark Sargent, sujetando un modelo de su teoría (Fuente: HeraldNet)

Este flamante auge del terraplanismo ilustra cómo la tendencia a confirmar creencias previas, denominado sesgo de la información —confirmation bias—, lleva a los individuos a buscar, seleccionar e interpretar información de forma que reafirme sus creencias previas, reforzando así visiones subjetivas y, a menudo, distorsionadas del mundo. Esta propensión no solo alimenta la desconfianza hacia la ciencia, los medios de comunicación y las instituciones educativas, sino que genera un replanteamiento radical sobre cómo se construye la realidad individual. Las redes sociales, al operar mediante algoritmos que filtran contenidos según preferencias previas y objetivos de viralización, intensifican esta dinámica al limitar el acceso a ciertas fuentes con menos engagement y suprimir la exposición al disenso, dificultando el desarrollo del pensamiento crítico, dado el efecto de «burbujas de filtro» y «cámaras de eco».

En el extremo más llamativo la nueva dicotomía entre lo real y lo imaginario en el entorno digital se encuentra el fenómeno de los shifters, difundido principalmente entre adolescentes y jóvenes en redes sociales como —como Reddit o TikTok—. Este movimiento se basa en el «reality shifting»44, que consiste en la adopción consciente de identidades alternativas y la afirmación de poder "trasladarse" a universos ficticios —como el de Harry Potter o de otras series populares— a través de técnicas de visualización, sugestión, meditación y estados de trance. Aunque en apariencia puede parecer un juego o forma de evasión inofensiva, plantea serias preocupaciones en términos de salud mental, percepción de la realidad y desarrollo de identidad, especialmente en etapas de alta vulnerabilidad emocional —como la adolescencia—. La permanencia en contextos de desconexión social por la inmersión prolongada en mundos ficticios puede dificultar la adaptación a la vida real y alimentar el aislamiento.

El documental de Netflix Adolescencia45, ilustra con contundencia cómo las nuevas generaciones se sumergen en entornos digitales hondamente moldeados por estándares irreales de éxito, belleza o reconocimiento social, y sus consecuencias, arrojando luz sobre el fenómeno de los «incel» o célibes involuntarios. En este sentido, representaciones idealizadas pueden generar una desconexión con la realidad física, deteriorando la autoestima e incrementando los niveles de ansiedad, estrés y depresión. Esta serie sirve para poner el foco en el fenómeno de que, en muchos casos, los jóvenes de hoy en día construyen su identidad en función de una vida digital “hipereditada” que no refleja su experiencia cotidiana, lo que demuestra que las redes sociales y los entornos virtuales acentúan la disonancia entre el “ser y el parecer”.

Este fenómeno de la hiperrealidad digital no solo tiene implicaciones psicológicas y culturales, sino también profundas repercusiones políticas y estratégicas. La capacidad de crear realidades paralelas mediante imágenes, narrativas y símbolos ha sido instrumentalizada para manipular la opinión pública, deslegitimar consensos democráticos e incluso justificar acciones de injerencia exterior. En este tipo de procesos, la imagen adquiere un rol central por su eficacia para condensar significados emocionales de alto impacto en cuestión de segundos. Pues, tal como señaló Susan Sontag, la fotografía no solo representa la realidad, sino que también la construye46, convirtiéndose así las redes sociales en un vehículo privilegiado de desinformación y propaganda en la era digital.


Ilustración 9 La exposición a Fake News de forma repetitiva en RRSS contribuye a que sea creíble para ciertas audiencias (Fuente: elaboración propia con IA)

Tácticas informativas en redes sociales durante conflictos armados contemporáneos

En los conflictos armados del siglo XXI, las redes sociales han adquirido una notable centralidad y se posicionan como un potente vector para el desarrollo de tácticas en el dominio cognitivo. Es decir, tras haber evolucionado a entornos de confrontación simbólica, donde se disputa la hegemonía narrativa en prácticamente todos los ámbitos y temáticas, se han convertido en herramientas de uso diario para las operaciones psicológicas e informativas militares, especialmente en el marco de las incuestionables campañas híbridas que ejecutan algunos Estados y actores internacionales.

Además, el uso intensivo de la información del mundo hiperconectado se enmarca en un contexto geopolítico donde las fronteras entre la guerra y la paz se han vuelto difusas. La aparición de la denominada «zona gris» —un espacio intermedio entre la confrontación abierta y la disuasión encubierta— ha otorgado a la información un valor equivalente al de las armas convencionales. Como respuesta, numerosos Estados han comenzado a desarrollar sus doctrinas y marcos normativos específicos que definan la actuación de sus Fuerzas Armadas en el ámbito cognitivo, reconocido como un nuevo entorno de las operaciones militares en los conflictos multidominio.

En este sentido, Estados Unidos marcó un hito en 2022 con la publicación Marine Corps Doctrinal Publication 8: Information47, el primer documento doctrinal del Cuerpo de Marines de la US Navy dedicado exclusivamente a la información como una función operativa de combate. Desde su preámbulo, la doctrina establece que la información «no es un ámbito exclusivo de los especialistas», sino una herramienta decisiva que debe ser comprendida y empleada por todos los miembros de las Fuerzas Armadas. Así, se reconoce el empleo de la información no solo como un recurso instrumental, sino como un dominio estratégico en sí mismo, que debe integrarse transversalmente en todos los niveles de mando y fases del conflicto. Además, se define a la información como una fuente de ventaja explotable y, simultáneamente, como una posible vulnerabilidad, lo que obliga a repensar su rol dentro de la guerra moderna.

Para ilustrar este enfoque, la MCDP 8 incorpora distintos ejemplos actuales, como el concepto de la estrategia Three Warfares, desarrollada por la República Popular China y aplicada, entre otros escenarios, a sus reclamaciones en el mar de China Meridional. De acuerdo a la doctrina norteamericana, la estrategia china se sustenta en tres pilares interconectados: la guerra de la opinión pública y los medios, la guerra psicológica y la guerra legal48. Su finalidad es moldear las percepciones nacionales e internacionales en favor de los propios intereses de China, evitando la confrontación directa y dificultando la respuesta de sus adversarios. De acuerdo con este análisis, la estrategia Three Warfares ha permitido a China avanzar en sus posiciones territoriales en el Indo-Pacífico, mediante campañas de desinformación, legitimación jurídica y control del relato, consolidando así hechos “consumados”, sin provocar un choque militar abierto.

De forma paralela, la doctrina identifica en Rusia una estrategia similar basada en la desinformación masiva, la manipulación mediática y las operaciones psicológicas. Se presenta estas tácticas como otras maniobras informativas que tampoco buscan la victoria a través del enfrentamiento directo, sino mediante la erosión interna de las sociedades adversarias y el debilitamiento de sus instituciones democráticas. Se resalta también campañas protagonizadas por otros Estados como Irán y actores o grupos no estatales como Al Qaeda o Hezbollah, que emplean enfoques afines para compensar su desventaja en términos de poder convencional, utilizando la información como instrumento de desgaste y subversión.

En Europa, una de las propuestas doctrinales más avanzadas en este ámbito es la desarrollada por las Fuerzas Armadas de los Países Bajos bajo el concepto de «Maniobra Informativa» (Information Manoeuvre, IM), formalizada en su Visión 203549. Esta doctrina propone un cambio paradigmático al considerar a la información como una capacidad bélica autónoma, no subordinada a las operaciones cinéticas50.

En la visión de los países bajos, el alcance de la «Maniobra Informativa» se extiende más allá del ámbito militar tradicional —o las dimensiones físicas—, abarcando la virtual y cognitiva, con el propósito de influir en la percepción del adversario y condicionar sus decisiones. En este sentido, los holandeses proponen una integración total de capacidades de inteligencia, ciberdefensa, operaciones psicológicas y comunicación estratégica, para generar ventajas en el entorno de la información y en el campo de batalla, con una «Maniobra Informativa» que contempla técnicas que van desde la recopilación y análisis de datos, hasta operaciones ofensivas de influencia y desinformación51.

La finalidad de la «Maniobra Informativa» es generar efectos informacionales que actúen sobre el ciclo de decisión del adversario y, estructurado bajo el modelo OODA (Observe – Orient – Decide – Act), busca influenciar en “misión permanente”. Es decir, el objetivo no se limita a desorganizar al oponente, sino que el fin es moldear activamente su percepción, limitar su margen de acción y, en última instancia, impedir su respuesta antes incluso de que el conflicto se manifieste físicamente. De esta forma, Países Bajos convierte a su «Maniobra Informativa» en el principal instrumento garante de paz, para evitar conflictos abiertos, ganar sin combatir y asegurar la legitimidad y efectividad de las operaciones militares propias.


Ilustración 10 Ciclo OODA (Fuente: Visual Paradigm)

Otra aportación novedosa del enfoque holandés es el concepto «cognitive security», que engloba las acciones encaminadas a proteger los procesos de percepción y toma de decisiones de la propia población frente a operaciones de influencia externas. Países Bajos concluye que, en el escenario informativo actual, la ciudadanía ya no es un mero espectador, sino un objetivo directo de operaciones informativas hostiles y de campañas de manipulación, como las desplegadas por Rusia durante la guerra en Ucrania, donde el uso coordinado de trolls, bots y narrativas polarizantes logró erosionar el apoyo a las acciones defensivas ucranianas, en parte de los países occidentales.

Finalmente, la doctrina propone la creación de unidades de IM permanentes, con un alto grado de especialización en inteligencia, ciberdefensa y análisis psicológico, capaces de actuar incluso antes del estallido de un conflicto armado. Y se conceden matices que apuntan a que el desarrollo de las estructuras de información será modular, lo que permitirá operar tanto en remoto como in situ –o en el terreno-, en torno al principio de que la maniobra física debe seguir a la maniobra informativa, no al revés, lo que invierte el orden tradicional de las operaciones militares.

En suma, en un entorno estratégico caracterizado por la explotación masiva de la información, ya entendida un arma de manipulación masiva —capaz de alterar percepciones, deslegitimar autoridades y evitar enfrentamientos convencionales—, limitarse a una defensa reactiva equivale a ceder la iniciativa en el entorno de la información.  Por ello, cabe plantear una pregunta clave para las Fuerzas Armadas y los responsables de seguridad nacional: ¿es posible mantener la superioridad estratégica en el siglo XXI sin desarrollar una Maniobra Informativa propia?

Conclusiones y recomendaciones

La expansión del entorno digital y el creciente protagonismo de las redes sociales han introducido transformaciones profundas en la arquitectura de Seguridad y Defensa global. Lejos de representar un simple reto comunicativo o tecnológico, las RRSS están modificando la lógica operativa de los conflictos armados, al convertirse en espacios de maniobra, donde se disputa activamente la legitimidad, la percepción y el relato.

El concepto de guerras híbridas, antes limitado al lenguaje doctrinal militar, ha pasado a formar parte del lenguaje habitual en los medios de comunicación y discursos políticos, revelando su pertinencia para poder comprender las formas actuales de confrontación. Ahora, las guerras no se disputan únicamente con armas, sino que cada vez adquieren un mayor protagonismo las narrativas, los datos y las emociones. A través de acciones coordinadas —en todos los instrumentos de poder—, los actores buscan alcanzar objetivos estratégicos sin recurrir a enfrentamientos convencionales. En este escenario, Estados como Rusia, China o Irán, y actores no estatales como el grupo terrorista Hamás, han demostrado una notable capacidad para explotar las vulnerabilidades de las sociedades democráticas, combinando ciberataques, manipulación informativa, presiones económicas e instrumentalización jurídica para socavar el orden liberal internacional y promover modelos autoritarios.

Este es, precisamente, el paradigma de los conflictos contemporáneos, batallas que se libran —y se ganan o pierden— en el terreno cognitivo, donde la desinformación, el control del relato y la manipulación son armas tan eficaces como las municiones. Además, estas nuevas guerras informativas no esperan a que se dispare la primera bala, sino que se gestan con antelación en los entornos digitales, moldeando la opinión pública, condicionando las decisiones estratégicas y debilitando la cohesión social y, por ende, institucional. Por ello, las redes sociales se han transformado en verdaderos espacios de confrontación estratégica que exigen una atención prioritaria desde el ámbito de la Seguridad y la Defensa.

El estudio de las Maniobras Informativas —tanto de actores adversarios como de aliados— se vuelve crucial para comprender la lógica de la “inundación informativa” como táctica de saturación y engaño deliberada. Estrategias, orientadas a generar confusión, fragmentación y desorientación, ya forman parte integral de campañas híbridas cuya aproximación principal es la explotación del dominio cognitivo y, en muchos campos, cuyo canal de comunicación predominante son las RRSS. Por ello, la doctrina desarrollada por las Fuerzas Armadas de los Países Bajos constituye una aportación innovadora, al reconocer la información no solo como un recurso de apoyo, sino como una capacidad bélica autónoma, que debe guiar y anticipar la acción militar.

En este sentido, el principio fundamental de esta doctrina —según el cual la maniobra física debe suceder a la maniobra informativa, y no al revés— resulta especialmente revelador y recuerda a la tesis de Sun Tzu: «la mejor victoria es vencer sin combatir». Así como en el pasado posicionar una flota a barlovento podía definir el curso de una batalla, actualmente una estrategia comunicativa bien diseñada puede inclinar el conflicto sin necesidad de recurrir a ningún medio cinético. La información, entonces, deja de ser un medio auxiliar para convertirse en el eje articulador de la política y diplomacia, las decisiones estratégicas y la acción militar.

Ante este nuevo escenario, se conjetura la necesidad de desarrollar un marco doctrinal propio para las Maniobras Informativas de las Fuerzas Armadas españolas, que defina su papel en tiempos de paz, crisis y conflicto, bajo unos criterios estratégicos, jurídicos y éticos claros. Este marco debe permitir actuar de forma proactiva, eficaz y legítima frente a las amenazas híbridas y las campañas de desinformación de nuestros tiempos. En esta línea, se proponen las siguientes líneas de acción:

  • Realizar un análisis continuo de las estrategias informativas extranjeras, especialmente aquellas ya desplegadas por actores no aliados, que cuentan con una alta sofisticación y madurez en sus operaciones cognitivas -como Rusia, China, Irán-, con el fin de anticipar sus tácticas e identificar patrones de influencia en entornos democráticos.
  • Desarrollar una doctrina nacional, para el empleo de la fuerza conjunta en el dominio cognitivo, que no restrinja las Maniobras Informativas al escenario de conflicto, sino que distinga entre las medidas disuasorias, pasivas y ofensivas, aplicables tanto a operaciones permanentes y de tiempo de paz —como son las operaciones de Presencia, Vigilancia y Disuasión—, así como las respuestas específicas ante crisis o amenazas a la Seguridad Nacional.
  • Asimismo, valorar la creación de una estructura operativa permanente que englobe desde el nivel estratégico al táctico, para constituir unidades de operaciones de información permanentes, con un alto grado de especialización, para garantizar la soberanía y los intereses nacionales en el ámbito cognitivo.
  • En otro orden de cosas, identificar sistemáticamente actores clave en el entorno digital, desde influencers aliados, hasta redes de propaganda y desinformación enemigas. Esta cartografía cognitiva debe alcanzar el mismo nivel de precisión que se ha logrado en el ciberespacio, a fin de poder explotar, contrarestar —o neutralizar, si fuese necesario— operaciones de influencia.
  • Dado la rapidez con la que evolucionan las RRSS y los canales disponibles, considerar la creación de grupos de trabajo en los que se recojan las opiniones de un amplio abanico de sectores y rangos de edad, para tratar de comprender y conocer las últimas tendencias y, por tanto, posibles vectores de la amenaza.
  • Por último, aplicar los desarrollos tecnológicos y de la inteligencia artificial para automatizar el análisis del entorno informativo en las redes sociales, de forma que permita acelerar el ciclo de OODA, para adaptar los planes de respuesta y las acciones tácticas a la rapidez de las comunicaciones en los entornos virtuales, así como identificar de forma temprana riesgos potenciales y amenazas emergentes.

Como señalaba el ajedrecista Savielly Tartakower, «la táctica es saber qué hacer cuando hay algo que hacer; la estrategia es saber qué hacer cuando no hay nada que hacer». Precisamente, las Maniobras Informativas representan esta dimensión estratégica: la capacidad de actuar antes, durante y después de la confrontación, moldeando el entorno, ampliando el margen de maniobra nacional y proyectando poder, sin necesidad de recurrir al uso directo de la fuerza.

Por lo tanto, en respuesta a la cuestión planteada, España debe avanzar decisivamente en el desarrollo de sus propias Maniobras Informativas con el objetivo de explotar de forma estratégica el ámbito cognitivo, para mantener la superioridad estratégica y poder asegurar la soberanía en el entorno de los conflictos multidominio, cada vez más complejos, digitalizados y cambiantes.

Miguel López Garay
Teniente de Navío de la Armada

Las ideas contenidas en estos artículos son responsabilidad de sus autores, sin que reflejen necesariamente el pensamiento del CESEDEN o del Ministerio de Defensa.

1MAQUIAVELO, Nicolás. El Príncipe. 1532. Alianza Editorial.
2MONREALE, Anna. Artificial intelligence in accounting and auditing: Accessing the corporate implications. 2024. En: An introduction to artificial intelligence. London: Palgrave Macmillan, pp.63–89.
3HERRERO-CURIEL, Eva. El periodismo en el siglo de las redes sociales. Revista de Comunicación Vivat Academia. 2011. pp 113-1128.
4CAMPOS-DOMÍNGUEZ, Eva. Twitter y la comunicación política. 2017. Universidad de Valladolid. Producción Científica. Disponible en: https://uvadoc.uva.es/handle/10324/42114
5CABRERA, Constanza. ¿Están los jóvenes desinformados por culpa de las redes sociales? El País. 14/04/2024. Disponible en: https://elpais.com/tecnologia/2025-04-14/estan-los-jovenes-desinformados-por-culpa-de-las-redes-sociales.html
6HSU, Tiffany. Worries Grow That TikTok Is New Home for Manipulated Video and Photos. The New York Times. 04/11/2022. Disponible en: https://www.nytimes.com/2022/11/04/technology/tiktok-deepfakes-disinformation.html?searchResultPosition=2
7MAGALLÓN ROSA, Raúl. El sexto poder en la primavera árabe. Conferencia: III Congreso Internacional Asociación Española de Investigación de la Comunicación. 2012. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=5252826
8FERNÁNDEZ, Rosa. Panorama mundial de las redes sociales - Datos estadísticos. Informe Statista. 2025. Disponible en: https://es.statista.com/temas/3168/panorama-mundial-de-las-redes-sociales/#topicOverview
9BOSWINKEL, L., FINLAYSON, N.B., MICHAELIS, J. and RADEMAKER, M. Weapons of mass influence: Shaping attitudes, perceptions and behaviours in today’s information warfare. The Hague Centre for Strategic Studies. Abril 2022. Disponible en: https://hcss.nl/report/weapons-of-mass-influence-information-warfare/
10BERNAYS, Edward L. Propaganda. 1928. Editorial: Melusina.
11BOSWINKEL, Lotje. Weapons of mass influence: Shaping attitudes, perceptions and behaviours in today’s information warfare. The Hague Centre for Strategic Studies. Abril 2022. Disponible en: https://hcss.nl/wp-content/uploads/2022/04/Weapons-of-Mass-Influence-Information-Warfare-HCSS-2022-V2.pdf
12Web Oficial Comisión Europea. Comunicado de prensa 17/12/2024. Disponible en: https://ec.europa.eu/commission/presscorner/detail/es/ip_24_6487
13World Economic Forum (WEF). Global Risks Report 2025. Disponible en: https://www.weforum.org/publications/global-risks-report-2025/
14CASTELLS, Manuel. The Rise of the Network Society. 1998. Editorial: Oxford: Black Well Publishers
15NATO Strategic Concept 2022. Disponible en: https://www.nato.int/strategic-concept/
16NATO ACT. NATO Cognitive Warfare Concept. 2024
17Ministerio de Defensa. PDC-01 (B). Doctrina para el empleo de las FAS. 2024.
18Centro Conjunto de Desarrollo de Conceptos. CESEDEN. Implicaciones del ámbito cognitivo en las Operaciones Militares. 2020. Disponible en: https://emad.defensa.gob.es/Galerias/CCDC/files/IMPLICACIONES_DEL_AMBITO_COGNITIVO_EN_LAS_OPERACIONES_MILITARES.pdf
19LIND, W.S. and THIELE, G. 4th Generation Warfare Handbook. 2015. Editorial: Castalia House
20EUvsDisinfo. The architecture of Russia’s FIMI operations. 02/04/2025. Disponible en: https://euvsdisinfo.eu/the-architecture-of-russias-fimi-operations/
21SMART, Charlie. How the Russian Media Spread False Claims About Ukrainian Nazis. The New York Times. 02/07/2022. Disponible en: https://www.nytimes.com/interactive/2022/07/02/world/europe/ukraine-nazis-russia-media.html

22 Associated Press. China delayed releasing coronavirus info, frustrating WHO. 02/06/2020. Disponible en: https://apnews.com/article/fed0f89a3b46cfa401e62ce7386f0cfb 
23 ROBERTS, Dexter. China´s Disinformation Strategy. Its dimensions and future. Atlantinc Council. Diciembre 2020. Disponible en: https://www.atlanticcouncil.org/wp-content/uploads/2020/12/CHINA-ASI-Report-FINAL-1.pdf 
24 ALARCÓN, Nacho. Tormenta de 'fake news': todas las fotos falsas que te están colando tras el ataque de Hamás. El Confidencial. 13/10/2023. Disponible en:
https://www.elconfidencial.com/mundo/2023-10-13/fake-news-fotos-falsas-ataque-hamas-desinformacion_3752749/ 
25 WALTER, Jan D. Fact check: AI-generated images of children in Gaza. DW, 02/02/2024.
26 PALOMO, Miguel. Incidencias filosóficas actuales en la sociedad digital: ideologías, desinformación y confusión epistemológica. Revista ARBOR Ciencia, Pensamiento y Cultura. 2021. Disponible en: https://arbor.revistas.csic.es/index.php/arbor/article/view/2451/3730 
27 NETFLIX. Documental. El Dilema de las Redes Sociales. 2020.
28 Shin, D., Park, Y.J., Kim, H. y Kim, J. Countering algorithmic bias and disinformation and effectively harnessing the power of AI in media. Journalism & Mass Communication Quarterly. 2022. pp 1115–1136. Disponible: https://pure.uva.nl/ws/files/111307539/10776990221129245.pdf 
29 TUFEKCI, Zeynep. Algorithmic harms beyond Facebook and Google. Colorado Technology Law Journal. 2015. pp 203–218. Disponible en: https://ctlj.colorado.edu/wp-content/uploads/2015/08/Tufekci-final.pdf 
30 U.S. Customs and Border Protection. DHS Announces Operation to Target Criminal Smuggling Organizations. 27/04/2021. Disponible en: https://www.cbp.gov/ 
31 CRAWDORD, Kate. Atlas of AI. 2022. Editorial: Paperback.
32 US Department of Justice. Special Counsel Robert S. Mueller, III. Report On The Investigation Into Russian Interference In The 2016 Presidential Election. 2019. Disponible en: https://www.justice.gov/archives/sco/file/1373816/dl?inline 
33 «Hechos alternativos» o  «alternative facts» es una frase empleada por Kellyanne Elizabeth Conway en una conferencia de prensa en la Casa Blanca, el 22 de enero de 2017.
34 AZNAR FERNÁNDEZ-MONTESINOS, Federico. Unas reflexiones sobre la posverdad desde la perspectiva de la seguridad. IEEE. Documento de Análisis. 13/06/2018. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=6555505 
35 WARDLE, Claire. Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe report 2017. Disponible en: https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html 
36 Lewandowsky, S., Ecker, U.K.H. and Cook, J. Beyond Misinformation: Understanding and Coping with the “Post-Truth” Era. Journal of Applied Research in Memory and Cognition. 2017. pp: 353–369.
37 Zajonc, R. B. Attitudinal effects of mere exposure. Journal of Personality and Social Psychology. 1968. pp: 1-27.
38 POMERANTSEV, Peter. This Is Not Propaganda: Adventures in the War Against Reality. 2019. Editorial: Faber&Faber.
39 MATAMOROS-FERNÁNDEZ, Ariadna. Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube. Information, Communication & Society. 2017. pp 930–946.
40 UNESCO. Alfabetización Mediática e Informacional. 2023. Disponible en: https://www.unesco.org/es/media-information-literacy/five-laws 
41 VOSOUGHI, Soroush. The spread of true and false news online. Science. 09/03/2018. pp 1146–1151.
Disponible en: https://www.science.org/doi/10.1126/science.aap9559 
42 VACCARI, Cristina & CHADWICK, Andrew. Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society. Vol 6. 01/01/2020. Disponible en: https://journals.sagepub.com/doi/epub/10.1177/2056305120903408 
43 BAUDRILLARD, Jean. Simulacra and Simulation. 1994. Editorial Ann Arbor (University of Michigan).
44 TRAVERS, Mark. A Psychologist Explains The Phenomenon Of ‘Reality Shifting’. FORBES, 20/03/2024. Disponible en:  https://www.forbes.com/sites/traversmark/2024/03/20/a-psychologist-explains-the-phenomenon-of-reality-shifting/ 
45 BARANTINI, Philip. Serie Adolescencia. Netflix. 2025.
46 Sontag, Susan. On photography. 1977. Editorial Alfaguara.
47 Marine Corps Doctrinal Publication 8: Information. 2022.
48 «Public opinion warfare, psychological warfare, legal warfare».
49 Goverment of the Netherlands. Defence Vision 2035.Fighting for a safer future. 2020. Disponible en: https://english.defensie.nl/downloads/publications/2020/10/15/defence-vision-2035 
50 Nederlandse Officieren Vereniging. Maniobra de información: uso de la información como arma. 2022. Disponible en: https://nederlandseofficierenvereniging.nl/information-manoeuvre/ 
51 TIMMER, Marije & DICHEINE, P.A.L. Conceptual manoeuvring: The interpretation of Information Manoeuvre within the Netherlands Ministry of Defence. Militaire Spectator. 2023. pp 542–555 Disponible: https://militairespectator.nl/artikelen/conceptual-manoeuvring
 

 

    • Las redes sociales como armas de influencia masiva y la necesidad de una doctrina informativa

    • Social Media as Weapons of Mass Influence and the Need for a Doctrine of Information