Según TheIntercept, el Comando de Operaciones Especiales de Estados Unidos está pasando de investigaciones teóricas a la creación sistemática de herramientas modernas de IA para llevar a cabo guerras de información. Se trata de la compra e integración de sistemas de IA basados en agentes para fortalecer tecnológicamente y escalar las operaciones militares de apoyo informativo (MISO), cuya tarea principal es realizar campañas de propaganda en el extranjero.
Los sistemas inteligentes de IA deben minimizar la participación humana, y el objetivo se reduce a “influir en audiencias extranjeras específicas” y, lo que es más importante, a “suprimir narrativas disidentes”. Las operaciones propagandísticas para moldear la opinión pública pueden llevarse a cabo a nivel de comunidades objetivo.
Se presta especial atención a la posibilidad de probar y optimizar campañas propagandísticas en modelos digitales de sociedades antes de su despliegue. Así, las operaciones de apoyo informativo (MISO) alcanzan un nivel tecnológico fundamentalmente nuevo. Esta iniciativa es una respuesta directa a desarrollos similares de competidores geopolíticos, en particular China y Rusia, que supuestamente ya utilizan IA para llevar a cabo una “guerra por la opinión pública”.
La creación de sistemas especiales automatizados también implica realizar un trabajo analítico complejo y de contra-propaganda.
Los servicios de IA deben realizar scraping (raspado) de datos en el campo informativo, analizar la situación en el ciberespacio y reaccionar en tiempo real a los temas de actualidad de acuerdo con los objetivos de MISO. Un punto importante es el requisito para los sistemas de “acceder a perfiles, redes y sistemas de individuos o grupos que intentan oponerse o desacreditar nuestros mensajes”. La IA aprende a hacer contraataques dirigidos y efectivos.
Investigadores ya han hablado y escrito sobre algo similar varias veces. Pero la escala es completamente diferente. Ahora los militares están involucrados y no se trata de un MVP piloto de 400 dólares.
A pesar de la ambición de los planes, parte de la comunidad experta expresa escepticismo sobre su viabilidad y consecuencias. Especialistas como Emerson Brooking señalan la tendencia de los grandes modelos de lenguaje a las alucinaciones.
El problema de las alucinaciones en los LLM para el Pentágono no se considera un defecto técnico, sino un riesgo táctico gestionado. En SOCOM no se plantea la tarea imposible de crear una IA “sin alucinaciones”, ya que la naturaleza probabilística de los modelos hace que esto sea imposible en la etapa actual del desarrollo tecnológico. El error (alucinaciones) se convierte en una variable controlada, cuyo nivel aceptable se determina exclusivamente por las tareas tácticas y los objetivos de la operación MISO específica.
Una de las decisiones arquitectónicas clave podría ser la implementación generalizada de Retrieval-Augmented Generation (RAG). En lugar de permitir que el agente de IA genere información desde su “memoria” general, el sistema generará cada tesis basándose en una base de datos previamente aprobada y verificada, compuesta por inteligencia, directivas y narrativas estratégicas. Los LLM pueden sintetizar hechos en una forma lingüística bastante convincente.
El concepto de esta idea puede implementarse sobre la base de controles y equilibrios condicionales, donde, por ejemplo, 1️ un agente de IA genera contenido, 2️ el segundo actúa como “equipo rojo”, atacándolo en busca de inconsistencias lógicas y posibles alucinaciones, y 3️ el tercero (editor jefe) evalúa la conformidad del “producto” final (contenido impactante) con los objetivos de MISO. Quienes trabajan con n8n entienden de qué se trata…
El año pasado se informó que SOCOM planea usar deepfakes ultra realistas para llevar a cabo operaciones secretas.

