Inteligencia Artificial (IA)
Conflicto ruso en inteligencia artificial: la nueva batalla tecnológica
Gianro Compagno
2025-12-26
5 min read
La desinformación ha sido históricamente una herramienta clave en la influencia geopolítica, pero la llegada de la inteligencia artificial generativa ha transformado radicalmente su alcance y mecanismos. Los grandes modelos de lenguaje (LLM), como ChatGPT o Gemini, han cambiado el escenario informativo, desplazando la manipulación de las audiencias humanas hacia la contaminación de los propios sistemas algorítmicos.
Este fenómeno se analiza a través del concepto de LLM grooming, una táctica atribuida a actores estatales como la Federación Rusa, que consiste en infiltrar narrativas sesgadas en los datos de entrenamiento de la IA. La estrategia implica inundar internet con grandes volúmenes de contenido manipulado o de baja calidad, diseñado para ser captado por los rastreadores que alimentan los modelos de IA.
El objetivo es que estos textos, que reflejan posturas favorables al Kremlin, se integren en los conjuntos de datos de los LLM o en las fuentes de información en tiempo real que utilizan para generar respuestas. Así, cuando un usuario consulta un LLM sobre temas sensibles —como la guerra en Ucrania, la OTAN o elecciones occidentales—, el modelo puede ofrecer respuestas que ya incorporan sutilmente la narrativa rusa.
Esta táctica no solo busca influir en la opinión pública, sino que convierte a los sistemas de IA en vehículos involuntarios de propaganda, alterando su base cognitiva. La arquitectura de los LLM, basada en la diversidad y cantidad de datos, facilita que la saturación de fuentes sesgadas sea un método de contaminación altamente efectivo y escalable.
Un caso ilustrativo es la operación Portal Kombat, documentada en febrero de 2024 por la agencia francesa VIGI-NUM/SGDSN. Se identificó una red de al menos 193 portales web que no generan contenido original, sino que replican de forma masiva publicaciones de medios rusos y figuras afines al Kremlin, con el objetivo de influir en países occidentales mediante la amplificación artificial de estos mensajes.
Portal Kombat emplea técnicas avanzadas de SEO y difusión multilingüe para asegurar que sus dominios sean indexados por motores de búsqueda y agregadores de noticias, que a su vez alimentan los LLM. De este modo, los modelos de IA se convierten en canales de influencia difíciles de detectar para el usuario común. Esta táctica también se exporta a regiones como África, donde las campañas de manipulación informativa rusa encuentran menos resistencia institucional.
En estos contextos, la guerra informativa evoluciona: ya no se trata solo de saturar redes sociales, sino de infectar infraestructuras algorítmicas percibidas como neutrales. Este patrón se extiende al ámbito electoral. Investigaciones como la del Center for International Governance Innovation (CIGI) sobre la injerencia rusa en elecciones estadounidenses muestran que la manipulación ahora apunta a contaminar los LLM, más que a influir directamente en los votantes.
En la práctica, cuando un sistema de IA genera análisis o resúmenes, la narrativa manipulada puede estar ya integrada, permitiendo que los modelos actúen como generadores de propaganda sin que el usuario perciba el sesgo.
El LLM grooming plantea dos desafíos principales. Primero, el volumen: la necesidad de datos de los LLM facilita que la inyección de contenido prorruso genere un sesgo estructural. Segundo, la escalabilidad: mediante redes optimizadas para rastreadores, Rusia reduce los costos de producción de propaganda y amplía su alcance, dirigiendo la manipulación al algoritmo en vez de al usuario final.
Para las democracias y los medios, esto supone retos inéditos:
- Fragmentación de la autoridad cognitiva: el debate sobre la verdad se traslada de lo que consume el humano a lo que la IA ofrece como referencia, erosionando la capacidad de identificar la propaganda.
- Opacidad y trazabilidad: auditar la contaminación requiere examinar complejas cadenas de entrenamiento, rastreadores y agregadores de datos.
- Erosión ética y política: la dependencia de sistemas de IA que replican manipulación debilita la confianza en la información digital y fragmenta la memoria social, dificultando la resistencia política.
Ante este panorama, es urgente combinar estrategias tradicionales de verificación y alfabetización mediática con una regulación adaptada a los nuevos riesgos.
En definitiva, la guerra informativa rusa no esperó a la madurez de la IA para actuar: la está moldeando desde sus cimientos. El LLM grooming abre un frente silencioso pero crucial, donde el adversario busca contaminar el algoritmo que define la percepción de la verdad en la sociedad.
Fuente: canarias7.es