Un estudio advierte que los chatbots de IA amplifican la propaganda extranjera al generar informes basados en más propaganda
Según el informe, la propaganda alineada con el Estado apareció en el 57 por ciento de las respuestas al contestar preguntas sobre conflictos globales. "Estados Unidos no puede construir su futuro tecnológico sobre una base comprometida", afirma el documento.

Un visitante mira su teléfono junto a un logotipo de Open AI
Un nuevo informe de la Fundación para la Defensa de las Democracias (FDD) plantea la preocupación de que las populares herramientas de inteligencia artificial (IA) puedan estar orientando a los usuarios hacia la propaganda extranjera, creando potencialmente lo que los investigadores describen como un creciente riesgo para la seguridad nacional.
Un estudio, publicado en marzo por el Centro de Innovación Cibernética y Tecnológica del DDF, descubrió que las principales plataformas de IA citan con frecuencia fuentes mediáticas alineadas con el Estado cuando responden a preguntas sobre conflictos mundiales. Según el informe, "la propaganda alineada con el Estado aparecía en el 57% de las respuestas".
Hacer que la propaganda parezca autorizada manipulando las citas
La investigación examinó las respuestas de tres sistemas de IA líderes, incluidos ChatGPT, Claude y Gemini, planteando aproximadamente 180 preguntas sobre conflictos relacionados con Israel y Hamás, Rusia y Ucrania, China y Taiwán. Cada pregunta requería que los sistemas citaran fuentes.
"Al tratar la propaganda como fiable y dirigir el tráfico hacia sus proveedores, los grandes modelos lingüísticos (LLM) hacen que la propaganda parezca autorizada", señala el informe.
Los investigadores descubrieron que algunos medios estatales aparecían repetidamente en las citas generadas por la IA, como Al Jazeera, con sede en Qatar, Pravda, vinculada a Rusia, la agencia turca Anadolu y el diario estatal chino China Daily. En algunos casos, esas fuentes se citaban incluso cuando las preguntas se formulaban de forma desfavorable para esos gobiernos.
"El entrenamiento de la IA se basa en medios con un alto volumen de publicaciones, alcance global y accesibilidad, precisamente los atributos de los medios de propaganda más influyentes alineados con el Estado", explica el informe.
Sociedad
Adolescentes, redes sociales y chatbots de IA en 2025: así navega la Generación Z según Pew Research
Diane Hernández
Los usuarios pueden estar expuestos a contenidos más polarizantes
Las conclusiones del informe también sugieren que el problema va más allá de las respuestas que generan los sistemas de IA y se extiende a las fuentes que recomiendan. Si bien las respuestas del chatbot pueden parecer equilibradas, las citas enlazadas pueden exponer a los usuarios a narrativas más extremas o sesgadas.
Los usuarios que hagan clic en los enlaces para verificar las afirmaciones estarán "expuestos a contenidos más polarizantes que los que la IA presentó inicialmente", advierte el informe.
Las citas pueden convertirse en "una vía de acceso a opiniones sesgadas o incluso extremistas en lugar de un mecanismo de verificación", según el informe. Además, el estudio descubrió que los sistemas de IA tienen dificultades para distinguir entre el periodismo independiente y los medios alineados con el Estado. Cuando se les pidió que evaluaran la credibilidad de sus fuentes, los sistemas "no pudieron identificar sistemáticamente a los medios alineados con el Estado", según el informe.
El informe también destacaba el predominio de Wikipedia en las citas de AI, que aparecía en el 80% de las respuestas. Wikipedia ha sido durante mucho tiempo objeto de críticas por posible sesgo organizado y susceptibilidad a campañas de edición coordinadas. La periodista de investigación Sharyl Attkisson abordó la cuestión hace más de una década en una TedxTalk en la que explicó cómo los "editores" de Wikipedia se negaron a hacer correcciones y, dependiendo de la narrativa ideológica en cuestión, eliminarán las correcciones que los editores desaprueben.
"A medida que se profundiza en la dependencia de las herramientas de IA, la citación de propaganda está haciendo metástasis hasta convertirse en una amenaza para la seguridad nacional", afirmaba el informe del DDF.
Para mitigar los riesgos, los autores del informe recomiendan que los desarrolladores de IA reduzcan la prominencia de los medios controlados por el Estado en las respuestas y aumenten la transparencia en torno al proceso de selección de las fuentes. También instaron a los responsables políticos a incorporar la integridad de las citas en las normas de seguridad de la IA, especialmente a medida que el gobierno estadounidense amplía su propio uso de tecnologías de IA.
"Estados Unidos no puede construir su futuro tecnológico sobre una base comprometida", concluyó el informe.