Voz media US Voz.us

Wikipedia fue a la guerra (y perdió)

Ante el brutal declive y en el momento en que la inteligencia artificial amenaza con hacer obsoleto su modelo de negocio, la comunidad que gestiona la enciclopedia más consultada del mundo decidió que su principal prioridad era reescribir la historia del conflicto árabe-israelí.
Go woke, go broke. La fórmula rara vez falla.

Jimmy Wales, fundador de Wikipedia

Jimmy Wales, fundador de WikipediaZUMAPRESS.com/Cordon Press.

Wikipedia nació con una promesa extraordinaria: una enciclopedia libre, construida colaborativamente por la humanidad, neutral por diseño y accesible para todos. Durante varios años funcionó, con imperfecciones, como la referencia digital por excelencia. Con más de 15.000 millones de visitas mensuales, se convirtió en el primer resultado que aparece cuando buscamos cualquier cosa en Google, en la fuente que alimenta los paneles de conocimiento de los buscadores y, crucialmente, en uno de los corpus principales con los que se entrenan los modelos de inteligencia artificial.

Esa posición privilegiada era un activo enorme… y una tentación demasiado grande para ciertos grupos ideológicos.

Desde al menos 2022, y con una intensidad que se disparó tras los ataques de Hamás del 7 de octubre de 2023, un grupo de aproximadamente 40 editores coordinados llevó adelante lo que distintos investigadores y periodistas describen como una campaña sistemática para alterar la narrativa sobre Israel, demonizar al sionismo y ofrecer una narrativa sesgada respecto del conflicto árabe-israelí.

No se trata de ediciones aisladas ni de disputas editoriales menores. Según una investigación de Unpacked Media, la operación fue metódica: el grupo utilizó un servidor privado de Discord para asignar tareas de edición como si fuera una campaña política, con tableros de gestión de tareas y "horas de oficina" para coordinar a sus miembros. El grupo, identificado como Tech for Palestine (TFP), llegó incluso a intentar manipular las páginas de Wikipedia de políticos británicos antes de las elecciones en el Reino Unido.

"El poder en Wikipedia no lo tiene el que más sabe, sino el que más tiempo libre y organización posee".

Los cambios introducidos fueron de fondo, no de forma. Por ejemplo, artículos que históricamente describían el sionismo como un movimiento de liberación nacional fueron reescritos para presentarlo como una forma de colonialismo de asentamiento o supremacía racial. Las referencias a la ancestral presencia judía en Israel fueron minimizadas o eliminadas de numerosos artículos, subordinando la continuidad histórica del pueblo judío a narrativas políticamente convenientes. Y fueron más allá: las descripciones de Hamás y Hezbollah fueron suavizadas, sus designaciones como organizaciones terroristas cuestionadas o removidas y sus registros de atentados suicidas eliminados para construir una imagen más "inocente" de los terroristas.

Según una investigación del portal NPOV citada por Jewish Onliner, editores pro-régimen iraní trabajaron durante años en Wikipedia borrando información sobre las ejecuciones masivas de prisioneros políticos en 1988, eliminando referencias a la negación del Holocausto por parte de Teherán, y promoviendo medios estatales iraníes como fuentes confiables mientras desacreditaban a periodistas independientes y disidentes. Un solo editor, identificado como "Iskandar323" (que enfrenta actualmente una prohibición en el sitio) realizó más de 49.000 ediciones en 16.000 páginas, incluyendo la remoción de miles de palabras sobre violaciones a los derechos humanos apenas días después del 7 de Octubre. 

El término "yihad de vindicación", del propio difunto líder supremo iraní Alí Jameneí, define la guerra blanda en el espacio informático destinada a "reescribir la realidad misma". Wikipedia se convirtió, según los investigadores, en uno de sus teatros de operaciones.

El cofundador se alarma, tarde…

El episodio más revelador de la crisis llegó en noviembre de 2025, cuando el propio cofundador de Wikipedia, Jimmy Wales, intervino personalmente para señalar el sesgo "especialmente grave" en el artículo titulado Genocidio de Gaza, según reportó Times of Israel.

El artículo, que desde su creación en julio de 2024 se había convertido en uno de los más visitados de todo internet, afirmaba en su primera oración que el genocidio de Gaza era la "destrucción intencional y sistemática en curso del pueblo palestino en la Franja de Gaza llevada a cabo por Israel". No como una visión de lo que sostienen determinados organismos sino como un hecho. Wales lo llamó "uno de los peores artículos de Wikipedia que he visto en mucho tiempo" y señaló que violaba de manera flagrante el principio de neutralidad de la enciclopedia. En un mensaje publicado en la página de discusión del artículo, explicó que una formulación neutral debería comenzar reconociendo que "múltiples gobiernos, ONGs y organismos legales han descrito o rechazado la caracterización de las acciones de Israel en Gaza como genocidio".

El principio de punto de vista neutral, recordó Wales, "es no negociable y no puede ser superado por otras políticas ni por el consenso de los editores". La aclaración fue necesaria, pero también llegó muy tarde y no resolvió el problema de fondo. Porque el problema de Wikipedia no es sólo de militancia política: es estructural. La enciclopedia es administrada por un conjunto relativamente pequeño de editores muy activos que dominan áreas temáticas enteras. No hay requisitos de experiencia ni credenciales para convertirse en administrador o árbitro. Los administradores son voluntarios no remunerados elegidos por otros editores, cuya autoridad deriva del dominio de las reglas internas del sitio, no del conocimiento de los temas que moderan. Entender la anatomía de estas guerras de edición es fundamental para comprender cómo el poder en la plataforma no lo tiene el que más sabe, sino el que más tiempo libre y organización posee.

Estas facciones triunfan utilizando tres tácticas de guerrilla digital

  • En primer lugar, el filibusterismo editorial o guerra de desgaste: como las reglas exigen "consenso", si un experto académico corrige una definición para ajustarla a la realidad histórica, un grupo coordinado revierte su edición en minutos alegando "falta de neutralidad". Si el experto insiste, lo reportan en masa. El académico, que tiene un trabajo real, eventualmente se rinde. El activista se queda con el control de la página.
  • En segundo lugar, el lavado de fuentes (Source Washing): los grupos coordinados votan en bloque para clasificar a los organismos de investigación que exponen sus sesgos como "fuentes no confiables". Simultáneamente, elevan la categoría de medios estatales u ONGs ideológicamente afines para blindar sus modificaciones bajo un manto de supuesta legitimidad documental.
  • Y finalmente, la captura del lenguaje y el marco teórico: el objetivo final no es sólo cambiar datos, sino el marco conceptual entero. Al reescribir artículos para insertar la jerga de la teoría crítica, logran que conceptos históricos queden atrapados en el marco ideológico. Una vez que esa terminología se consolida en el primer párrafo de un artículo bloqueado, la nueva realidad queda fijada, deslegitimando a la contraparte.

Esto crea una vulnerabilidad sistémica: grupos coordinados con paciencia y conocimiento de los procedimientos internos pueden ganar disputas editoriales simplemente por agotamiento de los editores de buena fe. El Comité de Arbitraje, la instancia máxima de resolución de conflictos, tiene decenas de casos pendientes y una capacidad limitada para detectar campañas organizadas. Expertos consultados por JNS describen esto como una "tendencia recurrente" en la que contenido pro-israelí es degradado, fusionado con artículos más amplios o directamente eliminado. La consecuencia es un desastre informativo: una plataforma gestionada por aficionados obsesivos, editores ideológicamente motivados y moderadores que ignoran o habilitan los problemas que deberían prevenir.

El problema más allá de Wikipedia y las falsas soluciones

El impacto de este sesgo no se detiene en Wikipedia. Google basa más del 60% de sus "paneles de conocimiento" (esos recuadros informativos que aparecen en los resultados de búsqueda cuando preguntamos por un concepto, una persona o un lugar) en contenido de Wikipedia. Esto significa que lo que allí se edita llega directamente a miles de millones de personas sin que la mayoría sepa que está leyendo material manipulado.

Pero hay un efecto aún más preocupante y con mayor proyección: los grandes modelos de lenguaje de inteligencia artificial utilizan Wikipedia como fuente central para sus datos de entrenamiento y para responder consultas. Cuando un usuario le pregunta a un chatbot sobre sionismo, Hamás o el conflicto árabe-israelí, el sistema puede estar usando propaganda como si fuera conocimiento objetivo. Esto es lo que el régimen iraní, con su "yihad de vindicación", comprendió antes que muchos analistas occidentales: si se logra controlar la enciclopedia, no sólo se controla lo que la gente lee sino lo que la inteligencia artificial "aprenderá" mañana.

Ante el peligro inminente de que la IA se convierta en una difusora de propaganda, los laboratorios de desarrollo han tenido que convertir sus salas de entrenamiento en un frente de batalla tecnológico. Para evitar repetir ciegamente una enciclopedia secuestrada, intentan aplicar múltiples capas de defensa.

La primera es lo que se llama dilución del corpus: se le otorga mayor "peso" algorítmico a libros publicados, ensayos periodísticos y bases de datos históricas verificables por sobre la enciclopedia colaborativa, buscando contrarrestar la reescritura amateur. Además, aplican el Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF), donde evaluadores prueban los modelos con temas altamente sensibles. Si el sistema responde usando el marco sesgado de un artículo vandalizado, se penaliza esa respuesta y se premia una que refleje la multiplicidad de perspectivas y hechos objetivos.

A esto se suman los Red Teams, especialistas que atacan deliberadamente a la IA durante su desarrollo desafiando teorías conspirativas para identificar vulnerabilidades y ajustar parámetros. Y finalmente, las respuestas fundamentadas (Grounding), que obligan a la IA a buscar información en tiempo real en fuentes de noticias contrastadas antes de emitir una respuesta sobre geopolítica. A pesar de estas defensas, es una carrera armamentista constante: detectar un "discurso de odio explícito" es fácil para una máquina, pero detectar la omisión sutil de un contexto histórico es un desafío mayúsculo. Aquí es donde la ironía se vuelve especialmente cruel para Wikipedia.

La Fundación Wikimedia enfrenta una gran amenaza, si los usuarios pueden preguntarle directamente a un modelo de inteligencia artificial y obtener respuestas sintetizadas, ¿para qué visitar la enciclopedia? El tráfico de búsqueda orgánica (que es el oxígeno de Wikipedia) está cayendo a medida que los motores de búsqueda integran respuestas generadas por IA. La relevancia del modelo de enciclopedia colaborativa está siendo cuestionada cada día más.

La respuesta sensata ante esta amenaza hubiera sido adaptarse: mejorar la calidad editorial, construir mecanismos más sólidos de verificación, tal vez incorporar herramientas de IA para escalar el proceso de revisión. En cambio, en junio de 2025 se reveló que la Fundación había realizado una prueba en la versión móvil del sitio que mostraba resúmenes generados por IA en la parte superior de los artículos más extensos. El objetivo era mejorar la accesibilidad para lectores que encuentran los artículos largos difíciles de analizar rápidamente. La reacción de los editores fue de rechazo. La prueba fue pausada.

La anécdota revela la escala de prioridades de la comunidad que gestiona Wikipedia: antes que adaptarse al mundo que viene, prefieren preservar el control político y mantener sus trincheras editoriales. Una comunidad que reescribe la historia no tiene intención de ceder el control a algoritmos.

Wikipedia fue a la guerra y la está perdiendo. Cuando más necesitaba construir credibilidad para resistir el embate de la IA, se dedicó a convertirse en un instrumento ideológico. El mercado tiene una respuesta para eso: es la misma que tuvo para tantas instituciones que pusieron la agenda política por delante de la calidad y la confiabilidad. Los usuarios migran. La relevancia se evapora.

tracking