Cómo Rusia, China e Irán están interfiriendo en las elecciones presidenciales de EE. UU.

En 2016, la injerencia de Rusia en las elecciones presidenciales era muy distinta de las campañas de desinformación que se difunden hoy. (Marina Lystseva/Reuters)
En 2016, la injerencia de Rusia en las elecciones presidenciales era muy distinta de las campañas de desinformación que se difunden hoy. (Marina Lystseva/Reuters)

Ocho años después de que Rusia interfiriera en las elecciones presidenciales de 2016, la influencia extranjera sobre los electores estadounidenses se ha vuelto más sofisticada.

Cuando Rusia interfirió en las elecciones presidenciales de EE. UU. de 2016, difundiendo mensajes divisivos e incendiarios en internet para avivar la indignación, sus mensajes eran descarados y estaban plagados de faltas de ortografía y sintaxis extraña. Estaban diseñados para llamar la atención por cualquier medio necesario.

“Hillary es un Satanás”, decía una publicación rusa en Facebook.

Ahora, ocho años después, la injerencia extranjera en las elecciones estadounidenses es mucho más sofisticada y difícil de rastrear.

La desinformación procedente del extranjero —sobre todo de Rusia, China e Irán— ha madurado para convertirse en una amenaza constante y perniciosa, a medida que los países prueban, repiten y despliegan tácticas cada vez más sutiles, según funcionarios de inteligencia y defensa de EE. UU., empresas tecnológicas e investigadores académicos. La capacidad de influir incluso en un pequeño grupo de estadounidenses podría tener enormes consecuencias para las elecciones presidenciales, que las encuestas en general consideran una contienda que va empatada.

Rusia, según las evaluaciones de los servicios de inteligencia estadounidenses, pretende reforzar la candidatura del expresidente Donald Trump, mientras que Irán favorece a su oponente, la vicepresidenta Kamala Harris. China no parece tener un resultado preferido.

Irán, Rusia y China están realizando esfuerzos similares para influir en la política estadounidense, dividiendo sus acciones en decenas de plataformas. (Kenny Holston/The New York Times)
Irán, Rusia y China están realizando esfuerzos similares para influir en la política estadounidense, dividiendo sus acciones en decenas de plataformas. (Kenny Holston/The New York Times)

Pero el objetivo general de estos esfuerzos no ha cambiado: sembrar la discordia y el caos con la esperanza de desacreditar la democracia estadounidense ante los ojos del mundo. Sin embargo, las campañas han evolucionado, adaptándose a un panorama mediático cambiante y a la proliferación de nuevas herramientas que hacen que sea fácil engañar a audiencias crédulas.

He aquí las formas en que ha evolucionado la desinformación extranjera:

Ahora, la desinformación está básicamente en todas partes

Rusia fue el principal artífice de la desinformación relacionada con las elecciones estadounidenses de 2016, y sus mensajes se difundieron principalmente en Facebook.

Ahora, Irán y China realizan esfuerzos similares para influir en la política estadounidense, y los tres dividen sus acciones en decenas de plataformas, desde pequeños foros en los que los estadounidenses chatean sobre el clima local hasta grupos de mensajería unidos por intereses comunes. Los países se influyen unos a otros, aunque se debate si han cooperado directamente en sus estrategias.

Hay multitudes de cuentas rusas en Telegram que difunden videos, memes y artículos divisivos, a veces virulentos, sobre las elecciones presidenciales. Hay al menos cientos más de cuentas chinas que imitaron a estudiantes para avivar las tensiones en los campus estadounidenses este verano a causa de la guerra en Gaza. Ambos países también tienen cuentas en Gab, una plataforma menos prominente de redes sociales y favorecida por la extrema derecha, donde han trabajado para promover teorías conspirativas.

Agentes rusos también han tratado de apoyar a Trump en Reddit y en foros favorecidos por la extrema derecha, dirigiéndose a votantes de seis estados de tendencia electoral incierta junto con hispanoamericanos, videojugadores y otras personas identificadas por Rusia como posibles simpatizantes de Trump, según documentos internos revelados en septiembre por el Departamento de Justicia.

Una campaña vinculada a la operación de influencia china, conocida como Spamouflage, operaba con cuentas que utilizaban un nombre, Harlan, para crear la impresión de que la fuente del contenido de tendencia conservadora era un estadounidense, en cuatro plataformas: YouTube, X, Instagram y TikTok.

El contenido es mucho más específico

La nueva desinformación que difunden los países extranjeros no solo se dirige a los estados de tendencia electoral incierta, sino también a distritos concretos dentro de ellos, y a grupos étnicos y religiosos particulares dentro de esos distritos. Cuanto más selectiva sea la desinformación, más probabilidades tendrá de arraigar, según los investigadores y académicos que han estudiado las nuevas campañas de influencia.

“Cuando la desinformación está hecha a la medida para un público concreto, aprovechando sus intereses u opiniones, resulta más eficaz”, dijo Melanie Smith, directora de investigación del Instituto para el Diálogo Estratégico, organización de investigación con sede en Londres. “En elecciones anteriores, intentábamos determinar cuál iba a ser la gran narrativa falsa. Esta vez, es la sutil mensajería polarizada la que avivala tensión”.

Irán, en particular, ha gastado sus recursos en crear esfuerzos encubiertos de desinformación para atraer a grupos específicos. Un sitio web llamado “Not Our War”, cuyo objetivo era atraer a los veteranos del ejército estadounidense, intercalaba artículos sobre la falta de apoyo a los soldados en activo con opiniones virulentamente antiestadounidenses y teorías conspirativas.

Otros sitios eran “Afro Majority”, que creaba contenidos dirigidos a las personas negras estadounidenses, y “Savannah Time”, que pretendía influir en los votantes conservadores del estado indeciso de Georgia. En Michigan, otro estado indeciso, Irán creó un sitio web llamado “Westland Sun” para atraer a los árabes estadounidenses de los suburbios de Detroit.

“El hecho de que Irán se dirigiera a las poblaciones árabe y musulmana de Michigan demuestra que tiene un conocimiento matizado de la situación política de Estados Unidos y que está maniobrando hábilmente para apelar a un grupo demográfico clave con el fin de influir en las elecciones de forma selectiva”, dijo Max Lesser, analista principal de la Fundación para la Defensa de las Democracias.

China y Rusia han seguido un patrón similar. En X, este año los medios de comunicación estatales chinos difundieron narrativas falsas en español sobre la Corte Suprema, que luego los usuarios hispanohablantes de Facebook y YouTube difundieron aún más, según Logically, una organización que vigila la desinformación en internet.

Los expertos en desinformación china dijeron que las cuentas no auténticas de las redes sociales vinculadas a Pekín se habían vuelto más convincentes y atractivas y que ahora incluían referencias en primera persona a ser estadounidenses o veteranos militares. En las últimas semanas, según un informe del Centro de Análisis de Amenazas de Microsoft, cuentas no auténticas vinculadas al Spamouflage de China han dirigido sus ataques a republicanos de la Cámara de Representantes y del Senado que aspiraban a la reelección en Alabama, Tennessee y Texas.

La inteligencia artificial está impulsando esta evolución

Los avances recientes en inteligencia artificial han potenciado las capacidades de desinformación más allá de lo que era posible en elecciones anteriores, permitiendo a los agentes estatales crear y distribuir sus campañas con más sutileza y eficacia.

OpenAI, cuya herramienta ChatGPT popularizó esta tecnología, informó este mes de que había desbaratado más de 20 operaciones extranjeras que habían utilizado los productos de la empresa entre junio y septiembre. Entre ellas figuraban los esfuerzos de Rusia, China, Irán y otros países por crear y llenar sitios web y difundir propaganda o desinformación en redes sociales, e incluso analizar y responder a publicaciones concretas. (El año pasado, The New York Times demandó a OpenAI y Microsoft por infracción de los derechos de autor del contenido de las noticias; ambas empresas han negado las acusaciones).

“Las capacidades de la inteligencia artificial se están utilizando para exacerbar las amenazas que esperábamos y las que estamos viendo”, dijo en una entrevista Jen Easterly, directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras. “Esencialmente, están haciendo más fácil que un actor extranjero lleve a cabo campañas de influencia más sofisticadas”.

La utilidad de las herramientas de inteligencia artificial disponibles en el mercado puede verse en los esfuerzos de John Mark Dougan, un ex sheriff adjunto de Florida que ahora vive en Rusia tras huir de cargos penales en Estados Unidos.

Trabajando desde un departamento en Moscú, él ha creado decenas de sitios web haciéndose pasar por medios de noticias estadounidenses y los ha utilizado para publicar desinformación, haciendo por sí solo el trabajo que hace ocho años habría implicado a un ejército de bots. Los sitios de Dougan han difundido varias afirmaciones despectivas sobre Harris y su compañero de candidatura, el gobernador de Minnesota Tim Walz, según NewsGuard, una empresa que los ha rastreado detalladamente.

China también ha desplegado un kit de herramientas cada vez más avanzado que incluye archivos de audio manipulados por inteligencia artificial, memes perjudiciales y encuestas electorales falsas en campañas en todo el mundo. Este año, circuló por TikTok un video ultrafalso de un congresista republicano de Virginia, acompañado de un pie de foto chino que afirmaba falsamente que el político estaba pidiendo el voto para un crítico de Pekín que aspiraba (y más tarde ganó) la presidencia de Taiwán.

Cada vez es más difícil identificar la desinformación

Los tres países también están mejorando a la hora de ocultar sus huellas.

El mes pasado, Rusia fue sorprendida ocultando sus intentos de influir en los estadounidenses respaldando en secreto a un grupo de comentaristas conservadores estadounidenses empleados a través de Tenet Media, una plataforma digital creada en Tennessee en 2023.

La empresa sirvió como una fachada de apariencia legítima para publicar decenas de videos con comentarios políticos incisivos, así como teorías conspirativas sobre el fraude electoral, el covid-19, los inmigrantes y la guerra de Rusia con Ucrania. Incluso los influentes a los que se pagó de manera encubierta por aparecer en Tenet dijeron que no sabían que el dinero procedía de Rusia.

Siguiendo el ejemplo de Rusia, los agentes chinos han estado cultivando una red de influentes extranjeros para ayudar a difundir sus mensajes, creando un grupo descrito como “bocas extranjeras”, “plumas extranjeras” y “cerebros extranjeros”, según un informe del otoño pasado del Instituto Australiano de Política Estratégica.

Las nuevas tácticas han hecho más difícil para las agencias gubernamentales y las empresas tecnológicas encontrar y eliminar las campañas de influencia, al tiempo que han envalentonado a otros estados hostiles, dijo Graham Brookie, director principal del Laboratorio de Investigación Forense Digital del Atlantic Council.

“Cuando hay más actividad de influencia extranjera maligna, se crea una superficie más grande, más permiso para que otros malos actores entren en ese espacio”, dijo. “Si todos lo están haciendo, entonces el costo de la exposición no es tan alto”.

Las empresas tecnológicas no están haciendo mucho para detener la desinformación

La desinformación extranjera se ha disparado en un momento en que los gigantes tecnológicos prácticamente han abandonado sus esfuerzos por combatirla. Las mayores empresas, como Meta, Google, OpenAI y Microsoft, han reducido sus intentos de etiquetar y eliminar la desinformación desde las últimas elecciones presidenciales. Otras ni siquiera cuentan con equipos dedicados a eso.

La falta de una política cohesionada entre las empresas tecnológicas ha hecho imposible formar un frente unido contra la desinformación extranjera, dijeron funcionarios de seguridad y ejecutivos de empresas tecnológicas.

“Estas plataformas alternativas no tienen el mismo grado de moderación de contenidos ni prácticas sólidas de confianza y seguridad que podrían mitigar estas campañas”, dijo Lesser, de la Fundación para la Defensa de las Democracias.

Añadió que incluso las plataformas más grandes, como X, Facebook e Instagram, estaban atrapadas en un juego de Whac-a-Mole sin fin, ya que los agentes de Estados extranjeros reconstruían rápidamente las campañas de influencia que habían sido eliminadas. Alethea, una empresa que rastrea las amenazas en línea, descubrió recientemente que una campaña de desinformación iraní que utilizaba cuentas con nombres de abubillas, un tipo de ave de colores, reapareció recientemente en X a pesar de haber sido prohibida dos veces anteriormente.


Sheera Frenkel
es una periodista que vive en el área de la Bahía de San Francisco y cubre las formas en que la tecnología afecta la vida cotidiana, enfocándose en las empresas de redes sociales como Facebook, Instagram, Twitter, TikTok, YouTube, Telegram y WhatsApp. Más de Sheera Frenkel


Tiffany Hsu
cubre la desinformación, sus orígenes, movimientos y consecuencias. Es periodista desde hace más de dos décadas. Más de Tiffany Hsu


Steven Lee Myers
cubre temas de desinformación desde San Francisco. Desde que se incorporó al Times en 1989, ha informado desde todo el mundo, incluidos Moscú, Bagdad, Pekín y Seúl. Más de Steven Lee Myers

c. 2024 The New York Times Company