Opinión: Por qué es muy probable que se difundan las falsas narrativas sobre Donald Trump

TENEMOS MENOS VISIBILIDAD QUE NUNCA SOBRE EL IMPACTO QUE NUESTRAS PLATAFORMAS DE REDES SOCIALES POCO REGULADAS TIENEN EN NUESTRAS POLÍTICAS.

El sábado, pocos minutos después del tiroteo en el mitin de campaña de Donald Trump, la información errónea comenzó a circular en las redes sociales. Quizás el tirador era un narrador italiano de fútbol. Quizás Trump había recibido un disparo en el pecho. La plataforma X, antes conocida como Twitter, promovió teorías de conspiración a través de etiquetas como “#falseflag” y “#staged” (alegando que el tiroteo fue organizado para que Trump ganara simpatía) entre sus temas de tendencia.

Acabamos de experimentar el primer intento grave de asesinato de un candidato presidencial en la era de las redes sociales. ¿Hasta qué punto nuestras plataformas más grandes están difundiendo las teorías de la conspiración? ¿Cuántos votantes están siendo persuadidos? ¿Están las plataformas cumpliendo sus promesas de detener la circulación de desinformación? Lo creas o no, la respuesta es que no lo sabemos y tenemos pocas formas de averiguarlo.

Gracias en parte a un ataque coordinado a la comunidad investigadora de internet por parte de grupos de derecha —y también por el fracaso del Congreso y los tribunales a la hora de establecer mecanismos de seguridad adecuados sobre el comportamiento de las grandes empresas tecnológicas—, ahora tenemos menos visibilidad que nunca del impacto que nuestras plataformas de redes sociales poco reguladas están teniendo en nuestra política. Como declaró el escritor de Politico Mark Scott en un boletín reciente: “Estados Unidos camina a ciegas hacia noviembre.”

Se suponía que las elecciones presidenciales de 2016 habían sido un llamado de atención sobre el papel de las redes sociales en la política. La sorpresiva victoria de Trump se atribuyó en parte a la estrategia de su campaña de inundar las redes sociales, un esfuerzo apoyado por una campaña rusa encubierta de influencia y un montón de datos de Facebook usados indebidamente.

Para las elecciones de 2020, había surgido todo un ecosistema de monitoreo para garantizar que el público no volviera a ser tomado por sorpresa. Aparecieron centros de investigación de la desinformación en universidades de todo Estados Unidos, donde los académicos revisaron publicaciones de Facebook y Twitter usando herramientas automatizadas. Los periodistas utilizaron herramientas disponibles públicamente para reportar artículo tras artículo sobre noticias falsas que se difundían en las plataformas.

Cuatro años después, la mayor parte de esa transparencia está en peligro o ha desaparecido. Algunos de los centros de investigación dejaron de funcionar o fueron cerrados por completo bajo la presión de demandas y una investigación republicana del Congreso quealegó que la investigación de la desinformación era parte de una conspiración de censura gubernamental.

El estudio de la desinformación se ha convertido en el nuevo objetivo político de la derecha”, escribieron los investigadores de la Universidad de Washington, Ryan Calo y Kate Starbird, en un artículo reciente que describe la forma en que los investigadores han enfrentado acoso, demandas y difamaciones en los medios partidistas.

Otras culpables son las propias grandes empresas tecnológicas, que están cerrando o bloqueando el acceso a herramientas clave utilizadas por los investigadores. X incluso ha demandado a investigadores de la desinformación. Después de todo, ¿qué incentivo tienen para ofrecer voluntariamente herramientas que luego puedan usarse para criticar sus acciones?

Cuando Elon Musk compró X, eliminó la capacidad de los investigadores de acceder a los datos de la plataforma. Facebook está en proceso de eliminar una herramienta que ha ayudado a los investigadores a analizar su plataforma. Las empresas suelen decir que están intentando proteger la privacidad de los usuarios restringiendo el acceso, pero el público necesita acceso a información sobre publicaciones públicas que se distribuyen ampliamente, no a comunicaciones privadas.

Esperaba que parte de esto se solucionara cuando la Unión Europea aprobó un paquete de leyes que incluía nuevos requisitos de transparencia para las grandes empresas tecnológicas. Las empresas, desde Meta hasta TikTok, deben informar detalladamente las razones por las que un contenido es eliminado de sus plataformas y someterse a auditorías periódicas. La ley de la UE también exige que los investigadores tengan acceso directo a los datos de las plataformas tecnológicas más grandes.

Pero rápidamente se hizo evidente que los requisitos de transparencia tenían grandes lagunas. La ley no hace lo suficiente para garantizar que los periodistas tengan acceso a los datos de las plataformas, y los periodistas han estado durante mucho tiempo en la primera línea del proceso de responsabilización de las plataformas.

Y además, las empresas parecen no cumplir con la ley. En un giro irónico, Meta llegó a utilizar las reglas de la UE para justificar la eliminación de una herramienta que había sido ampliamente utilizada por periodistas e investigadores para analizar información errónea en Facebook. Para remplazarla, Meta creó la Meta Content Library, pero esta carece de muchas funciones clave y solo está disponible para los investigadores que soliciten acceso.

Hay un término para este tipo de aparente subversión corporativa de la ley: conformidad malintencionada. Las empresas tecnológicas han sido acusadas de subvertir las normas de la UE de muchas maneras, desde el cambio que hizo Google del funcionamiento de sus mapas en la UE hasta los cambios que Apple le ha hecho a la App Store. La UE ha iniciado una investigación a Meta por posibles violaciones de la Ley de Servicios Digitales y ha emitido una conclusión preliminar de que X violó la ley.

Mientras la UE investiga, el público está cada vez más a oscuras. En los últimos días, las organizaciones de verificación de datos han detectado y desacreditado un puñado de teorías conspirativas posteriores al atentado. Pero sin una ventana hacia el interior de las plataformas, es casi imposible saber hasta qué punto han circulado afirmaciones falsas y si otras mentiras están ganando terreno.

La pregunta sigue en pie: ¿Qué tiene que ocurrir para que exijamos cierta visibilidad pública al interior de las redes sociales? Sin transparencia, nos acercamos a las elecciones sin una visión clara de las narrativas falsas que están moldeando el debate nacional. Si queremos que nuestras vías de información estén limpias, debemos utilizar el mejor método disponible: la claridad.

Este artículo apareció originalmente en The New York Times.

c.2024 The New York Times Company