El caos en redes sociales tras el intento de magnicidio de Trump: un desastre que las mismas plataformas crearon

Análisis (CNN) -- La tibia respuesta de las empresas de redes sociales esta semana a las teorías de conspiración que flotan desenfrenadamente en sus plataformas sobre el intento de asesinato del expresidente Donald Trump fue parte de un cambio decidido para alejarse de vigilar activamente el discurso en línea, incluso frente a una retórica potencialmente peligrosa.

La reacción no podría ser más diferente a la de 2021, tras el último roce del país con la violencia política. Esto no augura nada bueno para las próximas elecciones ni para sus consecuencias.

Hace tres años, las principales plataformas en línea, incluidas Meta, Twitter y YouTube, tomaron medidas rápidas para evitar que el ataque a la democracia estadounidense el 6 de enero se disparara en línea: suspendiendo miles de cuentas que habían promovido mentiras electorales, extendiendo una pausa en la publicidad política y eliminando publicaciones que elogiaban el ataque al Capitolio de Estados Unidos, entre otras medidas.

Sin embargo, en marcado contraste, las plataformas de redes sociales en los últimos días se han visto invadidas por afirmaciones falsas sobre el atentado contra la vida de Trump, que van desde especulaciones infundadas de izquierda de que el incidente había sido "montado" para el propio beneficio político de Trump hasta teorías de conspiración de derechistas que sugieren falsamente que agentes del gobierno del “Estado profundo” o tal vez el propio presidente Joe Biden habían orquestado de alguna manera el ataque.

Las teorías de la conspiración se propagan sin control tras el primer intento de magnicidio contra un presidente de EE.UU. en la era de las redes sociales

El incidente no fue simulado. El Servicio Secreto estadounidense lo ha calificado de intento de asesinato y el Departamento de Seguridad Nacional lo ha reconocido como un fallo de seguridad. Los investigadores todavía están buscando el motivo del atacante. Y Biden condenó la violencia política tras el ataque y prometió también una investigación independiente sobre la falla de seguridad.

Los directores ejecutivos de las grandes empresas tecnológicas se han hecho eco universalmente de los comentarios de Biden. Pero en medio del torrente de teorías de conspiración, las plataformas de redes sociales han guardado silencio sobre su propio papel en la forma en que se desarrolló el evento en línea, lo que refleja un marcado alejamiento de su anterior enfoque práctico para contener la propagación de falsedades que, si no se controlaban, podría correr el riesgo de alimentar más conflictos.

Ninguna de las plataformas de redes sociales más grandes del país respondió a las repetidas preguntas de CNN durante varios días de esta semana sobre qué acciones han tomado en respuesta a la desinformación y las teorías de conspiración que circulan sobre el tiroteo en el mitin de Trump. Meta, Google, TikTok y X no respondieron. Solo Snapchat emitió un comunicado diciendo que está diseñado "de manera diferente a las redes sociales tradicionales" en el sentido de que no ofrece un servicio de noticias seleccionado "donde los usuarios puedan transmitir información falsa".

El firme silencio de las plataformas tecnológicas subraya cuán significativamente han cambiado los gigantes de la industria en los últimos tres años para adoptar un enfoque menos intervencionista, en su último intento de hacer malabarismos, en tiempo real, con valores en competencia de libre expresión, seguridad en línea y neutralidad política. Y lo que el público experimentó en las redes sociales en los momentos posteriores al ataque a Trump es una señal de lo que está por venir, dijo Imran Ahmed, director ejecutivo del Centro para Contrarrestar el Odio Digital (CCDH), un grupo de vigilancia de las redes sociales que aboga por una regulación más estricta de las plataformas.

“Esto debería ser un indicio”, dijo Ahmed, “de que los próximos meses serán tan poco edificantes, tan embrutecedores y tan confusos como lo han sido los últimos días en las redes sociales”.

¿Cómo llegamos a este punto?

Una vertiginosa variedad de factores se ha combinado para crear el entorno de información más tóxico actual.

Lo más visible es que la compra de Twitter, ahora conocida como X, por parte de Elon Musk ha transformado lo que alguna vez fue el principal destino de redes sociales para noticias de última hora en una plataforma más confusa y menos confiable.

Musk ha tomado múltiples decisiones entrelazadas en torno a la verificación de cuentas, los pagos a los creadores y a quién permitir en la plataforma que han degradado la capacidad de los usuarios para confiar entre sí y en lo que ven allí, según han dicho durante mucho tiempo los investigadores de desinformación. Y ha erigido barreras a la rendición de cuentas independiente al obligar a los investigadores a pagar tarifas astronómicas por el acceso a los datos de la plataforma.

Los usuarios de X ahora están siendo recompensados ​​económicamente por publicar el contenido más incendiario y atractivo, independientemente de su precisión o veracidad. Aunque Musk ha promocionado la función de verificación de datos basada en la comunidad de X, Notas de la comunidad, como un baluarte contra la desinformación, ha sido ampliamente criticada por ser lenta e ineficaz. El martes, CCDH publicó una nueva investigación que encontró que de 100 publicaciones de teorías de conspiración de alto rendimiento en X sobre el tiroteo contra Trump, solo cinco contenían una nota comunitaria que refutaba una afirmación falsa. Las publicaciones en conjunto obtuvieron más de 215 millones de visitas en X, según CCDH.

Poco después de que Musk comprara la plataforma, despidió aproximadamente al 80% de la plantilla previa a la adquisición de Twitter. Los profundos recortes afectaron al equipo de confianza y seguridad de la compañía responsable de salvaguardar la plataforma y, en una medida separada, Musk eliminó el consejo de expertos externos en confianza y seguridad de Twitter.

Pero X no fue el único que redujo las inversiones en confianza y seguridad. En toda la industria, las empresas citaron duras condiciones macroeconómicas para justificar despidos generalizados que en algunos casos han afectado a los equipos de confianza y seguridad. En 2019, Snapchat tenía 763 empleados trabajando en confianza y seguridad, un número que aumentó a más de 3.000 en 2021, dijo la compañía al Congreso este año. Pero para 2023, esa cifra había caído un 27% a 2.226. Meta y TikTok dijeron a los legisladores que cada uno emplea aproximadamente 40.000 empleados de seguridad, pero no revelaron cómo esa cifra ha cambiado con el tiempo.

Las empresas de redes sociales también han retirado su intervención de otras maneras, como YouTube que decidió permitir una vez más mentiras sobre las elecciones de 2020 en su plataforma, y Meta que decidió dejar de amplificar noticias, política y temas sociales en sus feeds curados.

“Meta decidió que no puede ofrecer contenido cívico de manera rentable”, dijo Laura Edelson, profesora asistente de informática en la Universidad Northeastern y codirectora de Cybersecurity for Democracy, un grupo de investigación centrado en la desinformación digital. "No puede crear un producto de red social seguro que haga política y asuntos cívicos, por lo que simplemente salió de ese negocio".

Baybars Orsek, director general de la organización de verificación de datos Logically Facts, dijo que estos y otros cambios en las plataformas de redes sociales han hecho que trabajar con ellas en los últimos años sea más desafiante.

"Es preocupante ver que algunas plataformas han optado por distanciarse del discurso político en lugar de aplicar políticas transparentes y escalables para proteger la libertad de expresión y al mismo tiempo mantener un entorno de información seguro", dijo Orsek a CNN.

No son solo las propias decisiones comerciales de las empresas las que impulsan el cambio. Desde las elecciones de 2020, los investigadores que estudian las plataformas digitales han informado cada vez más de haber sido acosados ​​e intimidados, en algunos casos por legisladores estadounidenses que han alegado sin fundamento que son parte de una campaña de presión dirigida por el gobierno para silenciar el discurso de derecha en las redes sociales.

Durante años, han dicho algunos conservadores, el Gobierno de Estados Unidos, en reuniones periódicas y correos electrónicos con empresas de redes sociales, ha presionado a las plataformas para que eliminen desinformación sobre el covid-19 y sobre las elecciones, en violación de los derechos de la Primera Enmienda de los estadounidenses. Esas afirmaciones alcanzaron un clímax este año en la Corte Suprema, donde, en un fallo seguido de cerca, una mayoría de 6 a 3 se negó a decir que los esfuerzos del gobierno para persuadir a las plataformas a eliminar publicaciones son inconstitucionales.

La decisión significa efectivamente que el Gobierno de EE.UU. puede seguir señalando amenazas de desinformación a las empresas de redes sociales en el período previo a las elecciones de 2024. Pero todavía depende de las empresas decidir qué hacer con esa información. Y el tiroteo en el mitin de Trump ahora plantea nuevas preguntas sobre su voluntad de actuar en consecuencia, especialmente en el contexto de un esfuerzo sostenido de los críticos de derecha de las redes sociales para desacreditar el trabajo sobre confianza y seguridad y la investigación sobre desinformación.

¿Qué opinan los demócratas del ataque contra Trump? 2:32 Cómo se desarrolló todo esto el sábado del tiroteo

La combinación de todos estos factores generó las condiciones propicias para una vorágine de desinformación en torno al intento de asesinato de Trump.

El incidente desató una intensa demanda de información. Los principales medios de comunicación, que se preocuparon de informar sólo respuestas creíbles, inicialmente tardaron más en informar de lo que estaba sucediendo que el ritmo vertiginoso de la especulación en las redes sociales. Eso llevó a lo que los investigadores llaman un vacío de información: una brecha entre lo que se sabe y lo que el público quiere saber.

La decisión de Meta de no amplificar las noticias y la política en feeds curados (parte de una reducción más amplia de la industria en materia de confianza y seguridad impulsada por presiones comerciales internas y culturales externas) puede haber ayudado a evitar que algunas personas caigan en madrigueras recomendadas algorítmicamente, al menos en las que maneja la plataforma.

Pero en los minutos posteriores al tiroteo, algunos usuarios de Threads se quejaron de que las menciones del incidente no se podían encontrar inmediatamente en el sitio, en contraste directo con X, donde, gracias en parte a las decisiones previas de Musk, el pensamiento conspirativo ya fluía rápido y libre.

La retirada de Meta de la promoción de contenido de noticias probablemente contribuyó al vacío de información, dijo Edelson, ya que no logró elevar suficientemente los informes autorizados y probablemente llevó a los usuarios a los brazos de los teóricos de la conspiración en otras plataformas.

La decisión pone de relieve las difíciles compensaciones que supone gestionar un ecosistema de información en rápido movimiento, afirmó Orsek.

"La falta de una estricta moderación del contenido en X ha llevado a una proliferación de información errónea, mientras que la estrategia más conservadora de Meta ha resultado en información menos inmediata [en sus plataformas], tanto verificada como no verificada", dijo Orsek.

(The Verge informó el sábado que Meta parecía estar mostrando en los resultados de búsqueda de Facebook los informes de los medios de comunicación sobre el tiroteo, pero que mostraba de manera inconsistente contenido relacionado con la conspiración en la parte superior de su tema de tendencia en Threads  sobre el incidente).

Mientras tanto, agregó Edelson, TikTok también surgió como un difusor clave de información errónea debido a la forma en que su algoritmo de recomendación mostró videos que creía que resonarían entre los usuarios, en lugar de información principalmente autorizada.

Para otros usuarios de redes sociales, el episodio destacó cómo X sigue siendo la plataforma elegida para seguir las grandes noticias de última hora en línea, incluso si la calidad de la información se degrada. Y la calcificación casi instantánea de las falsas narrativas pro-Trump y anti-Trump en torno al tiroteo muestra cómo los estadounidenses están preparados para mirar el mismo evento a través de lentes completamente diferentes, independientemente de los hechos subyacentes.

El entusiasmo con el que personas de derecha y, cada vez más, de izquierda han abrazado afirmaciones engañosas relacionadas con el tiroteo es una señal preocupante para el discurso civil y la democracia, dicen algunos investigadores.

Eso incluye a Alicia Wanless, directora del Proyecto de Entorno de Información del Carnegie Endowment for International Peace, quien ha estado investigando cómo las personas crean sus propias realidades a partir de la información que consumen y la tecnología que utilizan.

"He estado encontrando un patrón que, después de que las nuevas tecnologías cambian la forma en que los humanos pueden producir y compartir información", dijo Wanless, conduce a choques de diferentes realidades en los que los partidarios de diversos bandos e ideologías intentan hacer cada vez más para convencer a las audiencias de que sus narrativa es la verdad.

Históricamente, si la tensión entre realidades no puede resolverse, advirtió Wanless, eso a menudo conduce a la violencia.

"Todos mis estudios de caso condujeron a conflictos", dijo.

The post El caos en redes sociales tras el intento de magnicidio de Trump: un desastre que las mismas plataformas crearon appeared first on CNN.