YouTube y X no actuaron contra la desinformación antes de la votación de la UE, según uninforme

YouTube y X no actuaron contra la desinformación antes de la votación de la UE, según uninforme

Youtube y X a menudo no tomaron medidas contra la desinformación antes de las elecciones europeas de junio, según sugiere un análisis de más de 1300 publicaciones en las plataformas en 26 países de la UE.

El informe, publicado el martes por 'Maldita.es', una organización española de verificación de hechos fundada en 2018, analiza cómo cinco grandes plataformas en línea (Facebook, Instagram, TikTok, X y Youtube) desacreditaron la desinformación en todo el continente antes de las elecciones de la UE.

Las publicaciones analizadas fueron recopiladas por organizaciones de verificación de hechos que participaron en el proyecto 'Elections24Check' durante los cuatro meses previos a las elecciones, incluido el 6 de junio, el primer día de la votación de la UE.

Según los datos, la plataforma de vídeos YouTube fue la que peores resultados obtuvo. No tomó ninguna medida visible en relación con el 75% de los contenidos de desinformación, y en el 80% de los casos en los que sí tomó medidas, el contenido registraba un panel de información genérico o etiquetaba la fuente del vídeo como medio de comunicación estatal, sin ofrecer ninguna explicación de por qué el contenido en sí era falso. Algunos de esos vídeos alcanzaron las 500.000 visitas, según el informe.

Un portavoz de YouTube dijo a 'Euronews' que la compañía tiene "políticas estrictas sobre la desinformación perjudicial, que nuestros equipos trabajan día y noche para hacer cumplir rigurosamente, incluso durante todo el período electoral de la UE."

"También hemos conectado a votantes de toda la UE con fuentes autorizadas de noticias e información a través de nuestro sistema de recomendaciones", añadió el portavoz.

Plataformas ya sujetas a investigaciones de la Comisión

Del mismo modo, la plataforma de medios sociales X no tomó ninguna medida visible en el 70% de los casos y las notas comunitarias explicativas sólo eran visibles en el 15% de las publicaciones ya marcadas por los verificadores de hechos independientes europeos. Entre los 20 mensajes desmentidos más virales que no recibieron ninguna acción por parte de las plataformas, 18 estaban alojados en X, con más de 1,5 millones de visitas cada uno.

En general, las plataformas fueron las que menos medidas tomaron contra los mensajes de desinformación dirigidos a los inmigrantes (el 57% de los casos no recibieron ninguna medida), seguidos de la desinformación sobre la integridad de las elecciones (56%). Tanto YouTube como TikTok tuvieron un índice de respuesta del 0% para la desinformación dirigida a los inmigrantes.

La Ley de Servicios Digitales de la UE obliga a las grandes plataformas en línea a tomar medidas contra la desinformación, por ejemplo etiquetando o retirando contenidos. En diciembre de 2023, la Comisión Europea inició una investigación en virtud de la DSA sobre la gestión de riesgos de X, la moderación de contenidos, los patrones oscuros, la transparencia de la publicidad y el acceso de los investigadores a los datos.

Facebook e Instagram: resultados ligeramente mejores

Según el informe, la plataforma de intercambio de vídeos TikTok, de propiedad china, consiguió tomar medidas visibles en el 40% de las publicaciones que contenían desinformación.

En Instagram, propiedad de Meta, esta cifra es del 70%, y en Facebook del 88%. Mientras que la mayoría de las acciones de Facebook en relación con la desinformación fueron etiquetas de comprobación de hechos que mantenían el contenido original en línea y se centraban en añadir contexto (77%), la acción más común de TikTok contra esos contenidos fue eliminarlos (32%).

Las plataformas de Meta también son objeto de una investigación en curso en el marco de la DSA. La Comisión dijo en abril que teme que sean vulnerables a las redes rusas y que carezcan de las herramientas adecuadas para hacer frente a la publicidad engañosa y los contenidos políticos en sus servicios.

ByteDance, la empresa matriz de TikTok, también está siendo investigada: la Comisión empezó a investigar en febrero la protección de los menores, la transparencia publicitaria, el acceso a los datos por parte de los investigadores, así como la gestión del riesgo de diseños adictivos y contenidos nocivos.

Un portavoz de la Comisión dijo en una declaración a 'Euronews' que tras sus directrices electorales a las plataformas bajo la DSA, así como una prueba de estrés con grandes plataformas, las empresas "estaban muy bien preparadas" y que "no se produjeron incidentes importantes" durante el fin de semana electoral.

Este artículo se ha actualizado con los comentarios de la Comisión y de YouTube.