Investigan a Facebook e Instagram por la gestión de la desinformación
Facebook e Instagram, propiedad de Meta, están siendo investigadas por la forma en que las plataformas abordan la desinformación en virtud de la Ley de Servicios Digitales (DSA), ante el temor de que sean vulnerables a las redes rusas, ha anunciado este miércoles la Comisión Europea.
Según Bruselas, las presuntas infracciones se refieren a las prácticas de Meta relacionadas con la publicidad engañosa y el contenido político en sus servicios. La red publicitaria de la empresa es vulnerable a la desinformación y puede convertirse en un objetivo para las redes rusas, cree el Ejecutivo comunitario.
Las plataformas también carecen de una herramienta de monitoreo electoral efectiva de terceros en tiempo real. Tras anunciar que la cancelaría, Meta no ha reemplazado su herramienta de información pública CrowdTangle, lo que dificulta que los investigadores y periodistas sepan qué hace la empresa para eliminar el contenido ilegal.
"Dado el alcance de las plataformas de Meta en la UE (que representan más de 250 millones de usuarios activos al mes) y tras las elecciones europeas y una serie de otras elecciones que se celebrarán en varios Estados miembros, tal desaprobación podría dañar el discurso cívico y los procesos electorales en relación con la capacidad de seguimiento de la información falsa y la desinformación, la identificación de la interferencia y la supresión de los votantes y la transparencia general en tiempo real proporcionada a los verificadores de datos, los periodistas y otras partes interesadas electorales pertinentes,", dijo la Comisión.
Además, la Comisión tiene dudas sobre la falta de visibilidad del contenido político y los mecanismos para denunciar el contenido ilegal.
La UE obliga a Meta a fijar una opción sin publicidad, pero habrá que pagar
TikTok y Meta, investigadas por la difusión de "información falsa" tras los atentados de Hamás
Centro de operaciones
Fuentes europeas apuntan a que no hay fecha límite específica para que Meta deba realizar los cambios. La Comisión espera que Meta coopere, ya que ya ha mantenido algunas conversaciones constructivas. "Estamos seguros de que actuarán con rapidez. A nadie le interesa que actores rusos exploten el sitio web, y es incorrecto que ganen dinero con ello", detallan las mismas fuentes.
Según la DSA, las empresas designadas como plataformas en línea muy grandes (VLOP) —plataformas en línea con una media de más de 45 millones de usuarios mensuales en la UE— deben cumplir normas estrictas, como los requisitos de transparencia y la protección de los menores en línea.
Meta dijo a principios de este año que iba a establecer su propio centro de operaciones para las elecciones "a fin de identificar posibles amenazas y adoptar medidas de mitigación en tiempo real". En otra declaración, la empresa matriz de Facebook dijo que tenía previsto empezar a etiquetar el contenido generado por IA en mayo de 2024.
En respuesta a la investigación de hoy, un portavoz de la empresa aseguró a Euronews que existe un "proceso bien establecido para identificar y mitigar los riesgos en nuestras plataformas".
"Esperamos continuar nuestra cooperación con la Comisión Europea y proporcionarles más detalles sobre este trabajo", relata Meta.
Prueba de esfuerzo
El pasado 24 de abril, la Comisión invitó a Meta, TikTok, X y otras plataformas en línea a poner a prueba las directrices electorales de la DSA, destinadas a ayudar a las grandes plataformas en línea y motores de búsqueda a mitigar los riesgos que pueden afectar a la integridad de las elecciones y sus servicios.
La investigación de este miércoles, se produce tras el inicio la semana pasada de otra investigación de la Comisión sobre TikTok. A principios de año se abrieron otras investigaciones a X —también relacionada con contenido ilegal— y AliExpress en relación con el cumplimiento de la DSA.
La propia Meta también presentó una demanda judicial ante el Tribunal General de Luxemburgo en febrero por tener que pagar una tasa de supervisión impuesta por la Comisión en virtud de la DSA.