EXCLUSIVA-Facebook apuntará a grupos coordinados de cuentas reales con estrategia dirigida a redes falsas

·3  min de lectura
Imagen de archivo del logo de la app de Facebook en la pantalla de un teléfono móvil.

Por Elizabeth Culliford y Fanny Potkin

16 sep (Reuters) - Facebook está adoptando un enfoque más agresivo para cerrar grupos coordinados de cuentas de usuarios reales que participan en ciertas actividades perjudiciales en su plataforma, empleando la misma estrategia aplicada contra campañas que usan cuentas falsas, dijo la compañía a Reuters.

La nueva iniciativa, que Reuters informa por primera vez aquí, utiliza las tácticas generalmente adoptadas por los equipos de seguridad de Facebook para el cierre total de redes involucradas en operaciones de influencia que usan cuentas falsas para manipular el debate público, como las granjas de trolls rusos.

Podría tener importantes implicaciones en la forma en que el gigante de las redes sociales maneja los movimientos políticos y otros movimientos coordinados que rompen sus reglas, en un momento en que el enfoque de Facebook sobre los abusos en sus plataformas está bajo un fuerte escrutinio por parte de legisladores globales y grupos de la sociedad civil.

Facebook dijo que ahora planea adoptar este mismo enfoque a nivel de red con grupos de cuentas reales coordinadas que rompen sistemáticamente sus reglas, a través de informes masivos, donde muchos usuarios informan falsamente el contenido o la cuenta de un objetivo para cerrarlo, o hacer brigadas, un tipo de acoso en línea donde los usuarios pueden coordinarse para apuntar a un individuo a través de publicaciones o comentarios masivos.

La expansión, que una portavoz dijo que estaba en sus primeras etapas, significa que los equipos de seguridad de Facebook podrían identificar los movimientos centrales que impulsan dicho comportamiento y tomar acciones más radicales que eliminar publicaciones o cuentas individuales como lo haría la compañía.

Los expertos en seguridad de Facebook, que están separados de los moderadores de contenido de la compañía y manejan las amenazas de los adversarios que intentan evadir sus reglas, comenzaron a tomar medidas enérgicas contra las operaciones de influencia que usan cuentas falsas en 2017, luego de las elecciones estadounidenses de 2016 en las que funcionarios de inteligencia estadounidenses concluyeron que Rusia había usado plataformas de redes sociales como parte de una campaña de influencia cibernética, una afirmación que Moscú ha negado.

Facebook denominó esta actividad prohibida por los grupos de cuentas falsas "comportamiento no auténtico coordinado" (CIB, por su sigla en inglés), y sus equipos de seguridad comenzaron a anunciar eliminaciones radicales en informes mensuales. Los equipos de seguridad también manejan algunas amenazas específicas que pueden no usar cuentas falsas, como redes de fraude o ciberespionaje u operaciones de influencia abierta como algunas campañas de medios estatales.

Las fuentes dijeron que los equipos de la compañía habían debatido durante mucho tiempo cómo debería intervenir a nivel de red para grandes movimientos de cuentas de usuarios reales que infringían sistemáticamente sus reglas.

Facebook está bajo una presión cada vez mayor por parte de reguladores globales, legisladores y empleados para combatir abusos de gran alcance en sus servicios. Otros han criticado a la empresa por acusaciones de censura, sesgo anti-conservador o aplicación inconsistente.

Una expansión de los modelos de interrupción de la red de Facebook para afectar las cuentas auténticas plantea más preguntas sobre cómo los cambios podrían afectar los tipos de debate público, movimientos en línea y tácticas de campaña en todo el espectro político.

(Reporte de Elizabeth Culliford en Londres y Fanny Potkin en Singapur; Editado en español por Juana Casas)

Nuestro objetivo es crear un lugar seguro y atractivo para que los usuarios se conecten en relación con sus intereses. Para mejorar la experiencia de nuestra comunidad, suspenderemos temporalmente los comentarios en los artículos.