Facebook preguntará si conoces a alguien que “se está volviendo extremista” en nueva prueba rápida

·2  min de lectura
Demandas antimonopolio de Facebook (Copyright 2020 The Associated Press. All rights reserved)
Demandas antimonopolio de Facebook (Copyright 2020 The Associated Press. All rights reserved)

Facebook está probando un mensaje que pregunta a los usuarios si están "preocupados de que alguien que conoces se esté convirtiendo en un extremista".

El nuevo mensaje dice: “Nos preocupamos por prevenir el extremismo en Facebook. Otros en su situación han recibido apoyo confidencial”.

“Escuche historias y obtenga consejos de personas que escaparon de grupos extremistas violentos”. Debajo de ese mensaje hay un botón azul para "Obtener soporte".

Otra versión del mensaje dice: "Los grupos violentos tratan de manipular su ira y decepción. Puede tomar medidas ahora para protegerse a sí mismo y a los demás".

En declaraciones a CNN, Facebook dijo que esto es parte de una prueba que la compañía de redes sociales está realizando como parte de su Iniciativa Redirect, dirigida a combatir el extremismo.

"Esta prueba es parte de nuestro trabajo más amplio para evaluar formas de proporcionar recursos y apoyo a las personas en Facebook que pueden haber interactuado con contenido extremista o haber estado expuestas a él, o pueden conocer a alguien que está en riesgo", dijo el portavoz de Facebook Andy Stone.

"Nos estamos asociando con ONG y expertos académicos en este espacio y esperamos tener más para compartir en el futuro". Facebook compartió la misma declaración con The Independent, pero la atribuyó a un "portavoz de la empresa de Facebook" anónimo.

Lee más: Reddit mata el intercambio Secret Santa; usuarios están furiosos

Facebook ha sido criticado a menudo por las afirmaciones de facilitar el extremismo en sus plataformas. Un informe de Avaaz, un grupo de defensa sin fines de lucro que dice que busca proteger a las democracias de la información errónea, afirmó que Facebook permitió que los grupos glorificaran la violencia durante las elecciones de 2020 y en las semanas previas al intento de insurrección en Capitol Hill el 6 de enero.

El algoritmo de Facebook también exacerbó la división, según una investigación filtrada desde el interior de la empresa de redes sociales, según informó el Wall Street Journal. Según los informes, Facebook puso fin a la investigación para evitar que la plataforma sea tan polarizante por el temor de que se dirija injustamente a los usuarios de derecha. “Nuestros sistemas de recomendación aumentan el problema”, decía una presentación.

En respuesta a ese informe, Facebook publicó una publicación de blog en la que decía que el periódico "ignoró intencionalmente los hechos críticos que socavaron su narrativa" que, según la compañía, incluye cambios en la sección de noticias, limitando el alcance de las páginas y grupos que infringen los estándares de Facebook compartir noticias falsas, combatir el discurso de odio y la información errónea, y "construir un equipo de integridad sólido".

Relacionados

Facebook, TikTok, Google y Twitter se comprometen a abordar la “pandemia de abuso en línea contra las mujeres”

Orden de arresto presentada después del mensaje de Facebook “Así que te violé” en un reclamo de asalto en 2013

Valor de Facebook se dispara por encima del billón por primera vez mientras el juez rechaza una demanda antimonopolio

Nuestro objetivo es crear un lugar seguro y atractivo para que los usuarios se conecten en relación con sus intereses. Para mejorar la experiencia de nuestra comunidad, suspenderemos temporalmente los comentarios en los artículos.