Facebook despide a sus editores humanos y el algoritmo pierde la cabeza mostrando vídeos sexuales y noticias falsas

En las últimas horas, los usuario de Facebook están viendo como sus pantallas de inicio se están llenando de noticias chocantes: un vídeo de un hombre que se masturba con un sandwich del McDonald’s; una historia falsa sobre el despido de una periodista de derechas que en realidad apoyaría en secreto a Hillary Clinton; y por último, una noticia en la que se insultaba de manera zafia a Ann Coulter, una columnista pro-Trump.

No, no es que Facebook se haya vuelto loco. Es que la red social ha despedido a su equipo de editores de la sección de Trending, en la que se colocan las noticias más interesantes del día, y ha dejado que sea una inteligencia artificial la que las elija. Y con resultados catastróficos.

El pasado mes de mayo, una extrabajadora de la compañía aseguró que los empleados de Trending se dedican a sesgar las noticas que luego aparecen en los muros de los usuarios, y censuran todas aquellas informaciones conservadoras, produciéndose así una censura de determinados medios. Estas revelaciones no sentaron nada bien a los periódicos de medio mundo, cuyas páginas web dependen en buena medida del tráfico que viene de Facebook: si la red social censura o esconde sus publicaciones, pierden dinero.

PUBLICIDAD

Apenas 3 meses después de la polémica, Facebook ha anunciado que ha despedido a todos los empleados de la sección, y la ha hecho automática, para que no haya más problemas ideológicos. Ahora no será un ser humano el que decida si es más importante mostrar las noticias de Trump o las de Hillary Clinton. Esta decisión recae en el algoritmo. Pero su estreno no ha podido ser más desastroso.

¿Cómo funciona Trending?
Facebook ha pasado de ser una red social ha convertirse en un portal que ofrece todo tipo de servicios, publicidades e información en internet. Y lo hace gracias a un algoritmo que decide qué contenidos ve cada uno de los usuarios, en función de diversas variables, que van desde los ‘me gusta’ que ha dado en el pasado, los enlaces sobre los que pulsa, y del tiempo que se detiene en pantalla a leer un determinado artículo. Por ejemplo, si alguien es seguidor del Real Madrid y sigue la cuenta oficial de este club y reacciona de manera positiva ante sus noticias, verá más temas sobre Zidane y compañía.

Todo este proceso no es totalmente automático. Para las noticias de última hora o que están de siendo el tema del día, existía un equipo de editores humanos que seleccionan las informaciones. Por ejemplo, ante la muerte del actor Gene Wilder, un trabajador de Facebook podía alterar el algoritmo para que los usuarios se enteren de la noticia nada más abrir su aplicación o entrar en la web.

Estos trabajadores también podían hacer que no haya demasiados contenidos inapropiados o considerados poco importantes, aunque estén muy en boga. Por ejemplo, si Kim Kardashian ha lucido un escote de vértigo, es muy probable que haya mucha gente interesada en ver las fotos, y el algoritmo de Facebook puede interpretar que es un contenido excepcionalmente importante y mostrarlo a todo el mundo, cuando en realidad no lo es. En ese caso, los editores podían parar los pies a la inteligencia artificial y evitar que algo tan superficial inunde las pantallas de la gente.Pero a partir de ahora será un programa informático el que tome esta decisión.