¿Quién es un bot y quién no lo es?

Siobhan Roberts
En ocasiones parece que los bots automatizados toman el control de las redes sociales y manejan el discurso humano. Pero algunos investigadores (reales) no están tan seguros de eso. (Chris Gash/The New York Times)
Darius Kazemi, investigador y artista de internet, ha pasado un tiempo considerable estudiando la esencia y el comportamiento de los bots, en Portland, Oregon, el 12 de junio de 2020. (Tojo Andrianarivo/The New York Times)

Durante el fin de semana largo del Día de los Caídos, estalló una tormenta en Twitter acerca de los bots, esos programitas automáticos que hablan con nosotros en la dimensión digital como si fueran seres humanos.

Lo primero que le llamó la atención a Darius Kazemi fue el título del artículo de NPR “Investigadores: es probable que casi la mitad de las cuentas que tuitean sobre el coronavirus sean bots” —el cual retuiteó Hillary Clinton a sus 27,9 millones de seguidores— y un encabezado similar en CNN.

A él le pareció que eso era demasiado. Kazemi, investigador independiente y artista de internet en Portland, Oregon, y becario de Mozilla en 2018, ha pasado un tiempo considerable estudiando la esencia y el comportamiento de los bots. Es un lugar común que los bots, por encargo de Rusia, circulan desenfrenados en las redes sociales. Algunas personas dirían que por ahí anda una población extensa y con frecuencia conflictiva de bots: en un artículo —“What Types of COVID-19 Conspiracies Are Populated by Twitter Bots?” (¿Qué tipos de conspiraciones del COVID-19 son difundidas por los bots en Twitter?)— el autor afirmó que algunos bots estaban saturando las etiquetas del COVID-19 con desinformación y etiquetas de conspiración, como #GreatAwakening (gran despertar) y #qanon.

Pero Kazemi cree que es exagerado el complot de los bots contra Estados Unidos.

Hay cosas importantes que se desconocen: ¿qué tan predominantes son en realidad los bots malignos?, ¿cuál es su verdadero efecto?, ¿no es verdad que casi siempre tuitean entre ellos? y, lo más esencial, ¿qué es un bot? (Por ejemplo, es difícil distinguir un bot de un trol, que es un ser humano antagónico que solo agrede, o de un cíborg, que es una cuenta gestionada por una persona que de manera intermitente despliega un bot).

Kazemi también hace bots: lo han considerado “un John Cage muy subversivo fabricante de bots”. (Su bot “Dos encabezados” se coló en el servicio de Google Noticias, eligió dos títulos al azar y mezcló palabras clave en Twitter. Por ejemplo, “ABBA cruza la frontera de Corea para asistir a cumbre”). Kazemi define un bot como “una computadora que intenta hablarles a los seres humanos mediante tecnología que fue diseñada para que las personas hablen con personas”.

Al dudar de la afirmación de “casi la mitad”, Kazemi encontró la fuente del artículo: una publicación de la Universidad Carnegie Mellon (CMU, por su sigla en inglés) sobre la investigación de Kathleen Carley, directora de Análisis Computacional de los Sistemas Sociales y Organizacionales de la CMU; desde enero, Carley había recabado más de 200 millones de tuits que hablaban del coronavirus o de la enfermedad que dicho virus genera: el COVID-19. “Estamos viendo hasta el doble de actividad de bots de lo que habíamos pronosticado con base en desastres naturales, crisis y elecciones anteriores”, señalaba en la publicación.

Kazemi había esperado encontrar un artículo de investigación, con datos y código, pero no tuvo esa suerte. “Fue desalentador”, comentó. Yoel Roth, director de la integridad del sitio de Twitter, tuiteó que la empresa no había visto “pruebas que respaldaran la afirmación de que era probable que ‘casi la mitad de las cuentas que tuitean sobre el coronavirus sean bots’”. Incluyó un hilo del equipo de Comunicaciones de Twitter etiquetado “¿Es bot o no?”, que repasaba los matices taxonómicos.

Carley dijo en una entrevista que se rehusaba a proporcionar datos antes de la publicación porque no quería ser retirada; tampoco quería violar los términos del servicio de Twitter. (Los términos permiten la distribución de tuits e identificación del usuario para arbitraje o validación de la investigación, pero los detalles pueden complicarse).

“La última vez que enviamos un artículo sobre bots junto con los datos, alguien robó nuestros datos y publicó el artículo antes que nosotros”, señaló Carley. “Todo saldrá cuando sea aceptado para su publicación”. Añadió que decidió compartir los hallazgos preliminares en respuesta a solicitudes de los periodistas y de otros investigadores: “Parecía importante que la gente supiera acerca del COVID-19. Pensamos que estábamos prestando un servicio”.

En esta pandemia están proliferando las prepublicaciones científicas y los investigadores se apresuran a publicar los resultados. Además, las agencias de noticias se abalanzan demasiado a los resultados sin verlos de manera crítica y mucho menos analizar los datos. Pero los escasos datos fueron una señal de alarma para Kazemi. Escarbó en los hilos de Twitter: a menos que planteemos que hay más bots que personas en las redes sociales, escribió, “tiene que haber muy buenos datos para afirmar que la mitad de las conversaciones sobre el COVID-19 procede de bots. Se necesitan muchísimas pruebas y no las hay”.

Otras personas también evaluaron Twitter. Kate Starbird, directora del Laboratorio de Habilidades Emergentes para la Participación Masiva de la Universidad de Washington, preguntó: “¿La automatización y la manipulación sigue siendo un problema aquí? Sí. ¿Debe Twitter hacer un mejor trabajo? En definitivo. Pero los investigadores tenemos que ser precisos en la forma en que hablamos de los diferentes comportamientos, y esto incluye a qué llamamos ‘bots’”.

A principios de junio, salió un reportaje parecido acerca de la frecuencia de bots en el discurso de Twitter en torno a las protestas sobre el asesinato de George Floyd. Un artículo de Digital Trends decía que los bots estaban difundiendo las teorías de conspiración y la desinformación sobre las protestas y la etiqueta Black Lives Matter. El reportaje citaba la investigación de Carnegie Mellon que insinuaba que del 30 al 49 por ciento de las cuentas que tuiteaban acerca de las protestas eran bots.

Una vez más, estas afirmaciones dieron lugar a dudas e inquietud por parte de Kazemi y otras personas.

Joan Donovan, directora de investigación del Centro Shorenstein de Medios, Política y Políticas Públicas de la Universidad de Harvard, señaló que cuando los académicos publican hallazgos novedosos e impactantes (ya sea en una revista o a través de publicaciones noticiosas) tienen la responsabilidad de proporcionar pruebas. “Lanzar al mundo estadísticas sin explicaciones del tipo de contenido que está asociado es especialmente preocupante, sobre todo en relación a la etiqueta Black Lives Matter”, afirmó.

En una entrevista telefónica, Carley dijo que tenía algunos proyectos en marcha sobre las redes sociales, incluyendo estudios sobre el COVID-19 y las elecciones. Carley utiliza una herramienta de detección de bots desarrollada en la CMU llamada cazadora de bots.

“A todos los que me han preguntado les he dicho que los bots en sí mismos no son malignos”, comentó Carley. “No son más que un programa informático. Se usan para cosas buenas y para cosas malas”.

Señaló que de todos los tuits de Black Lives Matter recabados hasta ahora en su investigación (bots y no) el 90,6 por ciento apoyaba el movimiento, el 5,6 por ciento no lo apoyaba y el resto era neutral. Mencionó que el subconjunto de tuits de bots “no afectaba de manera considerable esos porcentajes”: los bots expresaban un apoyo abrumador a las protestas y con frecuencia solo retuiteaban las noticias o retransmitían los mensajes de la Organización Mundial de la Salud o de los Centros para el Control y la Prevención de Enfermedades de Estados Unidos.

Cómo encontrar un bot verdadero

En los días intermedios, Kazemi, motivado por los encabezados, comenzó una revisión de bots y examinó de forma manual los conjuntos de datos de presuntos bots y verificó su existencia en el campo. Se centró en datos utilizados para entrenar al algoritmo de aprendizaje automático que hace funcionar al Botometer (botímetro), una herramienta de detección de bots del Instituto Científico de Redes y el Centro de Redes Complejas e Investigación de Sistemas de la Universidad de Indiana, la cual “revisa la actividad de una cuenta de Twitter y le da una calificación con base en la probabilidad de que la cuenta sea un bot”. Una calificación de cero significa que tiene las mayores probabilidades de ser de un humano y una calificación de cinco, que es más probable que sea de un bot.

Hay otros investigadores que están haciendo un trabajo parecido. Manlio De Domenico, físico del Instituto Kessler en Trento, Italia, creó el “Observatorio de Infodemia para COVID-19”, el cual revisa cerca de 4,5 millones de tuits al día. Durante el proceso de arbitraje para el artículo “Assessing the risks of ‘infodemics’ in response to COVID-19 epidemics” (evaluación de los riesgos de la “infodemia” como respuesta a la epidemia de COVID-19), su laboratorio validó mil cuentas de usuarios. (El análisis fue realizado por doce personas durante dos semanas).

Jonas Kaiser, del Centro Berkman Klein del Internet y la Sociedad de la Universidad de Harvard, y Adrian Rauchfleisch de la Universidad Nacional de Taiwán, examinaron el botímetro para su artículo prepublicado “The False Positive Problem of Automatic Bot Detection in Social Science Research” (el problema de falsos positivos en la detección automática de bots en la investigación en ciencias sociales). Kaiser señaló que los algoritmos funcionan muy bien en sus escenarios de entrenamiento y por lo general tienen un peor desempeño cuando se aplican a datos desconocidos.

Definir un bot es un problema delicado; en términos técnicos, podría ser cualquier cuenta automatizada, como un agregador de contenidos o un programa de amplificación, como Hootsuite. Kazemi encontró muchos bots que tuiteaban sobre el COVID-19, incluyendo clínicas de salud vecinales que usaban programas de mercadotecnia para publicar anuncios de servicio a la comunidad diarios sobre la pandemia con respecto a lavarse las manos.

También descubrió que con frecuencia las personas eran confundidas con bots. Por ejemplo, el “efecto abuelo”, como él lo llamó: personas que fueron confundidas con bots porque usaban las redes sociales de manera “anticuada o torpe”, comentó. Los usuarios que acostumbran oprimir el botón de compartir a los artículos noticiosos también resultaron falsos positivos. Esto llevó a Kazemi a preguntarse si no sería mejor renombrar al botímetro como Normiemeter (anticuadómetro). Kazemi tuiteó: “¿Se imaginan los encabezados? ’El 50 por ciento de las cuentas que tuitean acerca del COVID-19 son anticuados’”.

¿Tienen importancia los bots?

Tal vez el problema de lo que es y no es un bot sea muy complejo para resolver, en parte porque los bots evolucionan de manera continua. Como señaló Kazemi, “Es como cuando el juez de la Corte Suprema Potter Stewart dijo sobre la pornografía ‘La reconozco cuando la veo’”, lo cual no es una estrategia ideal, comentó Kazemi.

El problema más importante y quizás incluso el más difícil es cómo medir el impacto de los bots en el discurso colectivo. ¿Los bots cambian nuestras creencias y comportamientos?

“Queremos entender qué tipos de poblaciones susceptibles interactúan con ellos y qué tipos de narrativas tienen impacto”, comentó Emilio Ferrara, experto informático de la Universidad del Sur de California y autor del artículo sobre bots “COVID-19 Conspiracies” (las conspiraciones del COVID-19). El santo grial de la investigación sobre los bots, comentó, es entender si los bots son importantes.

“Muchas personas estarían de acuerdo con que, en efecto, quizás haya toneladas de bots”, dijo. “Pero es menos problemático si a nadie le importan (tal vez se retiran de inmediato y una gran parte de la población no ve su contenido)”.

This article originally appeared in The New York Times.

© 2020 The New York Times Company