Agrupación aborda la desinformación a partir del modelo del Grupo de Expertos sobre el Cambio Climático

Varios investigadores del Grupo Internacional en el Marco de la Información durante la Cumbre de los Premios Nobel en la Academia Nacional de Ciencias, en Washington, el 24 de mayo de 2023. (Shuran Huang/The New York Times)
Varios investigadores del Grupo Internacional en el Marco de la Información durante la Cumbre de los Premios Nobel en la Academia Nacional de Ciencias, en Washington, el 24 de mayo de 2023. (Shuran Huang/The New York Times)

WASHINGTON — Hace dos años, en una reunión virtual organizada por la Fundación Nobel, Sheldon Himelfarb esbozó la idea de que los investigadores más destacados del mundo unieran esfuerzos para estudiar la desinformación de la misma manera en que los científicos del Grupo Intergubernamental de Expertos sobre el Cambio Climático documentaron el efecto de las emisiones de carbono en el mundo.

El miércoles, ese nuevo grupo se reunió para su presentación oficial en Washington y congregó a más de 200 especialistas de 55 países con un carácter de urgencia y alarma parecido a la amenaza del calentamiento global. En el primer informe del grupo, los investigadores cuestionaron la eficacia de combatir las mentiras en internet con la moderación del contenido, una de las estrategias más comunes para luchar contra la desinformación, y afirmaron que había otras tácticas que contaban con el respaldo de más pruebas científicas.

“Tenemos que abordar el entorno de la información de la misma manera que los científicos abordan el medioambiente”, señaló Himelfarb, director ejecutivo del grupo y director general de PeaceTech Lab, una organización de defensa afiliada al Instituto de Estados Unidos para la Paz con sede en Washington.

El Grupo Internacional en el Marco de la Información se registró como una organización no gubernamental en Zúrich en un momento en que el combate a la desinformación se ha empantanado cada vez más en un mayor deterioro de la confianza en el gobierno, las organizaciones noticiosas y otras instituciones públicas.

“Los sesgos algorítmicos, la manipulación y la desinformación se han convertido en una amenaza existencial y global que agrava los problemas sociales existentes, entorpece la vida pública, paraliza las iniciativas humanitarias e impide que se avance para hacer frente a otras amenazas importantes”, escribió este grupo en su comunicado inaugural.

El grupo fue presentado durante una reunión de tres días, organizada por la Fundación Nobel y la Academia Nacional de Ciencias, dedicada al deterioro de la comprensión y la confianza en la ciencia por parte de la población en general.

En la reunión, cada uno de los oradores habló de la avalancha de desinformación que se ha convertido en un hecho desalentador de la vida pública en todo el mundo y que, con el reciente auge de la inteligencia artificial, pronto podría llegar a ser todavía peor.

Maria Ressa, de Filipinas, ganadora del Premio Nobel de la Paz en 2021, emitió un manifiesto que pide que los gobiernos democráticos y las grandes empresas tecnológicas se vuelvan más transparentes, contribuyan más para proteger los datos personales y la privacidad y terminen con las prácticas que coadyuvan a la desinformación y otras amenazas contra el periodismo independiente. Cuenta con 276 firmantes que representan a más de 140 organizaciones.

Un reto que enfrentan estas iniciativas es superar las discusiones cada vez más intensas sobre qué es lo que constituye con exactitud la desinformación. En Estados Unidos, los intentos de combatirla han encallado en las protecciones a la libre expresión que garantiza la Primera Enmienda. Ahora, las empresas más grandes dejaron de concentrarse y poner recursos en la lucha contra la desinformación, incluso cuando surgieron nuevas plataformas que prometen dejar de lado las políticas que moderan el contenido.

El miércoles, los investigadores del grupo presentaron el resumen de sus dos primeros estudios, el cual reseñó 4798 publicaciones revisadas por expertos que analizaban la desinformación en las redes sociales y añadía los resultados relacionados con la eficacia de las medidas para combatirla.

Los resultados indican que las intervenciones más eficaces contra la información falsa en internet son etiquetar un contenido como “cuestionable” o marcar fuentes de los medios estatales y publicar información rectificativa, casi siempre para desmentir rumores y desinformación.

El informe sostiene que es mucho más incierta la eficacia de las iniciativas públicas y gubernamentales que tienen como objetivo presionar a los gigantes de las redes sociales como Facebook y Twitter para que eliminen contenidos, así como la de los algoritmos internos de las empresas que retiran o le restan importancia a las cuentas ofensivas. Lo mismo sucede con los programas de alfabetización mediática para identificar las fuentes de la desinformación.

“No estamos diciendo que los programas de alfabetización mediática no funcionen”, señaló Sebastián Valenzuela, profesor de la Pontificia Universidad Católica de Chile que supervisó el estudio. “Lo que estamos diciendo es que necesitamos más pruebas de que funcionan”.

El modelo en el que se basó este grupo, el Grupo Intergubernamental de Expertos sobre el Cambio Climático, se fundó en 1988, una época en la que el cambio climático era igual de cuestionado. Sus científicos, quienes trabajaban bajo el auspicio de Naciones Unidas, trabajaron durante décadas antes de que sus estudios y recomendaciones fueran reconocidos como un consenso de la comunidad científica.

Cuando se trata del entorno digital, y el impacto de los excesos en la sociedad, la ciencia de la desinformación podría resultar todavía más difícil de medir en términos concretos. El cambio climático es una “ciencia exacta”, explicó Young Mie Kim, profesora de la Universidad de Wisconsin-Madison que se desempeña como vicepresidenta de un comité dedicado a la metodología de la investigación.

“Así que, en términos relativos, es más fácil desarrollar algunos instrumentos y conceptos comunes”, señaló Kim. “Pero es difícil hacerlo en las ciencias sociales o las humanidades”.

Este nuevo grupo evade una participación gubernamental, al menos por el momento. Tiene pensado publicar informes periódicos, no investigar sobre mentiras concretas, sino buscar intereses más profundos detrás de la divulgación de desinformación como una manera de orientar las políticas gubernamentales.

“Sería demasiado difícil poner a un montón de científicos a evaluar lo que se afirma como verdadero en alguna porquería”, comentó Philip N. Howard, director del Programa sobre la Democracia y la Tecnología de la Universidad de Oxford y presidente de este nuevo grupo.

“Lo que podemos hacer es buscar una interferencia infraestructural”, continuó. “Podemos supervisar un sistema de algoritmos para ver si tiene consecuencias terribles e imprevistas. Sigue siendo difícil, pero creo que es un objetivo de investigación asequible”.

c.2023 The New York Times Company