Anuncios

La desinformación electoral da un gran salto con el uso de IA para engañar en todo el mundo

Foto tomada frente a un hotel en Davos, Suiza, el 15 de enero de 2024. La inteligencia artificial está facilitando la creación de la desinformación en todo el mundo, permitiéndole a la gente crear contenidos falsos _pero con apariencia real_ para engañar a los votantes. (Foto AP/Markus Schreiber)

LONDRES (AP) — La inteligencia artificial generativa potencia la amenaza de la desinformación electoral en todo el mundo, al facilitar que cualquiera con un teléfono inteligente y una imaginación retorcida y deshonesta cree contenido falso —pero convincente— destinado a engañar a los votantes.

Esto marca un salto importante respecto de hace unos años, cuando la creación de fotografías, vídeos o clips de audio falsos requería dinero, equipos de personas con tiempo y habilidades técnicas. Ahora, con servicios de inteligencia artificial (IA) generativa gratuitos y de bajo costo de empresas como Google y OpenAI, cualquiera puede crear “deepfakes” —una falsificación realista en foto, video o audio digital— de alta calidad con una instrucción sencilla a partir de un texto.

Una ola de falsificaciones de IA generativa vinculadas a elecciones en Europa y Asia ha recorrido las redes sociales durante meses y sirve como advertencia para más de 50 países que se dirigen a las urnas este año.

“No necesitas mirar muy lejos para ver que algunas personas están claramente confundidas sobre si algo es real o no”, dijo Henry Ajder, un experto destacado en IA generativa con sede en Cambridge, Inglaterra.

La pregunta ya no es si los deepfakes de IA podrían afectar las elecciones, sino qué tan influyentes serán, destacó Ajder, quien dirige una firma consultora llamada Latent Space Advisory.

A medida que la carrera presidencial de Estados Unidos se intensifica, del director del FBI, Christopher Wray, advirtió recientemente sobre la creciente amenaza y dijo que la IA generativa facilita que “adversarios extranjeros se involucren en influencias malignas”.

Con un deepfake, la imagen de un candidato se puede distorsionar o suavizar. Los votantes pueden encontrarse atraídos o alejados de los candidatos o incluso evitar las urnas por completo. Pero quizá la mayor amenaza para la democracia, dicen los expertos, es que una oleada de deepfakes podría erosionar la confianza del público en lo que ve y escucha.

Algunos ejemplos recientes de deepfakes hechos a partir de inteligencia artificial incluyen:

— Un video de la presidenta prooccidental de Moldavia dando su apoyo a un partido político amigo de Rusia.

— Audios del líder del partido liberal de Eslovaquia hablando de manipular los votos y aumentar el precio de la cerveza.

— Un video de una legisladora de la oposición en Bangladesh, una nación de mayoría musulmana conservadora, en bikini.

La novedad y sofisticación de la tecnología hace que sea difícil rastrear quién está detrás de los deepfakes. Los expertos dicen que los gobiernos y las empresas todavía no son capaces de detener el diluvio ni se mueven lo suficientemente rápido para resolver el problema.

A medida que la tecnología mejora, “será difícil encontrar respuestas definitivas sobre mucho del contenido falso”, advirtió Ajder.

EROSIONAR LA CONFIANZA

Algunos deepfakes tienen como objetivo sembrar dudas sobre la lealtad de los candidatos.

En Moldavia, un país de Europa del este que hace frontera con Ucrania, la presidenta prooccidental Maia Sandu ha sido un objetivo frecuente. Un deepfake que circuló poco antes de las elecciones locales la mostraba respaldando a un partido amigo de Rusia y anunciando planes de dimitir.

Los funcionarios de Moldavia creen que el gobierno ruso está detrás de la actividad. Con las elecciones presidenciales de este año, los deepfakes buscan “erosionar la confianza en nuestro proceso electoral, los candidatos y las instituciones, pero también erosionar la confianza entre las personas”, dijo Olga Rosca, asesora de Sandu. El gobierno ruso declinó hacer comentarios para esta historia.

China también ha sido acusada de utilizar la IA generativa como arma con fines políticos.

En Taiwán, una isla autónoma que China reclama como propia, un deepfake generado con IA llamó la atención a principios de este año al provocar preocupaciones sobre la interferencia de Estados Unidos en la política local.

El clip falso que circula en TikTok muestra al legislador estadounidense Rob Wittman, vicepresidente de la Comisión de Servicios Armados de la Cámara de Representantes, prometiendo un mayor apoyo militar de su país a Taiwán si los candidatos del partido en el poder eran elegidos en enero.

Wittman culpó al Partido Comunista Chino de intentar inmiscuirse en la política taiwanesa y dijo que utiliza TikTok —una empresa de propiedad china— para difundir “propaganda”.

Wang Wenbin, un portavoz del Ministerio de Asuntos Exteriores de China, dijo que su gobierno no comenta sobre videos falsos y que se opone a la interferencia en los asuntos internos de otros países. Las elecciones de Taiwán, subrayó, “son un asunto local de China”.

NUBLAR LA REALIDAD

Los deepfakes de audio son muy difíciles de verificar porque a diferencia de las fotos y los videos, carecen de signos reveladores de contenido manipulado.

En Eslovaquia, otro país ensombrecido por la influencia rusa, audios que asemejaban la voz del jefe del partido liberal fueron compartidos ampliamente en redes sociales pocos días antes de las elecciones parlamentarias. Los clips supuestamente lo captaron hablando de aumentar el precio de la cerveza y manipular el voto.

Es comprensible que los votantes caigan en el engaño, dijo Ajder, porque los humanos estamos “mucho más acostumbrados a juzgar con los ojos que con los oídos”.

En Estados Unidos, llamadas automáticas que pretendían ser del presidente Joe Biden instaron a los votantes de Nueva Hampshire a abstenerse de votar en las elecciones primarias de enero. Las llamadas fueron rastreadas después hasta un consultor político que dijo que buscaba dar a conocer los peligros de los deepfakes de la inteligencia artificial generativa.

En países más pobres, donde la alfabetización sobre los medios es deficiente, hasta las falsificaciones con IA de baja calidad pueden ser efectivas.

Ese fue el caso el año pasado en Bangladesh, donde la legisladora de la oposición Rumeen Farhana —crítica abierta del partido gobernante— fue representada falsamente en bikini. El video viral provocó indignación en la nación conservadora y de mayoría musulmana.

“Confían en todo lo que ven en Facebook”, dijo Farhana.

Los expertos están particularmente preocupados por las próximas elecciones en India, la democracia más grande del mundo y donde las redes sociales son caldo de cultivo para la desinformación.

UN DESAFÍO A LA DEMOCRACIA

Algunas campañas políticas utilizan IA generativa para reafirmar la imagen de sus candidatos.

En Indonesia, el equipo que dirigió la campaña presidencial de Prabowo Subianto implementó una sencilla aplicación móvil para construir una conexión más profunda con sus seguidores en la vasta nación insular. La aplicación permitió a los votantes subir una foto y crear imágenes generadas por IA de ellos mismos con Subianto.

A medida que se multiplican los tipos de falsificaciones de IA generativa, las autoridades de todo el mundo se apresuran para idear salvaguardas.

La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir información falsa, desinformación o “manipulación electoral”. Exigirá un etiquetado especial en los deepfakes de IA a partir del próximo año, demasiado tarde para las elecciones parlamentarias de la UE en junio. Sin embargo, el resto del mundo está mucho más atrás.

Las empresas tecnológicas más grandes del mundo firmaron recientemente —y de manera voluntaria— un pacto para evitar que las herramientas de IA generativa sean disruptivas para las elecciones. Por ejemplo, la empresa propietaria de Instagram y Facebook ha dicho que comenzará a etiquetar los deepfakes que aparecen en sus plataformas.

Pero los deepfakes son más difíciles de controlar en aplicaciones como el servicio de chat Telegram, que no firmó el pacto voluntario y utiliza chats encriptados que pueden ser difíciles de monitorear.

A algunos expertos les preocupa que los esfuerzos por frenar los deepfakes tengan consecuencias indeseadas.

Los gobiernos o las empresas bien intencionados podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político sénior del Centro para la Democracia y la Tecnología, en Washington.

Los principales servicios de IA generativa tienen reglas para limitar la desinformación política. Pero los expertos dicen que todavía es demasiado fácil burlar las restricciones de las plataformas o utilizar servicios alternativos que no tienen las mismas salvaguardas.

Incluso sin malas intenciones, el creciente uso de la IA generativa es problemático. Muchos chatbots populares impulsados por inteligencia artificial aún escupen información falsa y engañosa que amenaza con privar de su derecho al voto a los electores.

Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimientos reales que los muestran de forma desfavorable fueron fabricados con IA generativa.

“Un mundo en el que todo es sospechoso —y en el que por lo tanto todos pueden elegir en qué creen— es también un mundo que supone un verdadero desafío para una democracia floreciente”, dijo Lisa Reppell, investigadora de la Fundación Internacional para Sistemas Electorales, en Arlington, Virginia.

___

Swenson informó desde Nueva York. Los periodistas de The Associated Press Julhas Alam, en Dhaka, Bangladesh; Krutika Pathi, en Nueva Delhi; Huizhong Wu, en Bangkok; Edna Tarigan, en Yakarta, Indonesia; Dake Kang, en Beijing; y Stephen McGrath en Bucarest, Rumania, contribuyeron a este despacho.

___

The Associated Press recibe apoyo de varias fundaciones privadas para resaltar su cobertura explicativa de las elecciones y la democracia. La AP es la única responsable de todo el contenido.