Las manipulaciones mediante Inteligencia Artificial proliferan antes de las elecciones de EEUU en 2024

Por Alexandra Ulmer y Anna Tong

(Reuters) - "En realidad, me gusta mucho Ron DeSantis", revela Hillary Clinton en un sorprendente video en internet de apoyo al candidato republicano. "Es justo el tipo de persona que este país necesita, y lo digo de verdad".

El presidente de Estados Unidos Joe Biden se muestra como realmente es con un cruel ataque contra una persona transgénero. "Nunca serás una mujer de verdad", gruñe el presidente.

En la carrera presidencial de Estados Unidos de 2024, la realidad está en juego.

Los videos ultrafalsos de Clinton y Biden -realistas pero inventados, creados por algoritmos de inteligencia artificial entrenados a partir de material en línea- son algunos de los miles que están apareciendo en las redes sociales, desdibujando la realidad y la ficción en el polarizado mundo de la política estadounidense.

Aunque este tipo de medios sintéticos existen desde hace varios años, se han acelerado en el último año gracias a una serie de nuevas herramientas de "inteligencia artificial generativa", como Midjourney, que hacen que sea barato y fácil crear falsificaciones convincentes, según las entrevistas de Reuters con cerca de dos docenas de especialistas en campos como la inteligencia artificial, la desinformación en línea y el activismo político.

"Va a ser muy difícil para los votantes distinguir lo real de lo falso. Y uno podría imaginarse cómo los partidarios de Trump o los de Biden podrían utilizar esta tecnología para hacer quedar mal al oponente", dijo Darrell West, investigador principal del Centro de Innovación Tecnológica de la Institución Brookings.

"Podría haber cosas que aparezcan justo antes de las elecciones y que nadie tenga la oportunidad de desmentir".

Las herramientas que pueden generar "deepfakes" o ultrafalsos se están lanzando con pocas o imperfectas barreras para prevenir la desinformación dañina, en momentos en que el sector tecnológico se involucra en una carrera armamentista de IA, dijo Aza Raskin, cofundadora del Centro de Tecnología Humana, una organización sin fines de lucro que estudia el impacto de la tecnología en la sociedad.

El expresidente Donald Trump, que competirá con DeSantis y otros por la candidatura republicana para enfrentarse a Biden, compartió él mismo un video trucado del presentador de la CNN Anderson Cooper a principios de este mes en su plataforma de redes sociales Truth Social.

"Ese fue el presidente Donald J. Trump rompiéndonos el culo aquí en el foro presidencial en directo de la CNN", dice Cooper en la grabación, aunque las palabras no coinciden con su movimiento de labios.

La CNN dijo que el video era falso. Un representante de Trump no respondió a una solicitud de comentarios sobre el clip, que todavía estaba en la página de Twitter de su hijo Donald Jr esta semana.

Aunque las principales plataformas de redes sociales, como Facebook, Twitter y YouTube, se han esforzado por prohibir y eliminar los ultrafalsos, su eficacia a la hora de controlar los contenidos varía.

UN ULTRAFALSO DE PENCE, NO DE TRUMP

Este año se han publicado en Internet tres veces más de videos ultrafalsos de todo tipo y ocho veces más manipulaciones de voz que en el mismo periodo de 2022, según DeepMedia, una empresa que trabaja en herramientas para detectar medios sintéticos.

En total, DeepMedia calcula que en 2023 se compartirán en todo el mundo unas 500.000 imitaciones de video y voz en las redes sociales. Clonar una voz solía costar hasta finales del año pasado 10.000 dólares en valor de servidor y formación en IA, pero ahora las empresas lo ofrecen por unos pocos dólares, afirma.

Según las personas entrevistadas, nadie sabe a ciencia cierta adónde conduce la IA generativa ni cómo protegerse eficazmente de su poder para provocar una desinformación masiva.

El líder del sector, OpenAI, que ha cambiado las reglas del juego en los últimos meses con el lanzamiento de ChatGPT y el modelo actualizado GPT-4, está lidiando con este problema. Su presidente ejecutivo, Sam Altman, dijo este mes en el Congreso de Estados Unidos que la integridad de las elecciones era un "importante motivo de preocupación" e instó a una rápida regulación del sector.

A diferencia de otras empresas más pequeñas, OpenAI ha tomado medidas para restringir el uso de sus productos en política, según un análisis de Reuters de las condiciones de uso de media docena de empresas líderes que ofrecen servicios de inteligencia artificial generativa. Sin embargo, las barreras tienen lagunas.

Por ejemplo, OpenAI dice que prohíbe a su generador de imágenes DALL-E crear figuras públicas. Cuando Reuters intentó crear imágenes de Trump y Biden, la solicitud fue bloqueada y apareció un mensaje diciendo que "puede no seguir nuestra política de contenidos".

Sin embargo, Reuters pudo crear imágenes de al menos otra docena de políticos estadounidenses, incluido el ex vicepresidente Mike Pence, que también está considerando presentarse a la Casa Blanca en 2024.

OpenAI también restringe cualquier uso "a escala" de sus productos con fines políticos. Eso prohíbe, por ejemplo, el uso de su IA para enviar correos electrónicos masivos personalizados a los electores.

La empresa, que cuenta con el respaldo de Microsoft, explicó sus políticas a Reuters en una entrevista, pero no respondió a otras peticiones de comentarios sobre las lagunas en la aplicación de sus normas, como el bloqueo de la creación de imágenes de políticos.

Varias empresas más pequeñas no tienen restricciones explícitas sobre el contenido político.

Midjourney, que se lanzó el año pasado, es la empresa líder en imágenes generadas por inteligencia artificial, con 16 millones de usuarios en su servidor oficial Discord. La aplicación, que puede ser gratuita o costar 60 dólares al mes en función de factores como la cantidad de imágenes y la velocidad, es una de las favoritas de diseñadores y artistas de IA por su capacidad para generar imágenes hiperrealistas de famosos y políticos, según cuatro investigadores y creadores de IA entrevistados.

Midjourney no respondió a la solicitud de comentarios para este artículo. Durante un chat en Discord la semana pasada, el presidente ejecutivo David Holz dijo que la empresa probablemente haría cambios antes de las elecciones para combatir la desinformación.

Midjourney quiere cooperar en una solución industrial para permitir la trazabilidad de las imágenes generadas por IA con un equivalente digital de marca de agua y consideraría el bloqueo de imágenes de candidatos políticos, añadió Holz.

ANUNCIO REPUBLICANO CON INTELIGENCIA ARTIFICIAL

Mientras el sector se debate sobre cómo evitar el uso indebido, algunos políticos intentan aprovechar el poder de la IA generativa para mejorar sus campañas.

Hasta ahora, el único anuncio político de gran repercusión en Estados Unidos generado por IA ha sido el publicado por el Comité Nacional Republicano a finales de abril. El anuncio de 30 segundos, que el RNC reveló que había sido generado íntegramente por IA, usó imágenes falsas para sugerir un escenario cataclísmico en caso de que Biden fuera reelegido, con China invadiendo Taiwán y San Francisco tomado por la delincuencia.

El Comité Nacional Republicano no respondió a las peticiones de comentarios sobre el anuncio o su uso generalizado de la IA. El Comité Nacional Demócrata no quiso hacer comentarios sobre el uso que hace de la tecnología.

Reuters sondeó a todas las campañas presidenciales republicanas sobre su uso de la IA. La mayoría no respondió, aunque el equipo de Nikki Haley dijo que no utilizaba esta tecnología y la campaña del candidato Perry Johnson afirmó que usaba la IA para la "generación e iteración de copias", sin dar más detalles.

El potencial de la IA generativa para redactar correos electrónicos, mensajes y anuncios de campaña es irresistible para algunos activistas que creen que esta tecnología de bajo costo podría nivelar el terreno de juego en las elecciones.

Las consultoras políticas también están tratando de aprovechar la IA, enturbiando aún más la línea entre lo real y lo irreal.

Numinar Analytics, una empresa de datos políticos que se centra en clientes republicanos, ha empezado a experimentar con la generación de contenidos de IA para audio e imágenes, así como con la generación de voz para crear mensajes personalizados con la voz de un candidato, dijo el fundador Will Long en una entrevista.

El grupo demócrata de sondeos y estrategia Honan Strategy Group está intentando desarrollar un robot de encuestas con inteligencia artificial. Su presidente ejecutivo, Bradley Honan, afirma que espera tener un robot femenino a tiempo para las elecciones municipales de 2023, citando estudios según los cuales tanto hombres como mujeres son más propensos a hablar con una entrevistadora.

(Reporte de Alexandra Ulmer y Anna Tong en San Francisco; reporte adicional de Christina Anagnostopoulos, Zeba Siddiqui y Jonathan Spicer. Editado en español por Javier López de Lérida)