Anuncios

El programa de IA Midjourney impide a usuarios crear imágenes de Biden y Trump de cara a elecciones

En esta combinación de fotografías se muestra al expresidente de EEUU Donald Trump (izquierda) y al presidente Joe Biden. (AP Foto)

El popular programa de inteligencia artificial para crear imágenes Midjourney empezó a impedir que sus usuarios generen imágenes falsas del presidente Joe Biden y del expresidente Donald Trump de cara a las próximas elecciones presidenciales de Estados Unidos, de acuerdo con pruebas de la herramienta realizadas por The Associated Press.

Con las campañas ya a toda marcha, ha llegado el momento de “ponernos firmes con las cosas relacionadas con las elecciones por un tiempo”, dijo el miércoles David Holz, director general de Midjourney, a varios cientos de usuarios del servicio en un evento digital.

Holz señaló que “esto de la moderación es un poco difícil” y no explicó exactamente qué cambios se han introducido en las políticas del servicio, pero afirmó que se trataba de una medida temporal para dificultar que se abuse de la herramienta. La empresa no ha respondido a una solicitud de comentarios el miércoles.

Los intentos de los periodistas de la AP de poner a prueba la nueva política de Midjourney el miércoles pidiéndole que creara una imagen de “Trump y Biden estrechándose la mano en la playa” dieron lugar a una advertencia de “Instrucción prohibida detectada”. Un segundo intento elevó la advertencia a: “Ha activado una alerta de abuso”.

La pequeña empresa —que sólo cuenta con 11 empleados, según su sitio web— ha guardado silencio en el debate público sobre cómo las herramientas de IA generativa podrían exacerbar la desinformación electoral en todo el mundo. Midjourney fue el único desarrollador de una de las principales herramientas de generación de imágenes que no se unió en febrero a un pacto voluntario de la industria tecnológica para combatir las imágenes falsas generadas por IA que engañan deliberadamente a los votantes.

“Realmente no me importa el discurso político”, comentó Holz el miércoles. “Ese no es el propósito de Midjourney. No me interesa mucho. Dicho eso, tampoco quiero dedicar todo mi tiempo a vigilar el discurso político. Así que vamos actuar con firmeza en ello un poco".

El Centro para Contrarrestar el Odio Digital publicó un reporte hace unas semanas que concluyó que Midjourney ya se estaba utilizando para crear imágenes que podrían respaldar la desinformación sobre los candidatos políticos o las denuncias falsas sobre fraude electoral.

“Midjourney parecía tener la menor cantidad de controles de cualquier generador de imágenes de IA cuando se trataba de generar imágenes de figuras políticas conocidas como Joe Biden y Donald Trump”, dijo Callum Hood, jefe de investigación del grupo, en una entrevista el miércoles. "Midjourney era casi único tanto por estar dispuesto a generar esas imágenes como por generar imágenes bastante convincentes de los candidatos”.

El grupo de vigilancia también llevó a cabo algunas pruebas en Midjourney, así como en ChatGPT Plus de OpenAI, DreamStudio de Stability AI y el Image Creator de Microsoft, y encontró que todos tenían problemas, creando información falsa de las elecciones en el 41% de los casos. Pero “Midjourney fue la herramienta que obtuvo peores resultados, fallando en el 65% de las pruebas”, según el reporte.

Hood dijo que no estaba al tanto sobre si Midjourney había cambiado sus políticas esta semana, pero “su decisión de bloquear esas imágenes ayudaría a sellar un punto débil importante en comparación con otros generadores de imágenes populares".

La base de datos pública de Midjourney muestra que, hasta finales de la semana pasada, los usuarios eran capaces de producir imágenes basadas en instrucciones como “Foto abstracta de Donald Trump sentado en un pequeño coche eléctrico” y “Joe Biden comiendo helado”.

Pero eso cambió en los últimos días, cuando los usuarios informaron que recibían una advertencia al intentar crear imágenes de Biden o Trump. Algunos se quejaron de que Midjourney no estaba comunicando adecuadamente el cambio de política.

“Cualquiera que se asuste por las imágenes falsas en 2024 va a tener un duro 2028”, dijo Holz el miércoles. “En ese momento, el mundo será muy diferente. Obviamente, todavía vas a tener humanos postulándose a la presidencia en 2028, pero ya no serán puramente humanos”.

Todos los candidatos en ese momento tendrán “chatbots deepfake” de aspecto real con temas de conversación simulados, dijo. Holz advirtió el miércoles que la gente que realmente quiera hacer deepfakes encontrará alternativas que “se pueden ajustar a personas concretas y funcionarán mejor que nuestros sistemas”.