Elecciones en EU: Trump, Elon Musk y otras cuentas usan IA para desinformación y ataques de género
Personajes como Donald Trump y Elon Musk aprovechan el potencial de la Inteligencia Artificial… pero para generar desinformación sobre las elecciones de Estados Unidos.
Esa tecnología de IA es un factor más en medio de la batalla electoral de dicho país, al permitir la creación de imágenes cada vez más realistas que confunden a los usuarios de redes, y dar pie a ataques de violencia de género.
Tanto Trump como el empresario dueño de X, por ejemplo, han compartido imágenes de la candidata demócrata Kamala Harris acusándola de ser comunista, portando los símbolos de la hoz y el martillo, y vestida de rojo.
“Kamala promete ser una dictadora comunista algún día. ¿Pueden creer que usa este outfit?”, publicó Musk.
Seguidores del expresidente como los de su opositora se han acusado entre sí de utilizar imágenes creadas con IA para inflar la popularidad de sus campañas, subiendo a sus redes supuestas pruebas de la manipulación en las imágenes de mítines.
Una de las herramientas más utilizadas para generar desinformación es Grok, que es la inteligencia artificial de X. Esta tiene la capacidad de generar imágenes de personas, a diferencia de otras IA como Gemini de Google, que por el momento no genera imágenes de personas reales sin su consentimiento.
Trump usó imágenes de ese estilo para presumir que Taylor Swift supuestamente lo apoya, e incluso usuarios han creado imágenes de Kamala portando una playera de apoyo a la campaña de Trump y J.D Vance.
A pesar de que estas imágenes pueden ser compartidas como broma o sátira, implican riesgos como la pérdida de credibilidad en las elecciones, y aumentar la polarización política.
Algunos entidades en Estados Unidos ya han comenzado a incluir en sus legislaciones normas para el uso de la IA en elecciones, así como sanciones para quienes las utilicen de manera maliciosa e irresponsable, aunque todavía es un campo en el que en se carece de regulación.
Desinformación de género
De acuerdo con el Instituto Tecnológico de Massachusetts (MIT), una de sus principales preocupaciones en cuanto a la intersección de la IA y la democracia, específicamente durante tiempos de elecciones, es que esa tecnología puede perpetuar y amplificar las desigualdades sociales. De acuerdo con sus observaciones, esto es particularmente cierto cuando se trata de las mujeres en la política.
Según aseveran, la IA se ha utilizado como una herramienta para acosar y desacreditar a las mujeres en la política.
En esta nota te explicamos cómo la violencia cibernética se da principalmente contra mujeres y minorías como la comunidad LGBT+.
Esta tendencia es clara al mirar el debate electoral en Estados Unidos. Hay imágenes manipuladas con IA tanto de Donald Trump como de Kamala Harris, pero en el caso de Kamala se le objetiviza.
En un montaje que se viralizó en Facebook, aparece con ropa reveladora o lencería y en la descripción de la publicación aseguran que “ese fue el inicio de su carrera”. Otra de las imágenes generadas con inteligencia artificial la muestra siendo cargada por Donald Trump de una manera sexualizada, mientras él le acaricia una pierna.
Entre otras imágenes generadas de la vicepresidenta de Estados Unidos, en algunas se les muestra en traje de baño, o en un video supuestamente besándose con el expresidente, y en la mayoría aparece con facciones más jóvenes.
Incluso usuarios de redes sociales han señalado esta tendencia. En una publicación que comparte una imagen de la vicepresidenta supuestamente comiendo sushi en traje de baño, un usuario comentó lo siguiente: “Alguien más ha notado que las imágenes generadas con IA de Kamala siempre la hacen ver más guapa y jóven? […] Kamala debería estar emocionada y agradecida por los glow ups de Grok. Si acaso Grok tiene una preferencia, es hacia Kamala”.
¿Qué tan regulado está el uso de la IA en Estados Unidos?
Las legislaciones estatales estadounidenses se han estado actualizando en respuesta al uso de la IA en las elecciones. El primer estado en legislar al respecto fue Texas en 2019, introduciendo un estatuto en su código electoral que prohíbe la publicación de videos deepfake– videos generados con IA utilizando las caras de personas reales– de cualquier candidato 30 días antes de una elección.
En caso de hacerlo, se puede considerar un delito y ser castigado con un año de cárcel o una multa de 4 mil dólares.
Posterior a la publicación de este estatuto en Texas, otros estados también integraron distintos estatutos que regulan distintas prácticas del uso de la IA durante los procesos electorales.
Las legislaciones utilizan términos como deepfake, medios sintéticos o medios engañosos para referirse a creaciones con inteligencia artificial. Según explica la Conferencia Nacional de Legislaturas Estatales de Estados Unidos (NSCL), a pesar de que cada término se refiere a lo que engloba la Inteligencia Artificial como paraguas, las palabras usadas y el fraseo tienen un impacto en cómo funcionan y se aplican las leyes en la práctica.
Mientras que en algunos estados incluyen estatutos que debido al uso de los términos sólo aplican para videos –como en Texas que usan el término deepfake–, otros aplican tanto para imágenes como videos, como Arizona que usa el término medios sintéticos.
Otros estados, como Texas, prohíben por completo la publicación de videos generados por IA cerca de alguna elección, pero en otros estados, como Michigan y Arizona, se permite publicarlos siempre y cuando incluyan una leyenda aclarando que se trata de un video manipulado o generado con IA.
En Minnesota, además de requerir una leyenda aclarando que se tratan de imágenes manipuladas, exigen obtener el consentimiento de la persona que protagoniza el contenido. Si no se obtiene y se publica, el sujeto tiene derecho a llevarlos a un juicio civil y exigir reparaciones por difamación y prohibir la publicación de dichas imágenes.
Los castigos por violar las leyes en torno al uso de IA varian de estado a estado, pero pueden ir desde multas hasta años de cárcel. Aún falta desarrollar las legislaciones más a detalle, y como muchas son de 2023 y 2024, todavía no vemos casos concluyentes sobre la aplicación de estas leyes.
Por el momento, el Departamento de Justicia de los Estados Unidos encontró una red de 32 dominios web utilizados para una operación rusa conocida como “Doppelganger”, para influenciar las campañas electorales mediante el uso de IA y anuncios pagados en redes sociales a influencers. Encontraron planes para intervenir en las elecciones de 2024 como las de Alemania, México, e Israel, así como las de Estados Unidos.
El caso está siendo investigado por la Oficina de Campo del FBI en Filadelfia. Posteriormente la Fiscalía de los Estados Unidos para el Distrito Este de Pensilvania, la Sección de Contrainteligencia y Control de Exportaciones de la División de Seguridad Nacional y la Sección Cibernética de Seguridad Nacional estarán procesando el caso de manera legal, con la asistencia de la Sección de Delitos Informáticos y Propiedad Intelectual de la División Criminal. Con este caso habrá más desarrollo y sentarán precedentes sobre el uso ilegítimo de IA para distribuir desinformación electoral.