Inteligencia Artificial en elecciones: sin regulación y en riesgo de que se use para ‘guerra sucia’

undefined
undefined

¿Un diálogo de Ricardo Monreal con el expresidente estadounidense Benjamin Franklin? La Inteligencia Artificial (IA) lo hizo posible, y el resultado fue publicado por el senador que en ese momento recorría el país con la intención de ser elegido por Morena para pelear por la Presidencia de México en 2024.

La estrategía de aprovechar la Inteligencia artificial con fines electorales no sólo fue adoptada por Monreal. Claudia Sheinbaum –quien resultó electa para representar a Morena en 2024– también la utilizó para estar en tendencia. Mientras que Xóchitl Gálvez, virtual candidata a la presidencia por la oposición, aprovechó la IA para crear un video en el que se lanza en contra de su oponente.

Este tipo de tecnologías no solo es aprovechada para generar propaganda; también puede ser usada para desinformar, o hacer guerra sucia al rival en turno, suplantando rostros e incluso voces. 

Por ejemplo, en redes sociales se compartieron imágenes del presidente de Francia, Emmanuel Macron, participando en las protestas contra su propia reforma jubilatoria. También se compartió otra del presidente Putin de rodillas frente al presidente de China. Y en México ya se utilizan avatares para hacer promoción a favor del presidente López Obrador. 

El problema es que las leyes electorales vigentes no abordan la manipulación de contenido generado por IA en las campañas electorales —ni siquiera contemplan internet o redes sociales—, lo cual representa un vacío, incluso en el aspecto de fiscalización del gasto. 

Frente al proceso electoral en desarrollo el investigador Raúl Trejo Delarbre advierte que los usuarios están en una condición de vulnerabilidad frente a contenido fabricado con IA que pudiera ser falso pero verosímil.

México carece de una regulación a la IA

De acuerdo con un estudio de IBM, México es el quinto país de América Latina que más utiliza Inteligencia Artificial, pero no existe hoy una política de Estado que invierta en esos temas.

En entrevista con Animal Político Jimena Moreno González, abogada especialista en temas de tecnología, señaló que México se ha quedado rezagado en la regulación de contenidos de internet y en la inversión gubernamental al respecto.

“En México no hay un sistema legal que regule la IA… no hay un marco regulatorio que hable específicamente de la IA”, dijo. 

La también investigadora del Centro de Investigación y Docencia Económicas (CIDE) destacó que en el mundo la IA se regula “a través de principios éticos” promulgados por diferentes organismos internacionales, “es un tema autorregulatorio”. Sin embargo, en México “no llegamos a esa autorregulación”, sino que estamos en la ingobernabilidad”, indicó Moreno. 

“Puede haber sanciones sobre la conducta”, refirió, como el desprestigio, la honra de las personas,  “pero no para la generación del algoritmo que va a ser que tenga sesgos o que pudiera influir en una parte de la población, ahí no llegamos”.

La investigadora del CIDE también destacó que la regulación de la IA “no es tan fácil”, debido a los intereses económicos que hay detrás, ya que la tecnológica “es una industria que genera mucho dinero”. Y en la cual el gobierno ha dejado de invertir en los últimos años.

En México el presupuesto a Ciencia, Tecnología e Innovación se ha reducido este año un 9% real con respecto al 2018.

De acuerdo con el Informe de la UNESCO sobre la Ciencia publicado en 2021, México es uno de los países que menos invierte en investigación y desarrollo como % del PIB.

De acuerdo con este estudio México sólo invierte el 0.31% de su presupuesto como porcentaje del PIB a estos rubros. Un porcentaje muy inferior al 1.79% del promedio mundial, al 0.66% promedio en América Latina y menor a países como Brasil (1.26%) y Argentina (0.54%).

Porcentaje del PIB dedicado a la investigación y el desarrollo
Porcentaje del PIB dedicado a la investigación y el desarrollo

Lee: Inteligencia Artificial: debatir los desafíos y oportunidades es una necesidad, no una moda

La IA “nos agarra desprevenidos” en materia electoral

Raúl Trejo Delarbre, investigador del Instituto de Investigaciones Sociales (IIS) de la UNAM, considera que la IA “nos agarra desprevenidos” en materia electoral. 

Las autoridades electorales, apuntó, deben de estar “muy abrumadas” ya que “la legislación que tenemos ahora no da muchos márgenes para evitar el uso de contenidos engañosos” en las próximas elecciones. Asimismo, destacó que “lamentablemente no hay un contexto en México para enfrentar este problema”.

El investigador del IIS indicó que tenemos una legislación que tiene más de 15 años que “fue pensada para los medios tradicionales”, para la cual “las reglas ya no pueden cambiar” ya que toda modificación a la ley requiere de un año previo a la celebración de las elecciones.

Una revisión de El Sabueso a la Ley General de Instituciones y Procedimientos Electorales (LEGIPE), documento que establece las normas de las campañas electorales, permite dar cuenta de que no existe mención alguna a la IA, el internet o las plataformas sociales. 

En México existen más de 90 millones de usuarios de Internet y las audiencias de los medios tradicionales van a la baja. Sin embargo, a decir de Jimena Moreno, “el desarrollo de la IA va mucho más rápido que el desarrollo de las leyes”.

De hecho, Olga González Martínez, Subdirectora de información y gestión de la Dirección Ejecutiva de Capacitación Electoral y Educación Cívica (DECEyEC) del INE, indicó recientemente que en México “el uso de las tecnologías no está completamente regulado” ya que “se aplican las mismas leyes que en la difusión por los medios tradicionales”.

La IA en las campañas electorales

En el marco de las campañas electorales que hoy se desarrollan rumbo al proceso electoral del 2024, la IA ya ha sido utilizada, pero no solo con fines propagandísticos, también se ha acusado su utilización para el ataque de candidatos.

Un caso reciente corresponde a la difusión de un audio en el que Clara Brugada, actual candidata interna de Morena para la jefatura de Gobierno, supuestamente afirma que subirá los impuestos en la Ciudad de México.

Sin embargo, Brugada denunció en un tuit que dicho audio habría sido “elaborado con IA” y que “ninguna parte de su contenido corresponde a conversaciones reales”. Además, destacó que se trataba de una “guerra sucia de la derecha”.

Asimismo, en otra grabación atribuida a Martí Batres,  jefe de Gobierno de la Ciudad de México supuestamente Batres afirma que tienen “dos semanas para bajar a Omar (Harfuch) por el tema de género”.

En el audio, difundido en redes sociales y medios de comunicación, también se dan instrucciones para “seguir creciendo a Clara (Brugada)”. Sin embargo, Martí Batres negó ser autor de dichas frases y acusó el uso de Inteligencia Artificial (IA).

Lee: No son concluyentes pruebas para detectar IA en audio que atribuyen a Batres

Ricardo Monreal es otro actor político que ha alertado sobre esto, pues según él, la política es “un campo en donde las deepfakes han encontrado cobijo y crecido como la espuma” y advirtió que las deepfakes “cayeron como anillo al dedo para un nuevo tipo de guerra sucia: la digital”.

Los deepfakes o “falsedades profundas” son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial de modo que parezcan originales, auténticos y reales. 

La creación de deepfakes no requiere de un conocimiento especializado, hoy existen opciones de software gratuito con los que cualquier usuario puede crear contenido rápidamente.

Lee: Inteligencia artificial y ciberseguridad: ¿qué elementos cuestionar en la agenda legislativa?

Trejo Delarbre señaló que pese a que lo ideal sería “tratar de legislar los usos”, “nuestro poder legislativo —salvo excepciones— no está pensando en la Inteligencia Artificial”. 

“Vamos a tener muchos problemas con la circulación de videos y otros contenidos hechos por simpatizantes anónimos”, dijo el investigador. “No van a ser falsedades distribuidas de manera oficial por una campaña, sino de manera subrepticia, anónima u oculta por usuarios que no serán identificables y que van a propagar contenidos que por su espectacularidad se van a volver virales de manera muy rápida”.

Este fenómeno ya se presentó en la actual contienda electoral, pues han sido los mismos usuarios simpatizantes quienes han difundido ya videos y fotografías generados por IA.

Por ejemplo, hace unos meses usuarios  difundieron un video generado por IA en el que Xóchitl Gálvez respondía a Claudia Sheinbaum luego de decir que “no cualquier mujer” podía ser presidenta:

 

La IA en las elecciones de Estados Unidos

La experiencia mexicana no está tan alejada del desconcierto y las preocupaciones que genera la IA en otros países que tienen procesos electorales en puerta.

Estados Unidos, por ejemplo, elegirá al próximo presidente en noviembre de 2024, pero en su caso actualmente ya discute el uso de la Inteligencia Artificial con fines electorales. 

Un informe del Servicio de Investigación del Congreso de Estados Unidos publicado en agosto de este año advierte que “han surgido preocupaciones sobre el uso de anuncios de campaña (electoral) generados por inteligencia artificial y su potencial uso para difundir desinformación”.

Asimismo, un documento del Congreso de Estados Unidos indica que “el uso de la IA para generar deepfakes está causando preocupación porque los resultados son cada vez más realistas, se crean rápidamente y se hacen a bajo costo con software disponible gratuitamente”. 

“De este modo, incluso los operadores no cualificados podrían descargar las herramientas informáticas necesarias y, utilizando datos públicos, crear contenidos falsificados cada vez más convincentes” señala el documento.

En Estados Unidos la Ley Federal de Campañas Electorales de Estados Unidos (FECA, por sus siglas en inglés) tampoco regula el uso de la IA en promocionales electorales.

Por ello el 22 de junio la Comisión Federal de Elecciones de Estados Unidos (FEC) discutió —aunque no aprobó— una petición que solicitaba analizar la aplicación de la legislación electoral en “anuncios de campaña de IA deliberadamente engañosos”.

La petición sostenía que “un clip de audio o video deepfake hecho por un candidato que representa a un candidato opositor diciendo o haciendo algo que no ocurrió, como hacer un comentario ofensivo o aceptar un soborno, violaría” la legislación electoral.

Acceso desigual a esta tecnología

Vale la pena recordar que en las elecciones de 2016 Donald Trump contrató a una empresa que, a través del “microtargeting conductual”, intentó influir en los votantes de Estados Unidos usando la información de 50 millones de usuarios de Facebook.

El microtargeting es una estrategia de marketing que utiliza datos demográficos e identifica intereses de usuarios o grupos específicos para enviar anuncios dirigidos que se alineen con sus intereses.

“Lo que ahora vamos a tener es microtargeting con contenidos elaborados con IA y será muy fácil que si yo tengo una simpatía por un partido me envíen un contenido que refuerce esa simpatía, y la antipatía por el candidato rival”, alertó Trejo Delarbre.

La investigadora del CIDE advirtió que, de no regular los algoritmos IA bajo principios éticos, crecerá la brecha de desigualdad.

“Vamos a empezar a replicar el sistema de desigualdad social de una manera todavía más acelerada”, un escenario en el que mencionó Moreno que los más desprotegidos “van a ser los más vulnerables: mujeres, jóvenes y gente que no tiene acceso a estas tecnologías”.

“Si no hay principios éticos transparentes en el desarrollo de algoritmos las desigualdades se van a acrecentar a la misma velocidad con la que está avanzando la inteligencia artificial, ese es el gran riesgo. Lo mismo pasa con los derechos políticos y con la libertad de expresión”, dijo.

Para la realización de este texto Animal Político solicitó al INE una entrevista para conocer su postura con respecto al uso de la IA en el próximo proceso electoral, sin embargo, hasta el momento en el que se redacta esta nota no hemos obtenido una respuesta del Instituto.