Anuncios

Bebés falsos, horror real: deepfakes de guerra aumentan temores sobre el poder de la IA para engañar

Un hombre palestino recoge sus pertenencias en Ciudad Gaza el 28 de noviembre de 2023. . (Foto AP/Adel Hana)

WASHINGTON (AP) — Entre las imágenes de casas bombardeadas y calles devastadas en Gaza, algunas destacaron por el horror absoluto que mostraban: bebés ensangrentados y abandonados.

Estas imágenes —vistas millones de veces en línea desde que comenzó la guerra— son deepfakes (audios, imágenes o videos realistas manipulados o generados digitalmente) creadas con inteligencia artificial. Si observa atentamente, puede ver pistas: dedos que se curvan de manera extraña u ojos que brillan con una luz antinatural, todos ellos signos reveladores de engaño digital.

No obstante, la indignación que se buscaba provocar con las imágenes es totalmente real.

Las imágenes de la guerra entre Israel y Hamás han ilustrado vívida y dolorosamente el potencial de la inteligencia artificial (IA) como herramienta de propaganda, utilizada para crear imágenes realistas de matanzas. Desde que comenzó la guerra el mes pasado, imágenes alteradas digitalmente y difundidas en las redes sociales se han utilizado para hacer afirmaciones falsas sobre la responsabilidad por las víctimas o para engañar a la gente sobre atrocidades que nunca ocurrieron.

Si bien la mayoría de las afirmaciones falsas que circulan en línea sobre la guerra no requirieron IA para su creación y provienen de fuentes más convencionales, los avances tecnológicos se producen con una frecuencia cada vez mayor y con poca supervisión. Esto ha hecho que el potencial de la IA para convertirse en otra forma de arma sea claramente evidente, y ha ofrecido un vistazo de lo que vendrá durante futuros conflictos, elecciones y otros eventos importantes.

“Esto será peor —mucho peor— antes de que mejore”, dijo Jean-Claude Goldenstein, director general de CREOpoint, una empresa de tecnología con sedes en San Francisco y París que utiliza inteligencia artificial para evaluar la validez de las afirmaciones en línea. La compañía ha creado una base de datos de los deepfakes más virales que han surgido en Gaza. “Imágenes, video y audio: con IA generativa será una escalada que no has visto”, dice Goldenstein.

En algunos casos, fotografías de conflictos o desastres distintos han sido readaptadas y se han hecho pasar por nuevas. En otros, se han utilizado programas de IA generativa para crear imágenes desde cero, como la de un bebé llorando en medio de los escombros por un bombardeo que se volvió viral en los primeros días del conflicto.

Otros ejemplos de imágenes generadas por IA incluyen videos que muestran supuestos ataques con misiles israelíes, tanques que avanzan por vecindarios en ruinas o familias que buscan sobrevivientes entre la desolación.

En muchos casos, las imágenes falsas parecen diseñadas para provocar una fuerte reacción emocional al incluir cuerpos de bebés, niños o familias. En los sangrientos primeros días de la guerra, los partidarios tanto de Israel como de Hamás afirmaron que el otro lado había victimizado a niños y bebés. Deepfakes de bebés llorando ofrecieron una “evidencia” fotográfica que rápidamente se presentó como prueba.

Los propagandistas que crean este tipo de imágenes son hábiles para susictar las ansiedades y los impulsos más profundos de las personas, dijo Imran Ahmed, director general del Center for Countering Digital Hate (Centro para Contrarrestar el Odio Digital), una organización sin fines de lucro que ha rastreado la desinformación de la guerra. Ya sea el deepfake de un bebé o una imagen real de un bebé de otro conflicto, el impacto emocional en el espectador es el mismo.

Cuanto más aborrecible sea la imagen, más probabilidades habrá de que un usuario la recuerde y la comparta, propagando aún más la desinformación sin darse cuenta.

“Ahora mismo se le dice a la gente: mira esta foto de un bebé”, dijo Ahmed. “La desinformación está diseñada para hacer que tú participes en ella”. Contenido igualmente engañoso generado por IA comenzó a difundirse después de que Rusia invadió Ucrania en 2022. Un video alterado parecía mostrar al presidente ucraniano Volodymyr Zelenskyy ordenando a los ucranianos que se rindieran. Tales afirmaciones han seguido circulando incluso la semana pasada, lo que demuestra cuán persistente puede ser la información errónea y falsa, aun cuando ha sido desacreditada fácilmente.

Cada nuevo conflicto o temporada electoral ofrece nuevas oportunidades para que los promotores de desinformación demuestren los últimos avances de la IA. Esto hace que muchos expertos en inteligencia artificial y politólogos adviertan sobre los riesgos el próximo año, cuando varios países celebren elecciones importantes, incluidos Estados Unidos, India, Pakistán, Ucrania, Taiwán, Indonesia y México.

El riesgo de que la IA y las redes sociales puedan usarse para difundir mentiras entre los votantes estadounidenses ha alarmado a los legisladores de ambos partidos en Washington. En una audiencia reciente sobre los peligros de los deepfakes, el representante estadounidense Gerry Connolly, demócrata de Virginia, dijo que Estados Unidos debe invertir para financiar el desarrollo de herramientas de inteligencia artificial diseñadas para contrarrestar los contenidos dañinos.

“Nosotros, como nación, debemos hacer esto bien”, declaró Connolly.

En todo el mundo, varias startups de tecnología trabajan en nuevos programas que pueden detectar deepfakes, colocar marcas de agua en imágenes para demostrar su origen o examinar texto para verificar cualquier afirmación engañosa que pueda haber sido insertada por IA.

“La próxima ola de IA será: ¿Cómo puedes verificar el contenido que existe? ¿Cómo puedes detectar información errónea o falsa? ¿Cómo puedes analizar el texto para determinar si es confiable?”, dijo Maria Amelie, cofundadora de Factiverse, una empresa noruega que ha creado un programa de IA que puede examinar contenido en busca de imprecisiones o sesgos introducidos por otros programas de IA.

Estos programas serían de interés inmediato para educadores, periodistas, analistas financieros y otras personas interesadas en erradicar las falsedades, el plagio o el fraude. Programas similares están siendo diseñados para detectar fotografías o videos manipulados.

Si bien esta tecnología es prometedora, quienes utilizan la IA para mentir suelen ir un paso adelante, según David Doermann, un científico informático que dirigió un esfuerzo en la Defense Advanced Research Projects Agency (Agencia de Proyectos de Investigación Avanzada de Defensa) para responder a las amenazas a la seguridad nacional que plantean las imágenes manipuladas por IA.

Doermann, quien es ahora profesor de la Universidad de Buffalo, dijo que responder eficazmente a los desafíos políticos y sociales que plantea la desinformación generada con IA requerirá tanto mejores tecnologías como mejores regulaciones, estándares voluntarios de la industria y grandes inversiones en programas de alfabetización digital para ayudar a los usuarios de internet a encontrar maneras de distinguir la verdad de la fantasía.

“Cada vez que lanzamos una herramienta que detecta esto, nuestros adversarios pueden usar IA para ocultar ese rastro de evidencia”, dijo Doermann. “Detectar y tratar de eliminar estas cosas ya no es la solución. Necesitamos tener una solución mucho mayor”.