Cómo los Deepfakes alteran nuestros recuerdos hasta puntos insospechados

Los voluntarios afirmaban haber visto películas que no existen

Deep Fake de Will Smith en el papel de Neo en Matrix.
Deep Fake de Will Smith en el papel de Neo en Matrix.

Confiamos demasiado en nuestra memoria. Solemos pensar que funciona como una especie de cámara fotográfica que guarda una impresión exacta de lo que nos ocurre, pero… no es así. Nuestro cerebro es bastante más imaginativo y lo que hace es construir, reconstruir, remodelar e incluso inventar recuerdos falsos. Nuestra memoria se desarrolla a partir de conexiones sinápticas y cualquier pequeño factor, como no dormir bien una noche, puede distorsionarla.

Hace unos años, en 2019, publicábamos un artículo en el que casi la mitad de los voluntarios de un experimento afirmaban recordar eventos falsos e inventados, y muchos de ellos incluso recordaban detalles concretos sobre noticias que jamás habían ocurrido. Durante los últimos años las investigaciones que analizan el papel de las Fake News en nuestra memoria se ha incrementado y ya contamos con importantes estudios que confirman que las noticias falsas alteran nuestros recuerdos hasta puntos insospechados.

La acelerada incorporación de aplicaciones que aprovechan la Inteligencia Artificial para crear «deep fakes» está cambiando nuestra relación con la realidad y ahora mismo es difícil prever cómo influirán estas tecnologías en nuestra vida diaria. Los videos «deep fakes» son clips que han sido alterados usando tecnología de inteligencia artificial (IA) para cambiar la voz o el rostro de una persona por la de otra. En nuestros días estas herramientas para hacer «deep fakes» se han vuelto mucho más baratas y accesibles, amplificando sus posibilidades pero también sus riesgos potenciales, como la difusión de información errónea y la manipulación de los recuerdos de los espectadores.

El ejemplo más claro hasta el momento ha aparecido hace tan solo unos días con un estudio, publicado en PLOS ONE, en el que un equipo de investigadores de la Universidad de Cork, Irlanda, ha utilizado IA para crear videoclips falsos de versiones de películas que en realidad no existen y, al mostrarlo a un grupo de voluntarios, aproximadamente el 50% afirmó recordar esas películas falsas.

Los investigadores invitaron a 436 voluntarios a ver videos falsos de remakes de películas protagonizadas por diferentes actores, como Will Smith en el personaje de Neo en The Matrix (originalmente interpretado por Keanu Reeves) o Brad Pitt y Angelina Jolie en un remake de El Resplandor, así como otras películas falsas de Indiana Jones y Capitana Marvel. Así mismo, y para comparar, los participantes también vieron clips de remakes reales, que incluían Charlie y la Fábrica de Chocolate, Carrie o Tom Raider. Por supuesto, a los participantes no se les dijo que habían visto «deep fakes» hasta finalizar el experimento.

Porcentaje de participantes que afirman haber visto la película o el tráiler de títulos y actores falsos como El Resplandor, Capitana Marvel, Matrix o Indiana Jones | Murphy, Gillian, et al. PLOS ONE
Porcentaje de participantes que afirman haber visto la película o el tráiler de títulos y actores falsos como El Resplandor, Capitana Marvel, Matrix o Indiana Jones | Murphy, Gillian, et al. PLOS ONE

El estudio publicado es curioso, divertido y también inquietante. Los resultados mostraron que un 49% de los participantes creyeron que esos videos falsos eran reales e incluso, muchos de ellos contestaron en la encuesta posterior que el remake falso era mejor que la película original. La mayoría de los participantes afirmaron sentirse incómodos con el uso de estas tecnologías «deep fakes» cuando les informaron de que habían visto películas falsas.

No obstante, el estudio no acaba aquí porque, para demostrar lo fácil que es alterar y manipular nuestra memoria, los investigadores utilizaron también simples descripciones de texto de esas películas falsas y lograron provocar tasas similares de memoria falsa.

Las conclusiones que se pueden extraer de este interesante estudio son varias. “Si bien las falsificaciones son motivo de gran preocupación por muchas razones, como la pornografía no consensuada, el uso en política o el acoso escolar”, explican los propios autores, “nuestro estudio sugiere que no son las únicas herramientas poderosas para distorsionar nuestros recuerdos del pasado. Aunque estos «deep fakes» hicieron que las personas formaran recuerdos falsos en tasas bastante altas en este estudio, también logramos los mismos efectos usando un simple texto. En resumen, este estudio muestra que no es necesario contar con grandes avances técnicos para distorsionar la memoria, se puede conseguir de manera fácil y efectiva usando medios no técnicos”.

Más artículos y noticias interesantes sobre cerebro en Yahoo:

Referencias científicas y más información:

Murphy, Gillian, et al. «Face/Off: Changing the Face of Movies with Deepfakes». PLOS ONE, (2023) DOI:10.1371/journal.pone.0287503.

Public Library of Science “Deepfake videos prompt false memories of films in half of participants” TechXplore