Fotos de Rosalía y Johanna Villalobos: qué es el ‘fake porn’ y por qué es peligroso

Fotos: IG @rosalia.vt y @johannavillam
Fotos: IG @rosalia.vt y @johannavillam

“Usaron mi foto de la playa y con Inteligencia Artificial ‘me quitaron la ropa’”, publicó la periodista Johanna Villalobos en Twitter. “Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco”, tuiteó la cantante Rosalía. Ambas mujeres levantaron la voz y acusaron que fueron víctimas de fake porn o porno falso.

También puedes leer: La noche ‘motomami’: con C de ‘chingona’ y M de la Rosalía más ‘mexicana’

Villalobos nos relató su testimonio desde Costa Rica y, además, consultamos a especialistas que nos explicaron mejor sobre este tipo de violencia digital que ha afectado, sobre todo, a las mujeres.

“Esto es un tipo de violencia digital, es el uso no consensuado de tu imagen. Creo que por eso es muy pertinente hablar de Inteligencia Artificial con perspectiva de género”, afirma Monserrat López, especialista en derechos digitales en México.

¿Cómo ocurre el fake porn? 

Ya lo dijo Rosalía en su canción, amix: “A ningún hombre consiento que dicte mi sentencia”. Por eso, vayamos paso a paso en este tema:

Imagina que es Semana Santa, vas de vacaciones a la playa y subes una fotografía en bikini a tu Instagram. En las siguientes semanas notas más interacciones en esa imagen que compartiste y luego, una chica te manda un mensaje para avisarte que esa foto está circulando en chats de WhatsApp y otras redes sociales, pero ¡apareces completamente desnuda!

Eso le pasó a Johanna Villalobos con esta foto que publicó en su Instagram:

“Yo veo la foto y digo: ¿pero qué es esto? Esta no soy yo, ¿verdad? Y le preguntaba ¿quién hizo esta foto? Entonces ella me cuenta que hay un grupo de personas que está haciendo fotografías con Inteligencia Artificial. Mi primera reacción fue sentirme en shock”, nos cuenta la periodista.

Mientras que en el caso de la motomami, el rapero español JC Reyes subió a sus historias de Instagram una imagen de Rosalía mostrando sus pechos, y él los cubrió con dos emojis.

Después aclaró: “A las mujeres estas que me estáis poniendo «qué haces», «qué asco das»… A la chavala sólo se le ve el escote. Respetad, eh. Es Photoshop… Photoshoped”. 

Para más info, consulta: México es muy Motomami🔥: Somos el país que más escucha a Rosalía en YouTube

Ni Johanna ni Rosalía son las únicas que han sido víctimas de fake porn.

En febrero de 2023, Brandon Ewing, blogger de Twitch, hizo una transmisión en vivo donde se veía que estaba abierta una página de porno falso. 

“Por cada persona que dice que no es para tanto, no sabes lo que se siente ver una foto tuya haciendo cosas que nunca has hecho enviada a tu familia”, reaccionó al respecto la streamer QTCinderella en un video.

“¡Es mi cara, pero no es mi cuerpo!”

¿Cómo es que un término como Inteligencia Artificial tiene tanto auge ahora? La clave está en la velocidad con la que está avanzando el desarrollo de esta tecnología, que tiene como objetivo realizar actividades que normalmente requerirían de inteligencia humana para automatizar ciertos procesos.

Hay distintos tipos de algoritmos de Inteligencia Artificial y uno de esos son los que se conocen como deepfakes: fotografías o videos manipulados para sustituir personalidades”, nos explica Monserrat López, co-host del pódcast Hijas de Internet. 

Basta recordar el video en el que Johanna Villalobos insistía en que no era ella quien aparecía desnuda en la imagen. 

“Claramente no soy yo, la Inteligencia Artificial no puede reemplazar a una persona real. Se me ve todo pero no es mi cuerpo, es mi cara, pero no es mi cuerpo”, expresó.

El informe The State of Deepfakes: landscape, threats and impact publicado por Deeptrace Labs en 2019 ya advertía de la pornografía deepfake como un fenómeno mundial que daña, sobre todo, a las mujeres porque la gran mayoría de contenidos son acerca de ellas. 

“La pornografía deepfake es el tipo de deepfake que más se crea y circula en la actualidad. Los efectos nocivos de la pornografía deepfake ya han afectado a un número significativo de mujeres, incluidas celebridades y particulares”, menciona el documento.

“El cuerpo de una mujer no es una mercancía”

Aunque los algoritmos deepfake también existen desde hace años, el auge de la Inteligencia Artificial ha facilitado la creación de contenidos pornográficos (ya sea actos sexuales explícitos o eróticos, como los desnudos) “profundamente falsos”, muchas veces con la intención de perjudicar… o de beneficiarse de esto. 

“Se busca generar este contenido íntimo de una persona porque sigue existiendo estos prejuicios alrededor de la exposición de los cuerpos de las mujeres, porque quieres dañar su reputación, generar un tema de dinero o extorsionar”, enlista Angie Contreras, integrante de la asociación civil feminista Cultivando Género.

Contreras insiste en la importancia de dejar claro que estas imágenes que aluden al contenido íntimo son falsas, porque las personas que aparecen en ellas no son reales, y las fotografías fueron creadas con los fines que ya te mencionamos.

En una transmisión en vivo, JC Reyes dio a entender que la cantante española había sido quien le envió la fotografía, pero en realidad fue un montaje de una publicación que la intérprete de “Bizcochito” hizo en marzo de 2023.

Además, el rapero también adelantó que su próxima canción se llamará “Rosalía

 

Ver esta publicación en Instagram

 

Una publicación compartida de LA ROSALÍA (@rosalia.vt)

“El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing”, respondió la cantante afectada en Twitter.

En el caso de la costarricense Johanna Villalobos, cuando dejó de pensar en cuántos chats de WhatsApp y redes sociales estuvo su fotografía manipulada, se preocupó por limpiar su imagen. 

“He tratado durante 10 años de carrera que tengo acá en Costa Rica, de hacerme una credibilidad, ¿verdad? Como periodista profesional me cuido muchísimo con estas cosas. Aparte me sentí muy avergonzada”, nos dice. 

Casos de Rosalía y Johanna sientan un precedente

Tanto Monserrat López y Angie Contreras coinciden en que los casos de Johanna y Rosalía sientan un precedente para iniciar la conversación y tomar acciones.

“Creo que son discusiones desde la ética de la Inteligencia Artificial que ni siquiera hemos tenido y, ahora que se están violentando cuerpos, pareciera que también vamos para allá. No queremos hablar del tema y lo necesitamos porque ¿qué vamos a hacer cuando acompañemos estos casos?”, menciona Contreras, consultora en temas de comunicación con perspectiva de género y tecnología.

Parte de esa conversación es la regulación y la responsabilidad que tienen las propias plataformas ante el fake porn, a pesar de que estén en pleno desarrollo. Asimismo, determinar cómo este tipo de violencia digital puede tratarse de un delito y mirar más allá de lo punitivo: la reparación del daño, la no repetición y la capacitación para el uso de herramientas tecnológicas. 

“Lo que sí pediría es que de ahora en adelante busquen regular esta situación, porque no voy a ser ni la primera ni la última chica a la que esto le va a pasar”, solicita Johanna en entrevista.

Antes de irte, checa: Así nos educa la pornografía: entre la fantasía y la realidad