Los rostros falsos que puedes comprar online

Kashmir Hill y Jeremy White
·4  min de lectura
Las computadoras cada vez son más capaces de generar personas realistas y completamente imaginarias. Sin embargo, sus defectos son nuestra culpa. (Jeremy White/The New York Times)
Las computadoras cada vez son más capaces de generar personas realistas y completamente imaginarias. Sin embargo, sus defectos son nuestra culpa. (Jeremy White/The New York Times)

Estas personas quizá te parezcan familiares. Pueden parecerse a los usuarios que has visto en Facebook, Twitter o Tinder o tal vez a gente cuyas reseñas de productos has leído en Amazon. Parecen sorprendentemente reales a primera vista, pero no existen. Nacieron del procesador de una computadora.

Ahora hay negocios que venden gente falsa. En el sitio web Generated.Photos, puedes comprar a una persona falsa “única y sin preocupaciones” por 2,99 dólares o 1000 personas por 1000 dólares. Si solo necesitas un par de personas falsas, para personajes de un videojuego o para que el sitio web de tu empresa parezca más diverso, puedes obtener fotografías gratuitamente en ThisPersonDoesNotExist.com. Ajusta su imagen según sea necesario. Hazlos viejos, jóvenes o del grupo étnico que elijas. Si quieres que tu persona falsa sea animada, una compañía llamada Rosebud.AI puede hacer eso y hasta puede hacerlos hablar.

Estas personas simuladas están empezando a aparecer en internet, usadas como máscaras por personas reales con intenciones nefastas: espías que ponen una cara atractiva como un esfuerzo por infiltrarse en la comunidad de inteligencia; propagandistas de derecha que se esconden detrás de perfiles falsos, con fotografía y todo; acosadores en línea que persiguen a sus objetivos con un rostro amigable.

Estas creaciones solo fueron posibles en los últimos años gracias a un nuevo tipo de inteligencia artificial llamada red generativa antagónica, o RGA. Básicamente, se alimenta un programa de computadora con un montón de fotografías de gente real. Las analiza e intenta crear sus propias fotografías de personas, mientras que otra parte del sistema intenta detectar cuáles de esas fotografías son de personas falsas. El vaivén hace que el producto final sea cada vez más indistinguible del real.

Dado el ritmo de mejora, es fácil imaginar un futuro no tan lejano en el que nos enfrentemos no solo a retratos individuales de personas falsas, sino a colecciones enteras de ellas, en una fiesta con amigos falsos, pasando el rato con sus perros falsos, sosteniendo a sus bebés falsos. Cada vez será más difícil saber quién es real en línea y quién es producto de la imaginación de una computadora.

“Cuando la tecnología apareció por primera vez en 2014, era mala; se parecía a ‘Los Sims’”, dijo Camille François, una investigadora en materia de desinformación cuyo trabajo es analizar la manipulación de las redes sociales. “Es un recordatorio de lo rápido que la tecnología puede evolucionar. La detección se volverá más difícil con el tiempo”.

Los avances en la falsificación facial han sido posibles en parte porque la tecnología ahora es mucho mejor en la identificación de los rasgos faciales clave. Puedes usar tu cara para desbloquear tu celular o decirle a tu software de fotografía que clasifique tus miles de imágenes y te muestre solo las de tu hijo.

Las computadoras cada vez son más capaces de generar personas realistas y completamente imaginarias. Sin embargo, sus defectos son nuestra culpa. (Jeremy White/The New York Times)
Las computadoras cada vez son más capaces de generar personas realistas y completamente imaginarias. Sin embargo, sus defectos son nuestra culpa. (Jeremy White/The New York Times)

Los programas de reconocimiento facial son utilizados por la policía para identificar y arrestar a sospechosos criminales (y también por algunos activistas para revelar las identidades de los policías que cubren sus placas de identificación como un intento de permanecer en el anonimato). Una compañía llamada Clearview AI aprovechó una red de miles de millones de fotografías públicas, compartidas casualmente en línea por usuarios cotidianos, para crear una aplicación capaz de reconocer a un extraño a partir de una fotografía. La tecnología promete a las superpotencias la capacidad de organizar y procesar el mundo de una manera que antes no era posible.

Sin embargo, los algoritmos de reconocimiento facial, como otros sistemas de inteligencia artificial, no son perfectos. Gracias al sesgo subyacente de los datos utilizados para entrenarlos, algunos de estos sistemas no son tan buenos, por ejemplo, para reconocer a las personas de color. En 2015, uno de los primeros sistemas de detección de imágenes desarrollado por Google etiquetó a dos personas negras como “gorilas”, muy probablemente porque el sistema había alimentado muchas más fotografías de gorilas que de personas de piel oscura.

Además, las cámaras —los ojos de los sistemas de reconocimiento facial— no son tan buenas para capturar a las personas de piel oscura. Esa desafortunada norma data de los primeros días del revelado de película, cuando las fotografías se calibraban para mostrar mejor los rostros de las personas de piel clara. Las consecuencias pueden ser graves. En enero, un hombre negro de Detroit llamado Robert Williams fue arrestado, acusado de un crimen que no cometió debido a una identificación incorrecta de reconocimiento facial.

Los algoritmos de Google y Bing clasifican el conocimiento del mundo para nosotros. La sección de noticias de Facebook filtra las actualizaciones de nuestros círculos sociales y decide cuáles son las más relevantes para nosotros. Con las funciones de conducción autónoma de los autos, estamos poniendo nuestra seguridad en las manos (y los ojos) del software.

Confiamos mucho en estos sistemas, pero pueden ser tan falibles como nosotros.

Noticias relacionadas

VIDEO | En Moscú, 100.000 cámaras vigilan a los confinados… y todo el resto

This article originally appeared in The New York Times.

© 2020 The New York Times Company