La policía se prepara para una avalancha de imágenes de abuso infantil generadas por IA

Las oficinas generales del Departamento de Justicia en Washington, el 16 de julio de 2023. (Haiyun Jiang/The New York Times)
Las oficinas generales del Departamento de Justicia en Washington, el 16 de julio de 2023. (Haiyun Jiang/The New York Times)

WASHINGTON — La policía se prepara para una explosión de material generado por inteligencia artificial que contenga imágenes realistas de niños víctimas de explotación sexual, lo que dificultará la tarea de identificar a las víctimas y combatir este tipo de abuso.

Ahora hay mayor inquietud porque Meta, un recurso primordial que las autoridades han aprovechado para identificar contenido sexual explícito, tomó la decisión de cifrar su servicio de mensajes, lo que dificultará el rastreo de delincuentes. Esta complicación subraya cuán difícil es para las empresas tecnológicas encontrar un punto de equilibrio entre el derecho a la privacidad y la seguridad de los niños. Encima, si se quiere promover juicios relacionados con ese tipo de delitos, es necesario responder preguntas escabrosas, como si esas imágenes son ilícitas y qué tipo de recurso podría estar disponible para las víctimas.

En respuesta a estas inquietudes, los legisladores del Congreso han insistido en la necesidad de establecer salvaguardas más estrictas; un ejemplo es la convocatoria hecha el miércoles para que varios ejecutivos del sector tecnológico den testimonio sobre los mecanismos que han implementado para proteger a los niños. La semana pasada, una serie de imágenes falsas que muestran a Taylor Swift en escenas sexuales explícitas, probablemente generadas con IA, inundaron las redes sociales, lo que resalta los riesgos asociados con esa tecnología.

“Crear imágenes sexuales explícitas de niños con inteligencia artificial es una forma especialmente inhumana de explotación en línea”, aseveró Steve Grocki, director de la división de explotación infantil y material obsceno del Departamento de Justicia.

PUBLICIDAD

Gracias a la facilidad con que se usa la tecnología de IA, los delincuentes pueden crear muchísimas imágenes de niños en situaciones de explotación sexual o abuso con solo dar clic en un botón.

Basta ingresar una palabra clave para obtener texto, videos e imágenes realistas en minutos; es posible producir imágenes nuevas de niños reales además de escenas explícitas de niños que no existen en realidad. Puede tratarse de material generado por IA que presente la violación de bebés y niños pequeños o niños famosos como víctimas de abuso sexual, según un estudio reciente del Reino Unido, además de fotos escolares normales adaptadas para que todos los niños aparezcan desnudos.

“El horror que enfrentamos es que ahora cualquiera puede tomar la imagen de un niño de las redes sociales, de la página de una escuela o de un evento deportivo y aplicar un proceso que algunos han designado ‘desnudar’”, explicó Michael Bourke, antiguo psicólogo jefe del Servicio de Alguaciles de Estados Unidos, ha trabajado durante décadas en delitos sexuales que involucran niños. Confirmó que utilizar IA para alterar fotos de esta manera es cada vez más común.

Los expertos afirman que no es posible distinguir entre imágenes generadas e imágenes reales, lo que dificulta identificar a una víctima real de una falsa. “Las investigaciones son mucho más complicadas”, explicó Robin Richards, comandante del cuerpo especial de Delitos de Internet contra Niños en el Departamento de Policía de Los Ángeles. “Lleva tiempo investigar y luego resulta, cuando ya hemos investigado muchísimo, que es IA, así que debemos decidir qué hacer al respecto en el futuro”.

Las agencias policiacas, que tienen menos personal y fondos de lo que necesitan, ya batallan para mantenerse al día con los rápidos avances tecnológicos que han permitido que las imágenes de abuso sexual infantil se multipliquen a un ritmo impresionante. A través de cámaras de teléfonos móviles, el internet oscuro ("dark web"), redes sociales y aplicaciones de mensajes, imágenes y videos viajan por internet.

PUBLICIDAD

Solo se investiga una fracción del material identificado como delictivo. John Pizzuro, director de Raven, organización sin fines de lucro que trabaja con legisladores y empresas para combatir la explotación sexual infantil, indicó que hace poco, en un periodo de 90 días, la policía había relacionado casi 100.000 direcciones IP de todo el país con material de abuso sexual infantil (una dirección IP es una secuencia única de números asignados a cada computadora o teléfono móvil conectado a internet). Explicó que, de esas direcciones, menos de 700 estaban en investigación por una falta crónica de fondos dedicados al combate de estos delitos.

Aunque una ley federal de 2008 autorizó la entrega de 60 millones de dólares para ayudar a los agentes estatales y locales con la investigación y acusación de esos delitos, el Congreso nunca ha adjudicado tanto en un año, señaló Pizzuro, antiguo comandante que supervisó casos de explotación infantil en línea en Nueva Jersey.

El uso de IA ha complicado otros aspectos del rastreo de abuso sexual infantil. Por lo regular, al material conocido se le asigna una serie de números similar a una huella digital, que se utiliza para detectar y retirar contenido ilícito. Si las imágenes y videos conocidos son modificados, el material parece nuevo, así que ya no se le asocia con la huella digital.

Además de estas dificultades, está el hecho de que, aunque por ley las empresas tecnológicas están obligadas a denunciar cualquier material ilícito que descubran, no tienen ninguna obligación de buscarlo activamente.

Las empresas tecnológicas pueden aplicar estrategias variadas. Meta ha sido la mejor aliada de las autoridades en la identificación de contenido sexual explícito con niños.

PUBLICIDAD

En 2022, de un total de 32 millones de denuncias al Centro Nacional de Niños Perdidos y Explotados, la oficina designada por el gobierno federal para manejar información sobre material de abuso sexual infantil, Meta canalizó alrededor de 21 millones.

Por desgracia, la empresa decidió cifrar su plataforma de mensajes para competir con otros servicios seguros que protegen el contenido de los usuarios, con lo que, en esencia, les apagó la luz a los investigadores.

Jennifer Dunton, consultora legal de Raven, advirtió sobre las repercusiones e indicó que esa decisión podría limitar drásticamente el número de delitos que las autoridades puedan rastrear. “Ahora hay imágenes que nadie ha visto nunca, y ya ni siquiera vamos a buscarlas”, se lamentó.

Tom Tugendhat, ministro de Seguridad del Reino Unido, afirmó que este cambio beneficiará a los depredadores infantiles de todo el mundo.

“La decisión de Meta de implementar cifrado de extremo a extremo sin medidas de seguridad firmes pone estas imágenes a disposición de millones de personas sin temor de que las identifiquen”, explicó Tugendhat en una declaración.

PUBLICIDAD

La gigante de las redes sociales indicó que seguirá denunciando el material de abuso sexual infantil a las autoridades. “Tenemos el compromiso de encontrar y reportar este contenido sin dejar de trabajar para evitar el abuso en primera instancia”, aseveró Alex Dziedzan, vocero de Meta.

En 2002, la Corte Suprema anuló una prohibición federal aplicable a imágenes de abuso sexual infantil generadas por computadora, pues resolvió que la ley se redactó en términos tan amplios que podría imponerles límites también a obras políticas y artísticas. Alan Wilson, fiscal general de Carolina del Sur que encabezó el proyecto de una carta para el Congreso en que se insta a los legisladores a actuar con presteza, señaló en una entrevista que espera que ese fallo se examine ante la proliferación de material de abuso sexual infantil generado por IA.

Varias leyes federales, incluida una sobre material obsceno, pueden utilizarse como fundamento en casos relativos a material de abuso sexual infantil en línea. Algunos estados estudian cómo criminalizar ese tipo de contenido generado por IA, incluido el tratamiento de menores que producen ese tipo de imágenes y videos.

c.2024 The New York Times Company