El proyecto de ley de la UE sobre abusos sexuales a menores desata polémica en torno a la privacidad
Rhiannon tenía solo trece años cuando fue captado por Internet y víctima de abusos sexuales.
Su agresor fue acusado, pero el impacto de sus crímenes es amplio.
"No hablé de mis abusos durante mucho tiempo", cuenta Rhiannon a Euronews. "Sufrí ansiedad, ataques de pánico, depresión, autolesiones e intentos de suicidio".
Hoy, a sus 33 años, vive sabiendo que las imágenes y vídeos de sus abusos siguen circulando por Internet. Pero habla claro, pidiendo una normativa más estricta para acabar con los depredadores sexuales.
El jueves, los ministros de la Unión Europea debatirán las nuevas leyes propuestas por la Comisión Europea para hacer frente a los abusos sexuales a menores en Internet y garantizar que delitos como los cometidos contra Rhiannon no se revivan día tras día en la red.
Rhiannon, ciudadana británica, afirma que la normativa propuesta por la UE, junto con la Ley de Seguridad en Línea del Reino Unido, que pronto se convertirá en ley, son fundamentales en la lucha mundial contra los abusos sexuales a menores.
Las leyes previstas por la UE utilizarían tecnologías emergentes para detectar material nuevo y existente de abuso sexual infantil (CSAM) y actividades de captación de menores, y darían a las autoridades nacionales el poder de obligar a los servicios digitales a escanear las comunicaciones de los usuarios, incluidos los mensajes cifrados.
Pero ha estallado una amarga polémica. Los defensores de la protección de la infancia con los grupos de presión de los derechos digitales afirman que instigará un régimen de vigilancia masiva y supondrá el fin de la privacidad digital tal y como la conocemos. En cambio, los partidarios aseguran que no aprobar la normativa dejaría a los delincuentes sin detectar y a las grandes tecnológicas sin regular.
Entre ambos bandos hay una línea muy fina: cómo atrapar a los pederastas sin socavar nuestra privacidad en Internet.
¿Están las tecnologías lo suficientemente maduras?
Para detectar el material de abuso sexual infantil (CSAM) conocido por las fuerzas de seguridad, la Comisión ha propuesto utilizar la llamada función hash perceptiva, que toma una huella digital, o hash, de los archivos dañinos y detecta réplicas en Internet.
Pero los expertos académicos advierten de que los autores pueden manipular fácilmente las imágenes para eludir la detección, y que usuarios inocentes podrían ser acusados injustamente: "El problema es que es muy fácil romper el hash cambiando un píxel o incluso recortando ligeramente la imagen", explicó el profesor Bart Preneel, experto en criptografía de la universidad KU Leuven. "También es posible que una imagen perfectamente legítima sea marcada como falso positivo".
La Comisión quiere crear en La Haya un Centro de la UE sobre abusos sexuales a menores, donde se contrataría personal para filtrar manualmente los contenidos marcados como ilegales y evitar así inundar de falsos positivos a las fuerzas de seguridad.
Pero la organización de la sociedad civil ECPAT International afirma que hay pruebas suficientes de que las tecnologías de hash perceptivo funcionan.
"Estas tecnologías no son sólo prometedoras, sino que han demostrado su eficacia. Los métodos basados en hash han sido eficaces durante más de una década, permitiendo una actuación más rápida contra los contenidos ilegales y ayudando a la aplicación de la ley. Por ejemplo, más de 200 empresas utilizan la tecnología PhotoDNA para impedir que sus servicios se utilicen para difundir material de abuso sexual infantil", declaró un portavoz de ECPAT.
La Comisión también quiere utilizar la inteligencia artificial (IA) para detectar CSAM de nueva creación, así como para señalar patrones de comportamiento que puedan constituir captación de menores. Preneel declaró a Euronews que estos métodos supondrían un riesgo aún mayor de falsa incriminación.
"Incluso si reducimos la tasa de error al 1%, con miles de millones de imágenes enviadas en la UE cada día podríamos estar ante decenas de millones de falsos positivos diarios", afirmó Preneel. "Podríamos estar incriminando a personas inocentes, acusándolas del más grave de los delitos", prosiguió.
Preneel también advierte de que los adolescentes que comparten voluntaria y legalmente imágenes de desnudos entre sí podrían ser criminalizados injustamente.
Sin embargo, aunque reconoce que los modelos de IA basados en el lenguaje para detectar conductas de grooming aún necesitan madurar, ECPAT afirma que la IA se ha desplegado con éxito para detectar nuevos CSAM con "bajas tasas de error".
"Las herramientas de detección de CSAM están específicamente entrenadas para no encontrar imágenes legales", explicó el portavoz de ECPAT. "Estas herramientas están entrenadas en CSAM conocidos, pornografía adulta e imágenes benignas, particularmente para distinguir entre ellas y evitar que las imágenes benignas sean malinterpretadas como CSAM".
Mié Kohiyama, otra superviviente de abusos sexuales a menores de Francia que, como Rhiannon, aboga por una regulación más estricta, afirma que la prevalencia de imágenes y vídeos de abusos a menores en Internet significa que la Unión Europea tiene la responsabilidad de tomar medidas.
"Más del 60% de estas imágenes están alojadas en servidores europeos, así que tenemos la responsabilidad de actuar al respecto", explica. "La detección es clave, y la eliminación también".
¿La nueva normativa socavaría la privacidad?
El aspecto más controvertido de la propuesta de la Comisión es la obligación de las empresas tecnológicas de desplegar tecnología de escaneado del lado del cliente (CSS) para escanear los mensajes de los usuarios, incluidas las comunicaciones cifradas de extremo a extremo en plataformas como Whatsapp, de Meta, cuando se identifique un riesgo.
Esto significaría que podrían intervenirse los mensajes cifrados, fotos, correos electrónicos y notas de voz de los usuarios.
Los defensores de la privacidad advierten de que esto supone una grave violación del derecho a la privacidad en línea y podría ser fácilmente manipulado por agentes maliciosos. El CSS fue desplegado brevemente por Apple en 2021 para escanear las cargas de iCloud, pero fue retirado a las pocas semanas cuando el sistema fue secuestrado.
Pero ECPAT International dice que es importante recordar que CSS opera "antes de que los datos se cifren."
"Lo hace marcando CSAM antes de que se cargue y se envíe a través de un entorno cifrado - de la misma manera que WhatsApp, un servicio cifrado de extremo a extremo, ya despliega tecnología para detectar malware y virus", dijo un portavoz de ECPAT.
Los críticos también avisan que socavar el cifrado podría sentar un peligroso precedente para los regímenes autoritarios, que podrían manipular la tecnología para detectar críticas y atacar a los disidentes.
Según Mié, este alarmismo no es más que una forma de desviar la atención del problema real.
"Europa es una democracia, no una dictadura. Y no seamos ingenuos: en una dictadura, cuando se quiere espiar a los ciudadanos se espía a los ciudadanos. No hace falta un nuevo reglamento".
¿Pueden los ministros de la UE llegar a un compromiso?
La propuesta de reglamento ha provocado que muchas capitales de la UE estén preocupadas por la madurez de las tecnologías y la amenaza a la privacidad de los consumidores. Los ministros pueden optar por dar luz verde a ciertos aspectos del texto, mientras dejan en suspenso otros planes hasta que las tecnologías hayan madurado lo suficiente.
Mié y Rhiannon declararon a Euronews que los ministros deberían evitar ceder a la presión de los grandes grupos de presión tecnológicos y digitales. En su opinión, el fuerte aumento del material abusivo demuestra que las medidas voluntarias de las empresas tecnológicas para detectar y retirar contenidos son claramente insuficientes. Un estudio publicado el martes por la Alianza Global WeProtect sugiere que el material de abuso sexual infantil denunciado ha aumentado un 87% desde 2019.
"Las empresas tecnológicas diseñan sus productos para atraer a los niños y engancharlos el mayor tiempo posible. Si ese es su modelo, tiene que ser un entorno seguro para los niños", dijo Rhiannon.
"El modelo de autorregulación de las empresas tecnológicas no ha funcionado, como demuestra el número de niños víctimas de abusos. Tenemos que legislar sobre esta cuestión, tenemos que obligar a las empresas tecnológicas a proteger a los niños", añadió.
Mié también cree que el bloque tiene la responsabilidad de proteger a los supervivientes de abusos asistidos por medios digitales de la retraumatización que supone saber que todos los días se ven imágenes de sus abusos.
"Estas supervivientes tienen miedo de todo. No pueden salir de casa. Algunas tienen miedo incluso de usar Internet. Son personas totalmente marginadas de la sociedad", afirma, "tenemos que protegerlas. Tenemos que proteger a los niños. Tiene que ser lo primero en la mente de todos", remarca.