Qué esperar de la entrada en vigor de la Ley de Inteligencia Artificial de la UE

Qué esperar de la entrada en vigor de la Ley de Inteligencia Artificial de la UE

La Ley de Inteligencia Artificial de la UE entra en vigor el jueves y se aplicará a todos los sistemas de inteligencia artificial (IA) existentes o en desarrollo. La ley se considera la primera norma del mundo que intenta regular la IA en función de los riesgos que plantea.

Los legisladores aprobaron la ley en marzo, pero su publicación en el Diario Oficial de la Comisión Europea en julio puso en marcha los trámites para su entrada en vigor. La fecha del 1 de agosto pone en marcha una serie de fechas y plazos a lo largo de los meses y años venideros para preparar a las empresas que utilizan IA en cualquier capacidad a familiarizarse con la nueva legislación y cumplirla.

La Ley de IA evalúa a las empresas en función del riesgo

La Ley de IA de la UE asigna sus normas a cada empresa que utiliza sistemas de IA en función de cuatro niveles de riesgo, lo que a su vez determina qué plazos se les aplican. Los cuatro tipos de riesgo son: sin riesgo, riesgo mínimo, riesgo alto y sistemas de IA prohibidos.

La UE prohibirá totalmente determinadas prácticas a partir de febrero de 2025. Entre ellas están las que manipulan la toma de decisiones de un usuario o amplían las bases de datos de reconocimiento facial mediante el scraping de Internet.

Otros sistemas de IA que se consideran de alto riesgo, como los que recopilan datos biométricos y los que se utilizan para infraestructuras críticas o decisiones laborales, tendrán que cumplir las normas más estrictas. Estas empresas tendrán que mostrar sus conjuntos de datos de entrenamiento de IA y aportar pruebas de supervisión humana, entre otros requisitos.

Según Thomas Regnier, portavoz de la Comisión Europea, alrededor del 85% de las empresas de IA entran en la tercera categoría de "riesgo mínimo", con muy poca regulación exigida.

Entre 3 y 6 meses para que las empresas cumplan la normativa

Heather Dawe, directora de IA responsable en la consultora UST, ya está trabajando con clientes internacionales para adecuar su uso de la IA a la nueva ley. Los clientes internacionales de Dawe están "de acuerdo" con los nuevos requisitos de la ley porque se reconoce que la regulación de la IA es necesaria.

Según Dawe, la adaptación a la nueva ley puede llevar entre tres y seis meses, dependiendo del tamaño de la empresa y de la importancia de la IA en su flujo de trabajo.

«Hay una serie de directrices claras sobre lo que hay que hacer. Cualquier complicación se debe a no iniciar el proceso con suficiente rapidez

Las empresas podrían plantearse la creación de consejos internos de gobernanza de la IA, continuó Dawe, con expertos jurídicos, tecnológicos y de seguridad para realizar una auditoría completa de las tecnologías que se están utilizando y cómo deben cumplir la nueva ley.

Si se descubre que una empresa no cumple la Ley de Inteligencia Artificial en los distintos plazos, podría enfrentarse a una multa de hasta el 7% de su facturación anual global, según Regnier, de la Comisión.

Los preparativos de la Comisión

La Oficina de IA de la Comisión supervisará el cumplimiento de las normas relativas a los modelos de IA de uso general. Sesenta miembros del personal interno de la Comisión serán reasignados a esta oficina y otros 80 candidatos externos serán contratados en el próximo año, dijo Regnier.

Un Consejo de IA compuesto por delegados de alto nivel de los 27 Estados miembros de la UE sentó las bases para la aplicación de la Ley en su primera reunión de junio, según un comunicado de prensa.

La Junta trabajará con la Oficina de la IA para garantizar que la aplicación de la ley esté armonizada en toda la UE, añadió Regnier. Más de 700 empresas dicen que firmarán un Pacto por la IA, lo que implica un compromiso para cumplir la ley.

Los Estados de la UE tienen hasta agosto para crear autoridades nacionales competentes que supervisen la aplicación de la normativa en su país. La Comisión también se prepara para acelerar sus inversiones en IA, con una inyección de 1.000 millones de euros en 2024 y hasta 20.000 millones en 2030.

"Lo que se oye por todas partes es que lo que hace la UE es pura regulación (...) y que eso bloqueará la innovación. Esto no es correcto", dijo Regnier. "La legislación no está ahí para empujar a las empresas a no lanzar sus sistemas, sino todo lo contrario.

Queremos que (las empresas IA) operen en la UE, pero queremos proteger a nuestros ciudadanos y proteger a nuestras empresas

Para la Comisión, uno de los principales retos es regular las futuras tecnologías de IA, dijo Regnier, pero cree que el sistema basado en el riesgo significa que pueden regular rápidamente cualquier nuevo sistema.

Se necesitan más revisiones

Risto Uuk, responsable de investigación sobre la UE en el Instituto del Futuro de la Vida, cree que la Comisión Europea aún debe aclarar el grado de riesgo de determinadas tecnologías.

Por ejemplo, según Uuk, utilizar un dron para hacer fotos alrededor de un suministro de agua que necesita reparaciones "no parece mucho riesgo", a pesar de entrar en la categoría de alto riesgo de la legislación.

"Cuando se lee ahora mismo, es bastante general", dijo Uuk. "Tenemos esta orientación a un nivel más general y eso es útil, porque las empresas pueden entonces plantearse la pregunta sobre si un sistema específico es de alto riesgo".

Uuk cree que, a medida que se vaya aplicando, la Comisión podrá dar respuestas más concretas.

Según Uuk, la ley podría ir más lejos si impusiera más restricciones y multas más elevadas a las grandes empresas tecnológicas que operan con IA generativa (GenAI) en la UE.

Grandes empresas de IA como OpenAI y DeepMind se consideran "IA de uso general" y están en la categoría de riesgo mínimo.

Las empresas que desarrollan IA de uso general deben demostrar cómo cumplen las leyes de derechos de autor, publicar un resumen de datos de entrenamiento y demostrar cómo protegen la ciberseguridad.

Otros aspectos a mejorar son los derechos humanos, según European Digital Rights, un colectivo de ONG. "Lamentamos que la ley final contenga varias lagunas importantes en materia de biometría, políticas y seguridad nacional, y pedimos a los legisladores que colmen estas lagunas", dijo un portavoz en una declaración facilitada a 'Euronews Next'.