Normas armonizadas en materia de Inteligencia Artificial

Publicado en el DOUE el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.

Se ha publicado el Reglamento (UE) 2024/1689, relativo al establecimiento de normas en materia de inteligencia artificial (“RIA”).

Se trata del primer marco jurídico que regula la adopción y el uso de la Inteligencia Artificial buscando garantizar la seguridad y la protección de los derechos fundamentales. También tiene como objetivo prestar apoyo a la innovación, teniendo en cuenta los posibles efectos perjudiciales de los sistemas de IA.

¿Cuándo será de aplicación?

El Reglamento entrará en vigor a los 20 días de su publicación en el DOUE, y será de total aplicación 24 meses después (2 de agosto de 2026), excepto las siguientes disposiciones, que se adelantarán o atrasarán:
  • Desde el 2 de febrero de 2025, se aplicarán las prohibiciones a ciertas prácticas de IA.
  • Desde 2 de agosto de 2025, entrarán en vigor las normas sobre organismos notificados y sistemas de IA de riesgo sistémico, así como el marco de gobernanza de la IA en Europa y las sanciones correspondientes.
  • Desde el 2 de agosto de 2027 se regularán los sistemas de IA de alto riesgo, incluidos en productos que requieren evaluación de seguridad específica, como máquinas y productos sanitarios.
¿Qué objetivos tiene?
El principal objetivo del RIA es garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA.

Para lograrlo, se establecen una serie de requisitos y obligaciones tanto para los desarrolladores como para los usuarios de sistemas de IA.
¿Cómo se ha clasificado el riesgo?
Los requisitos que han de cumplirse variarán en función del nivel de riesgo que representan las aplicaciones de IA, categorizándolas en cuatro niveles: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.
¿Qué tipo de requisitos deberán cumplir los sujetos obligados?
Como se ha adelantado en el punto anterior, los requisitos a cumplir dependerán del riesgo que impliquen las aplicaciones.

Entre otros, los sujetos obligados deberán implementar un sistema de gestión de riesgos para identificar, analizar y mitigar los riesgos potenciales, asegurar que determinados sistemas de IA estén sujetos a supervisión humana, proveer información clara y comprensible sobre el funcionamiento de la IA y mantener registros de las operaciones del sistema.
¿A quién aplica?
El RIA se aplicará a:
  1. Proveedores que introduzcan sistemas de IA en la Unión, con independencia de si están establecidos o ubicados en la Unión o en un tercer país.
  2. Responsables del despliegue de sistemas de IA en la Unión o un tercer país, cuando los resultados generados por IA se utilicen en la Unión.
  3. Importadores y distribuidores de sistemas de IA.
  4. Fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca.
  5. Representantes autorizados de los proveedores que no estén establecidos en la Unión.
  6. Las personas afectadas que estén ubicadas en la Unión.
¿Qué otras normativas se deberán tener en cuenta?
Todas las empresas que vayan a usar y/o desarrollar sistemas de IA deberán disponer de un programa o proceso de compliance del RIA, pero no olvidemos que esta tecnología afecta a otras regulaciones, entre otras  protección de datos, ciberseguridad, propiedad intelectual y secreto empresarial.