
No te pierdas nuestros contenidos
SuscribirmeEl Reglamento (UE) 2024/1689 sobre inteligencia artificial (“Reglamento de IA”) ha situado a la Unión Europea a la vanguardia de la regulación tecnológica global. Sin embargo, la complejidad de su despliegue, la necesidad de directrices interpretativas y la presión de la industria en un contexto geopolítico tensionado han generado un escenario de incertidumbre y debate que puede llegar a comprometer los plazos de aplicación del propio Reglamento de IA.
En esta entrada, analizaremos el estado actual de las directrices interpretativas del Reglamento de IA, del código de buenas prácticas y la posibilidad de una paralización parcial en la aplicación del Reglamento.
Calendario de aplicación: fases y plazos clave
En su versión actual el Reglamento de IA prevé una aplicación escalonada de sus disposiciones:
- 2 de febrero de 2025: El Capítulo I (disposiciones generales, que incluyen las definiciones y la obligación de alfabetización) y el Capítulo II (prácticas prohibidas) ya son aplicables (puede consultarse aquí nuestra entrada al respecto).
- 2 de agosto de 2025: Próximamente serán aplicables capítulos clave como la gobernanza, los modelos de IA de uso general, el régimen sancionador y la confidencialidad.
- 2 de agosto de 2026: Serán aplicables el resto de las disposiciones del Reglamento de IA para las que no se prevé un plazo específico de aplicación, entre estas, las obligaciones para operadores de sistemas de alto riesgo.
- 2 de agosto de 2027: Aplicación del artículo 6, apartado 1 (Sistemas de IA de alto riesgo relacionados con la legislación sectorial armonizada en materia de seguridad de productos definida en el Anexo I), y las obligaciones correspondientes.
Este calendario, sin embargo, podría verse alterado por los debates actuales sobre la necesidad de adopción de directrices y la presión para retrasar ciertas obligaciones.
Directrices interpretativas y estándares técnicos: retos en su adopción
La Comisión Europea ha impulsado la elaboración de directrices interpretativas para clarificar aspectos esenciales del Reglamento, especialmente en lo relativo a la definición de “sistema de IA” y las prácticas prohibidas (pueden consultarse aquí y aquí nuestras entradas al respecto). En mayo de 2025, la Comisión publicó un informe que recoge los resultados de la consulta pública sobre estos borradores de directrices, e identifica las siguientes preocupaciones de la industria y otros actores al respecto:
- Definición de IA: Existe una demanda generalizada de mayor precisión en términos como “adaptabilidad”, “inferencia” y “autonomía”, para evitar que software tradicional quede incluido por error en el ámbito del Reglamento.
- Prácticas prohibidas: Se ha solicitado mayor claridad sobre ciertos conceptos definitorios de las prácticas prohibidas, como “manipulación” y “daño significativo”, así como ejemplos concretos y umbrales claros, especialmente en contextos de marketing y consumo.
- Impacto en pymes: Las pequeñas y medianas empresas han advertido sobre la dificultad de cumplir con los requisitos regulatorios sin apoyo específico, reclamando guías prácticas y mecanismos de apoyo.
Adicionalmente, la Comisión está trabajando en unas directrices sobre la clasificación de sistemas de alto riesgo, y ha abierto un periodo de consulta pública, des del pasado 6 de junio hasta el próximo 18 de julio, accesible a través de este enlace.
Además, la Comisión ha anunciado la preparación de directrices sobre la relación del Reglamento de IA con otras normativas (como el Reglamento General de Protección de Datos, la Directiva 2019/790 de derechos de autor, el Reglamento 2022/2065 de Servicios Digitales, el Reglamento 2022/1925 de Mercados Digitales y el Reglamento 2017/745 sobre Productos Sanitarios) y la creación de una plantilla o modelo para la evaluación de impacto sobre derechos fundamentales (FRIA), conforme al artículo 27 del Reglamento de IA.
No obstante, según se ha hecho público recientemente en un cronograma del Parlamento Europeo, se prevé que los estándares técnicos del Reglamento de IA, inicialmente previstos para abril de 2025, estarán disponibles aproximadamente sobre la fecha límite de aplicación de los requisitos aplicables a sistemas de alto riesgo, prevista para agosto de 2026. Esto implicaría que los operadores tendrán que adaptarse rápidamente a estos estándares para evitar riesgos regulatorios, aunque la puesta en marcha de las autoridades nacionales de supervisión del mercado también está sufriendo importantes retrasos en diversos países europeos.
Códigos de buenas prácticas y directrices sobre IA de uso general
En relación con las obligaciones que serán aplicables a partir de agosto de 2025, la Comisión está preparando unas directrices interpretativas sobre la IA de uso general, en base a la consulta pública que finalizó el pasado mes de mayo.
Además, uno de los documentos más esperados en relación con estas disposiciones es el código de buenas prácticas sobre IA de uso general. El tercer borrador fue publicado en marzo de 2025 y se espera su aprobación definitiva, junto con las directrices interpretativas, en julio, aunque inicialmente fue prevista para mayo de 2025. Este código busca establecer estándares voluntarios para los proveedores de modelos de IA, aunque su contenido ha generado debate, especialmente por la presión de las grandes tecnológicas estadounidenses para flexibilizar sus exigencias y clarificar su relación con la legislación europea de derechos de autor.
¿Paralización en la aplicación del Reglamento?
La falta de estándares definitivos y los reclamos por una mayor flexibilización de las obligaciones y por una reducción de la carga regulatoria para las pymes han llevado a varios Estados miembros y actores de la industria a solicitar una paralización (“stop-the-clock”) o retraso en la aplicación de ciertas obligaciones del Reglamento de IA. Miembros de la Comisión Europea han reconocido la posibilidad de posponer partes del Reglamento en el marco del futuro “digital omnibus package” -cuya publicación se prevé a finales de 2025-, especialmente ante el retraso en el desarrollo de estándares técnicos y la presión para no desincentivar la innovación, en particular en pymes.
Algunos países, como Chequia y Alemania, han abogado abiertamente por un retraso de hasta dos años en la aplicación de las disposiciones aún no aplicables, mientras que España ha advertido que la simplificación no debe traducirse en una desregulación que ponga en riesgo la protección de derechos fundamentales y la seguridad jurídica.
Conclusiones
El Reglamento de IA se encuentra en una fase decisiva. La adopción definitiva de las directrices interpretativas, códigos de buenas prácticas y estándares técnicos será clave para dotar de seguridad jurídica a los operadores y facilitar la adaptación de la industria. Sin embargo, la posibilidad de una paralización parcial o retraso en la aplicación de ciertas obligaciones refleja la tensión entre la necesidad de proteger derechos y fomentar la innovación. El resultado de este proceso sin duda marcará el modelo europeo de gobernanza de la inteligencia artificial en los próximos años.
No te pierdas nuestros contenidos
Suscribirme