No te pierdas nuestros contenidos
SuscribirmeLa Agencia Española de Protección de Datos (AEPD) ha publicado en febrero de 2026 un documento de orientaciones sobre los sistemas de inteligencia artificial agéntica, abordando por primera vez de forma sistemática las implicaciones que esta tecnología emergente tiene para el tratamiento de datos personales. El documento no es casual: responde a la creciente adopción de agentes de IA en el tejido empresarial y administrativo español, y a la constatación de que tanto el rechazo irracional como la aceptación acrítica de estas herramientas pueden resultar perjudiciales para los derechos de los ciudadanos. A continuación analizamos los aspectos más relevantes de este pronunciamiento, con especial atención a sus implicaciones prácticas y a los retos interpretativos que plantea.
Qué entiende la AEPD por Inteligencia Artificial agéntica
La AEPD define el agente de IA (o Inteligencia Artificial agéntica) como un sistema de IA que emplea modelos de lenguaje para alcanzar objetivos concretos, adaptándose a las circunstancias del entorno, respondiendo con flexibilidad ante cambios imprevistos y aprendiendo de la experiencia acumulada. La diferencia esencial con los asistentes conversacionales tradicionales –como los chatbots que ya conocemos– radica en que los agentes no se limitan a responder preguntas: más bien descomponen tareas complejas en subtareas, planifican su ejecución secuencial, utilizan herramientas diversas y acceden tanto a servicios internos de la organización como a recursos externos.
Las características fundamentales que la AEPD identifica en estos sistemas son: (i) autonomía, entendida como la capacidad de operar sin intervención humana constante; (ii) percepción del entorno en tiempo real mediante sensores, APIs u otras interfaces; (iii) capacidad de acción que trasciende la mera generación de texto, permitiendo ejecutar operaciones con efectos reales; (iv) proactividad para anticiparse a necesidades antes de que se formulen expresamente; (v) planificación y razonamiento para evaluar alternativas y seleccionar la más adecuada; y (vi) memoria que permite acumular experiencias y ajustar comportamientos futuros.
Precisamente sobre la memoria, resulta especialmente relevante la distinción que realiza la AEPD entre la memoria funcional del agente, necesaria para que el agente opere correctamente, y la memoria de gestión, formada por los registros de actividad que permiten analizar disfunciones e incidentes. Esta dualidad, frecuentemente ignorada en la literatura técnica, tiene consecuencias directas para el cumplimiento normativo, ya que ambos tipos de memoria pueden contener datos personales sujetos a obligaciones diferenciadas.
Estas mismas características que dotan de utilidad a los agentes generan, paradójicamente, vulnerabilidades específicas identificadas por la AEPD, como la interacción con el entorno, la integración de múltiples servicios o el fenómeno del comportamiento no repetible, pues en agentes de IA, una misma instrucción puede generar diferentes respuestas, lo que dificulta considerablemente su verificación y auditoría.
La gestión del riesgo y la “regla de 2” como umbral mínimo
La AEPD aborda en este documento las principales cuestiones que suscita la incorporación de agentes en el tratamiento de datos personales, entre las cuales se encuentran la determinación de responsabilidades, la exigencia de transparencia en el uso de sistemas agénticos, la legitimación en el uso de estos agentes o la observación de los requisitos de decisiones automatizadas –en caso de que el uso de IA agéntica implique tal automatización–.
Entre estos aspectos, la AEPD dedica especial atención a la gestión del riesgo, recordando que el uso de una IA agéntica obliga al responsable a analizar el riesgo de este tratamiento para los interesados. Para ello, la AEPD recupera la denominada “regla de 2”, originalmente concebida inicialmente para supuestos de ciberseguridad en navegadores, como umbral mínimo de garantías que jamás deberá traspasarse.
Esta regla establece que, como máximo, sólo dos de las siguientes tres situaciones pueden concurrir simultáneamente:
(i) la posibilidad de recibir información no controlada;
(ii) el acceso a información sensible sin restricciones; y
(iii) la capacidad de ejecutar acciones automáticas con efecto real.
Esta aproximación, aunque simplificada, resulta útil como punto de partida para el análisis de configuraciones de alto riesgo. Sin embargo, la propia AEPD reconoce que, desde la perspectiva de protección de datos, deben contemplarse aspectos adicionales como la completitud, coherencia y ausencia de sesgos de la información de entrada, o el estricto cumplimiento del principio de minimización.
Medidas de mitigación de riesgos
La AEPD distingue dos tipologías de amenazas distintas: las procedentes del tratamiento autorizado y las derivadas de tratamientos no autorizados. Entre las primeras destacan la falta de gobernanza y políticas específicas para IA agéntica, la ausencia de control sobre el proceso de razonamiento y el fenómeno del “shadow-leak”: la filtración silenciosa y progresiva de información sensible a través de consultas aparentemente inocuas. En cuanto a las amenazas por tratamientos no autorizados, la AEPD alerta especialmente sobre la inyección de prompts, tanto directa como indirecta, que puede instruir al agente para ignorar directivas y políticas de la organización.
Para prevenir estos riesgos, la AEPD propone un amplio catálogo de medidas técnicas y organizativas, entre las que destacan:
- La existencia de un marco de gobernanza que integre los sistemas agénticos. Debe incluirse la figura del Delegado de Protección de Datos o asesor cualificado que comprenda estas tecnologías, así como protocolos para prevenir y anticipar errores y brechas derivados del uso de IA agéntica.
- La definición de políticas de acceso a la información que incorporen el principio de “necesidad de conocer”, catalogar y etiquetar los datos disponibles, compartimentar la memoria entre tratamientos y usuarios y establecer plazos estrictos de conservación.
- El establecimiento de un control de automatización, estableciendo un grado de autonomía para cada tratamiento y diseñando las cadenas de razonamiento de forma controlada, garantizando la separación entre datos e instrucciones.
- Mantener registros íntegros de responsabilidades, decisiones, arquitectura y eventos de explotación.
La guía de la AEPD constituye un esfuerzo notable por sistematizar los riesgos de una tecnología en plena evolución. Así, la AEPD deja claro que la utilización de la IA agéntica conlleva ciertos riesgos, pero su adopción informada puede incluso mejorar la protección de datos si se implementa como verdadera tecnología de mejora de la privacidad.
No te pierdas nuestros contenidos
Suscribirme