
No te pierdas nuestros contenidos
SuscribirmeDesde que los gigantes tecnológicos empezaron a entrenar inmensos modelos de inteligencia artificial con datos centralizados, el debate sobre la privacidad de los datos personales ha cobrado fuerza. En junio de 2025, la Agencia Española de Protección de Datos (AEPD) y el Supervisor Europeo de Protección de Datos (EDPS) han dado un paso decisivo al publicar un informe conjunto sobre aprendizaje federado (federated learning). Lejos de ser un documento técnico hermético, este informe pretende trazar una hoja de ruta para armonizar la innovación en IA con los principios de protección de datos consagrados en el Reglamento General de Protección de Datos (RGPD).
La promesa de entrenar sin exponer
Imagine un hospital que desea mejorar sus sistemas de diagnóstico mediante IA, pero sin poner en riesgo la confidencialidad de los historiales médicos. Con el aprendizaje federado, cada centro sanitario entrena localmente un modelo con sus propios datos y solo comparte actualizaciones (los pesos o gradientes) con un servidor central. Este servidor nunca ve los registros originales; se limita a agregar las mejoras aportadas por cada nodo, construyendo así un modelo global colaborativo sin macrocopias de datos sensibles.
Este enfoque, que podríamos definir como «llevar la inteligencia al dato en lugar de llevar el dato a la inteligencia», no solo facilita el respeto del principio de minimización de datos, sino que también refuerza el principio de limitación de la finalidad: cada participante decide para qué entrena su propio modelo y conserva el control total de sus datos.
¿Por qué ahora? El contexto regulatorio y tecnológico
La explosión de dispositivos conectados —desde teléfonos inteligentes hasta sensores en vehículos autónomos— genera volúmenes de datos que, en muchas ocasiones, cruzan fronteras legales y organizativas. En paralelo, el RGPD exige demostrar el principio de privacidad por diseño y privacidad por defecto en cada proyecto de tratamiento de datos personales. En este cruce, el aprendizaje federado aparece como una tecnología de doble uso: protege la privacidad mientras impulsa la colaboración técnica entre múltiples entidades, incluso cuando comparten información estratégica o confidencial. Veamos algunos casos de uso:
- Sector sanitario. Varias clínicas y hospitales pueden unir fuerzas para entrenar algoritmos de detección de patologías (por ejemplo, tumores cerebrales), sin que los historiales de sus pacientes salgan jamás de su red local. Gracias a ello, se mejoran las capacidades diagnósticas, se reducen sesgos locales y se atiende a poblaciones más diversas.
- Asistentes de voz y dispositivos móviles. Cada teléfono móvil ajusta de forma personalizada los sistemas de reconocimiento de voz o los teclados predictivos con los datos del usuario. Las mejoras se comparten como parámetros, nunca como grabaciones de voz o textos escritos, para respetar así la intimidad y los derechos sobre los datos generados por la propia voz o escritura.
- Vehículos autónomos. Las flotas de automóviles recopilan localmente datos de cámaras, radares y sensores. Con el aprendizaje federado, esas flotas aportan su «inteligencia aprendida» para mejorar de forma continua la detección de obstáculos y la planificación de rutas, sin necesidad de volcar masivamente sus flujos de tráfico a un único repositorio central.
- Espacios de datos B2B. Las empresas de sectores regulados, como el financiero o el energético, pueden construir modelos colaborativos que se nutren de datos estratégicos sin revelar secretos empresariales. De este modo, se impulsa la economía digital basada en la confianza mutua y estándares robustos de privacidad.
Retos que no conviene pasar por alto
Aunque el aprendizaje federado aporta claros beneficios en materia de privacidad, el informe de la AEPD y el EDPS alerta sobre varios riesgos inherentes:
- Fugas a través de gradientes: sin medidas criptográficas adecuadas, un atacante podría inferir datos de entrenamiento al analizar las actualizaciones compartidas, lo que pondría en peligro la confidencialidad.
- Sesgos y calidad de los datos: la heterogeneidad de los conjuntos locales (no es “distribución de datos independiente e idéntica”, “IID”) exige auditorías continuas para evitar desigualdades o resultados imprecisos.
- Envenenamiento de modelos: un nodo malicioso podría inyectar datos falsos para distorsionar el modelo global, por lo que se recomiendan defensas pasivas y activas, como la detección de anomalías en las actualizaciones.
- Complejidad operativa: coordinar dispositivos con capacidad de cómputo y conectividad variables requiere arquitecturas resilientes y protocolos fiables.
- Evaluación de la anonimización: no basta con asumir que los modelos resultantes son anónimos; es necesario realizar un análisis técnico y jurídico riguroso antes de considerarlos fuera del ámbito de los datos personales.
Hacia una adopción responsable
Para quienes deseen embarcarse en proyectos de aprendizaje federado cumpliendo con el RGPD, cabe apuntar, entre otras, las siguientes recomendaciones:
- Privacidad desde el diseño. Incorporar requisitos de privacidad en la fase de arquitectura, definiendo flujos de entrenamiento, intercambio de parámetros y agregación. Documentar cada paso en el registro de actividades de tratamiento.
- Criptografía y PETs combinadas. Aplicar técnicas como privacidad diferencial —añadiendo ruido controlado a los gradientes—, computación multipartita segura (por sus siglas en inglés, Secure Multiparty Computation, SMPC) o enclaves seguros (Trusted Execution Environments, TEE) para reforzar la confidencialidad y la integridad de las comunicaciones.
- Auditorías y monitorización continuas. Establecer métricas para medir la fiabilidad de los participantes, el grado de desviación de los parámetros y el tiempo de convergencia. Definir umbrales para bloquear o aislar comportamientos sospechosos.
- Consentimiento claro y dinámico. Informar a los interesados sobre el uso federado de sus datos y facilitarles la revocación en cualquier momento. Aprovechar que los datos permanecen en su dispositivo o silo para reforzar la transparencia.
- Evaluaciones de impacto de la protección de datos (EIPD). Tratar el aprendizaje federado como un proceso de tratamiento más dentro del RGPD: evaluar riesgos antes del despliegue y revisar periódicamente las amenazas y la tecnología a medida que evolucionan.
- Formación interdisciplinar. Fomentar un diálogo estrecho entre los equipos legales, de seguridad y de desarrollo para que los principios de protección de datos se traduzcan en prácticas y técnicas concretas.
El informe de la AEPD y el EDPS vuelve a poner de relieve las tecnologías que mejoran la privacidad y sitúa el aprendizaje federado en el centro de la conversación: no solo como un atajo técnico para distribuir el cómputo, sino también como un mecanismo clave para reequilibrar la relación entre innovación y derechos fundamentales. Quienes dominen estas prácticas estarán en mejor posición para liderar proyectos de IA que destaquen no solo por su potencia, sino también por su respeto estricto a la privacidad y la seguridad jurídica.
No te pierdas nuestros contenidos
Suscribirme