EEUU vs. UE: Dos caminos para la gobernanza de la inteligencia artificial

2025-08-04T09:30:00
Internacional

El análisis comparado entre el reciente Plan de Acción de IA de EE.UU. y el Reglamento de la UE confirma el choque en el enfoque legislativo

EEUU vs. UE: Dos caminos para la gobernanza de la inteligencia artificial
4 de agosto de 2025

Bien es sabido que Estados Unidos y la Unión Europea han adoptado dos enfoques regulatorios significativamente opuestos para gobernar el desarrollo, implementación y uso de la inteligencia artificial (IA). El nuevo Plan de Acción de IA de EE.UU., impulsado por la Administración Trump, y el Reglamento de IA de la UE representan la cristalización de dos enfoques regulatorios claramente diferenciados. La lectura de ambos documentos conduce a la identificación de las características definitorias de las posturas adoptadas a cada lado del Atlántico, permitiéndonos entender las importantes diferencias en sus respectivos enfoques.

Por un lado, el Plan de Acción de IA de EE.UU. se estructura en torno a tres pilares: acelerar la innovación en IA, construir una infraestructura robusta para esta tecnología y liderar la diplomacia y seguridad internacional en el ámbito de la IA. El objetivo principal es asegurar el liderazgo global estadounidense en IA, eliminando barreras regulatorias, promoviendo la IA de código abierto y garantizando la seguridad nacional. El plan pone especial énfasis en la protección de valores como la libertad de expresión, el empoderamiento de los trabajadores y la promoción de alianzas globales.

Por su parte, el Reglamento de IA de la UE busca establecer un marco legal uniforme para los sistemas de IA dentro de la Unión, promoviendo una IA confiable y centrada en el ser humano y que respete los valores de la Unión, los derechos fundamentales, la salud, la seguridad, la democracia, el Estado de Derecho y la protección ambiental. La regulación europea se basa en un planteamiento de prevención de riesgos para los ciudadanos, estableciendo requisitos estrictos para aquellos sistemas de IA que considera de alto riesgo, imponiendo obligaciones de transparencia o directamente prohibiendo ciertos usos de esta tecnología por considerarlos dañinos. Además, apoya la innovación, especialmente para pymes y startups, y excluye del ámbito de aplicación los sistemas de IA utilizados para fines militares, de defensa o de seguridad nacional.

El alcance del plan estadounidense se centra en fomentar la innovación y el desarrollo de infraestructuras de IA en todos los sectores, con un énfasis particular en eliminar obstáculos regulatorios que dificultan la adopción de esta tecnología. Incluye medidas dirigidas a promover su desarrollo, así como la investigación científica habilitada por IA y la creación de conjuntos de datos científicos para uso global. También aborda la adopción de la IA por parte de la administración federal y, en particular, el Departamento de Defensa, con el objetivo de proteger las innovaciones tanto comerciales como gubernamentales que puedan desarrollarse.

En contraste, la normativa de la UE se aplica a proveedores y responsables del despliegue de sistemas y modelos de IA tanto dentro de la Unión como en terceros países, cuando la herramienta tecnológica en cuestión se vaya a utilizar en la Unión. El nuevo marco normativo pretende cubrir en particular aquellos sectores considerados como más proclives al riesgo en relación con el uso de este tipo de tecnología, incluyendo industrias como la salud, las finanzas y seguros, gestión de infraestructuras o administración pública. A tal efecto, el Reglamento de la UE clasifica los sistemas de IA según su impacto potencial en la salud, la seguridad y los derechos fundamentales. Los sistemas de alto riesgo están sujetos a requisitos estrictos, y existen disposiciones específicas para IA en la aplicación de la ley, migración, asilo y control fronterizo.

El enfoque legislativo de EE.UU. -según se desprende del documento publicado por el ejecutivo estadounidense- se caracteriza por una postura desregulatoria, orientada a acelerar la innovación, pretendiendo eliminar la burocracia y promoviendo modelos de IA de código abierto. El plan fomenta la innovación liderada por el sector privado y busca crear un entorno favorable para el desarrollo de esta tecnología, subrayando la importancia de la libertad de expresión -según la interpretan las actuales autoridades estadounidenses- y la protección contra el sesgo ideológico.

En cambio, la UE adopta un enfoque prescriptivo, centrado en garantizar la seguridad y confiabilidad de los sistemas de IA. La regulación exige gestión de riesgos, documentación técnica y supervisión humana para los sistemas de alto riesgo, promoviendo la transparencia y la responsabilidad. Los proveedores deben divulgar información sobre sus sistemas, asegurar en algunos casos su homologación técnica y realizar evaluaciones de impacto sobre los derechos fundamentales. Además, se fomenta el desarrollo de códigos de conducta voluntarios para asegurar prácticas éticas.

En materia de cooperación internacional y seguridad, el plan estadounidense enfatiza la importancia de la exportación de tecnología estadounidense de IA a aliados, contrarrestando la influencia de adversarios y fortaleciendo los controles de exportación de productos de IA y semiconductores. También aborda la bioseguridad y la evaluación de riesgos de seguridad nacional en modelos de IA avanzados.

La regulación europea, por su parte, busca armonizar las reglas entre los Estados Miembros para evitar la fragmentación y asegurar un alto nivel de protección. Incluye disposiciones para la cooperación con terceros países y organizaciones internacionales, especialmente en el ámbito judicial y de aplicación de la ley, y promueve el enfoque europeo centrado en el ser humano para la IA, posicionando a la UE como líder global en IA segura, confiable y ética.

En cuanto al apoyo a la innovación, el plan de EE.UU. fomenta una cultura de “probar primero” en la industria, con iniciativas para establecer entornos de prueba regulatoria y Centros de Excelencia en IA, permitiendo el despliegue y prueba rápida de herramientas. También prioriza el desarrollo de habilidades y la capacitación de la fuerza laboral para facilitar la transición hacia una economía impulsada por la IA.

La regulación de la UE, por su parte, persigue promover la innovación mediante un marco legal que favorezca el desarrollo y la adopción de sistemas de IA, con medidas específicas para pymes y startups, como requisitos simplificados de documentación técnica y entornos de prueba regulatoria. Además, busca fomentar el desarrollo de estándares armonizados y especificaciones comunes para asegurar el cumplimiento y promover la competitividad.

En síntesis, el Plan de Acción de IA de EE.UU. y el Reglamento de IA de la UE representan dos estrategias regulatorias diametralmente distintas. El primero pretende acelerar la innovación y el desarrollo de infraestructura a través de la desregulación y el liderazgo del sector privado, mientras que la regulación europea enfatiza la seguridad, confiabilidad y ética mediante requisitos prescriptivos y reglas armonizadas. Ambos marcos están llamados a cruzarse y veremos cómo esas intersecciones -o, más probablemente, fricciones- tendrán un papel definitivo a la hora de ir definiendo el marco legal de la IA en los próximos años. 

4 de agosto de 2025