Informe de ENISA sobre estándares de ciberseguridad en Inteligencia Artificial

2023-04-17T18:26:00
Otros países
El Informe de ENISA evalúa el estado de la estandarización en materia de ciberseguridad en la Inteligencia Artificial
Informe de ENISA sobre estándares de ciberseguridad en Inteligencia Artificial
17 de abril de 2023

El pasado 14 de marzo, la Agencia de la Unión Europea para la Ciberseguridad (“ENISA”) publicó un informe cuyo objetivo principal es facilitar una visión global sobre los diferentes estándares, tanto existentes como futuros, aplicables a la ciberseguridad de la inteligencia artificial, evaluando los puntos cubiertos por los mismos, así como aquellos aún pendientes de estandarizar. En dicho proceso de estandarización, ENISA alerta sobre la importancia de tener en cuenta las características particulares de la inteligencia artificial, y en especial, la capacidad de aprendizaje automático.

En este marco, uno de los principales puntos que se abarcan en el informe, y que debe ser tenido en cuenta en la estandarización de la ciberseguridad de la inteligencia artificial, es la ampliación del paradigma habitual de ciberseguridad (basado en los tres pilares de confidencialidad, integridad y disponibilidad) añadiendo un nuevo elemento, la fiabilidad. Según la ENISA, las características que deberán evaluar la fiabilidad de la inteligencia artificial son siguientes: la solidez, la supervisión, la exactitud, la rastreabilidad, la explicabilidad y la transparencia.

El informe examina los beneficios de la normalización en la aplicación de la propuesta de Reglamento de Inteligencia Artificial y cómo las normas técnicas y organizativas actualmente existentes, como son, por ejemplo, las normas pertenecientes a la serie 27000 sobre sistemas de gestión de seguridad de la información –o la ISO-IEC 9001, sobre sistemas de gestión de calidad, de forma complementaria–, pueden contribuir a mitigar algunos de los riesgos a los que se enfrenta la inteligencia artificial partiendo de la base de que la misma consiste, en mayor medida, en un software y que, por tanto, deben resultar de aplicación las medidas de seguridad habituales aplicables a los softwares. ENISA aprovecha dicho informe para hacer un repaso de todos los estándares que están siendo desarrollados en materia de inteligencia artificial y que tienen en cuenta las características de fiabilidad, calidad del dato, gobernanza, etc.

Sobre esta base, ENISA destaca que los estándares actuales deben ser adaptados y/o complementados en atención a las características específicas de la inteligencia artificial. Para ello, será necesario, entre otras cuestiones:

  • Unificar la terminología y definición de inteligencia artificial con el fin de que todos los estándares normalizados tengan se basen en un mismo concepto de inteligencia artificial y se determine cuáles son las características de fiabilidad que deben quedar cubiertas con dichos estándares.

  • Elaboración de guías complementarias que sirvan como hoja de ruta sobre cómo deben ser aplicados los estándares generales en el ámbito de la inteligencia artificial, así como guías que permitan adaptar dichas normas a las especificidades de la inteligencia artificial, al poder incluir no solo elementos de software sino también hardware e infraestructuras complejas que requieren de medidas técnicas y organizativas adaptadas.

  • A pesar de que las citadas normas generales de ciberseguridad resultarán de aplicación en tanto en cuanto la inteligencia artificial tiene como elemento principal el software, deberán evaluarse las medidas de seguridad necesarias desde un análisis específico del sistema y no tanto desde la perspectiva general de la organización donde se considere la inteligencia artificial como un sistema más dentro de la misma.

  • Los estándares citados darán una base de ciberseguridad para ser aplicada a la inteligencia artificial, pero con limitaciones, al tratarse de desarrollos tecnológicos que no han alcanzado una madurez suficiente como para ser normalizados. En este sentido, a pesar de que ya empiezan a elaborarse los primeros estándares normalizados en relación con sistemas de inteligencia artificial, estos deberán contar con una monitorización constante con el fin de ser actualizados y adaptados periódicamente a medida que los desarrollos tecnológicos vayan avanzando. En todo caso, dado que a menudo se trata de sistemas que no han alcanzado una madurez, no se podrá esperar que dichos estándares estén adaptados al 100% a los sistemas.

La ENISA concluye que la estandarización de la ciberseguridad en la inteligencia artificial será un pilar importante en la implementación del Reglamento de inteligencia artificial, pero aún queda mucho camino por delante en su adaptación con el fin de cubrir la totalidad de los elementos que abarca la inteligencia artificial.

17 de abril de 2023