Nuevas guías para cumplir el reglamento de IA
Ayudarán a las organizaciones a cumplir las obligaciones del entorno normativo, especialmente para sistemas de inteligencia artificial de alto riesgo

Ayer se publicaron de la mano de la Secretaría de Estado de Digitalización e Inteligencia Artificial 16 Guías y varios check list que ayudarán a las organizaciones a cumplir las obligaciones del entorno normativo en IA, especialmente para sistemas de IA de alto riesgo. Ya están disponibles en la web de la AESIA (Autoridad Española de Supervisión de Inteligencia Artificial).
Llegan cuando muchas organizaciones miran el Reglamento Europeo de Inteligencia Artificial con una mezcla de urgencia y desconcierto. El reglamento (conocido como RIA) es un texto denso, técnico, y el marco de estándares aún no está cerrado. Para la mayoría de las empresas, la cuestión no es filosófica: es tan simple como preguntarse “¿por dónde empiezo?”.
Que la Secretaría de Estado de Digitalización e Inteligencia Artificial y AESIA publiquen estas guías ahora es oportuno y positivo. Cuando cada organización empezaba a interpretar el reglamento por su cuenta, estos documentos ordenan criterios y evitan el caos regulatorio que surgiría en pocos meses. No imponen nada —ni sustituyen al reglamento ni anticipan las normas armonizadas—, pero aportan orientaciones en un marco jurídico complejo.
En la presentación, el ministro Óscar López defendía que España está “abriendo camino” en este ámbito. Y lo cierto es que el trabajo del sandbox regulatorio se nota: estas guías responden a problemas reales, a dudas de quienes están diseñando o desplegando sistemas de IA y necesitan algo más que teoría.
Cada documento aborda un aspecto distinto del reglamento y, en conjunto, ofrecen un recorrido por lo que implica un sistema de IA de alto riesgo y alinearlo a las obligaciones regulatorias. La guía introductoria sitúa las bases: alcance del RIA, niveles de riesgo y roles de proveedor y responsable del despliegue. Otra recoge ejemplos de sistemas de alto riesgo y aclara el glosario, algo que evita malentendidos. Hay una guía dedicada a los procedimientos de evaluación de conformidad; otra explica cómo debe organizarse un sistema de gestión de la calidad que cubra diseño, pruebas, control documental y vigilancia. La de gestión de riesgos traduce el mandato legal en una metodología operativa que cubre el ciclo de vida del sistema.
La vigilancia humana ocupa un documento centrado en cómo diseñar interfaces y procesos que permitan detectar anomalías y actuar a tiempo, sin caer en la dependencia ciega de la automatización. También se ha elaborado una guía sobre datos y gobernanza, que explica cómo asegurar que los datos usados para entrenar y validar el sistema son pertinentes, representativos y de calidad. Otra aborda la transparencia y cómo se debe comunicar el funcionamiento del sistema, especialmente para que quienes lo despliegan puedan interpretar correctamente sus salidas.
A esto se suman guías sobre precisión, sobre solidez y tolerancia a fallos y sobre ciberseguridad, orientada a prevenir manipulaciones y ataques que comprometan el sistema. La de conservación de registros aclara qué trazabilidad debe mantenerse en los sistemas de alto riesgo; la de vigilancia poscomercialización cómo recopilar y analizar datos del funcionamiento real. La de gestión de incidentes detalla cómo informar a la autoridad en plazos concretos cuando hay daños graves para la salud, la seguridad o los derechos fundamentales. La documentación técnica también tiene su guía, enfocada en cómo preparar un dossier que permita demostrar el cumplimiento antes de la comercialización. El último documento ayuda a entender cómo funciona el Excel de autodiagnóstico del RIA, que permite evaluar el nivel de madurez frente a los 12 requisitos y diseñar un plan de adaptación.
España quiere situarse como un país atractivo para el desarrollo de IA, pero también como un espacio donde los derechos fundamentales no se relegan en nombre de la innovación descontrolada. Ese equilibrio exige reglas comprensibles y aplicables en la realidad. Cuando cada entidad interpreta el reglamento a su manera, lo que aparecen son dudas, retrasos, rediseños innecesarios y una enorme pérdida de recursos. Estas guías ayudan a reducir ese ruido y a que los profesionales involucrados en el desarrollo o implantación de sistemas de IA responsable como los DPOs, CISOs, compliance officers, responsables de innovación e IT, jurídico, etc. trabajen con un punto de partida común.
La fecha tampoco es casual. En agosto de 2026 comenzarán a aplicarse las obligaciones más exigentes del reglamento de IA. Puede parecer lejano, pero adaptar procesos internos, revisar modelos de datos, reorganizar la gobernanza y alinear equipos lleva tiempo. Quienes empiecen ahora llegarán con margen; quienes esperen demasiado correrán más de lo deseado.
Las guías no responden a todo, y es lógico mientras los estándares europeos siguen avanzando, pero permiten dar pasos firmes desde hoy y evitar decisiones precipitadas dentro de un año. Son una invitación a ponerse en marcha y llegar preparados a un cambio regulatorio que va a marcar la forma en que las organizaciones diseñan, validan y utilizan sistemas de IA. Ahora es cuando hay que tomar ventaja.
