La evaluación de conformidad es el mecanismo que utiliza el Reglamento de IA para comprobar que determinados sistemas cumplen realmente con los requisitos legales antes de ponerse en el mercado o de entrar en funcionamiento. No es un trámite formal sin más. Es la pieza que conecta las obligaciones del AI Act con la realidad técnica y organizativa de los sistemas de inteligencia artificial.
Este proceso se aplica principalmente a los sistemas de IA clasificados como de alto riesgo. Para el resto de sistemas, el reglamento no exige una evaluación de conformidad formal, aunque sí pueden existir otras obligaciones.
Encaje de la evaluación de conformidad dentro del AI Act
La evaluación de conformidad forma parte del enfoque preventivo del reglamento. La lógica es sencilla. Cuando un sistema de IA puede afectar a derechos fundamentales o a decisiones relevantes sobre personas, no basta con reaccionar después de que ocurra un problema.
El AI Act exige comprobar antes de su uso que el sistema cumple con los requisitos esenciales de seguridad, fiabilidad y control. La evaluación de conformidad es el instrumento jurídico para hacer esa comprobación.
Este enfoque es similar al que ya existe en otros ámbitos regulados, como productos sanitarios o maquinaria, aunque adaptado a la naturaleza específica de la IA.
Qué se evalúa en una evaluación de conformidad
La evaluación no se centra en si el sistema es bueno o malo en términos abstractos. Se centra en si cumple los requisitos concretos del reglamento.
Entre los elementos que se evalúan están la gestión de riesgos del sistema, la calidad y gobernanza de los datos utilizados, la documentación técnica que describe cómo funciona, los mecanismos de supervisión humana y la capacidad del sistema para operar de forma segura y previsible.
También se evalúa que el sistema se haya diseñado conforme a su finalidad prevista y que no se utilice fuera de ese marco sin nuevas evaluaciones.
Procedimientos de evaluación de conformidad
El AI Act prevé distintos procedimientos, en función del tipo de sistema y de su encaje regulatorio.
En muchos casos, la evaluación puede realizarla el propio proveedor mediante un procedimiento de control interno. Esto implica que la organización asume la responsabilidad de verificar y documentar el cumplimiento.
En otros casos más sensibles, puede ser necesaria la intervención de un organismo notificado independiente. Este organismo revisa el sistema y valida que cumple los requisitos antes de su comercialización o uso.
La elección del procedimiento no es libre. Depende de si el sistema sigue normas armonizadas, de su ámbito de aplicación y de lo que establezca el propio reglamento.
Responsabilidades del proveedor del sistema de IA
El proveedor es el actor central en la evaluación de conformidad. Es quien diseña o desarrolla el sistema y quien lo introduce en el mercado o lo pone en servicio.
Su responsabilidad incluye realizar o coordinar la evaluación de conformidad, elaborar y mantener la documentación técnica, declarar formalmente que el sistema cumple el AI Act y garantizar que el sistema sigue cumpliendo una vez está en uso.
El proveedor también debe establecer procesos para corregir problemas, gestionar incidentes y actualizar el sistema cuando sea necesario.
Responsabilidades de quienes despliegan el sistema
Las organizaciones que utilizan sistemas de IA de alto riesgo no son meros usuarios pasivos.
Deben utilizar el sistema conforme a las instrucciones del proveedor, asegurarse de que los datos de entrada sean adecuados y mantener la supervisión humana exigida por el reglamento.
Si una organización modifica el sistema de forma sustancial o cambia su finalidad prevista, puede pasar a ser considerada proveedor a efectos del AI Act, asumiendo entonces las responsabilidades de evaluación de conformidad.
Este punto suele generar confusión y es uno de los más relevantes en la práctica.
Papel de los organismos notificados y autoridades
Los organismos notificados son entidades designadas por los Estados miembros para realizar evaluaciones de conformidad cuando el reglamento lo exige. Actúan como terceros independientes y su función es aportar una garantía adicional en sistemas especialmente sensibles.
Las autoridades nacionales competentes supervisan el cumplimiento del AI Act, pueden solicitar información, realizar inspecciones y, en caso de incumplimiento, imponer sanciones.
Este sistema de control combina responsabilidad privada con supervisión pública.
Errores habituales en la evaluación de conformidad
Un error común es tratar la evaluación como un ejercicio documental tardío, realizado justo antes del despliegue. En realidad, debe integrarse desde el diseño del sistema.
Otro error es pensar que una evaluación inicial cubre cualquier uso futuro. Cambios relevantes en el sistema o en su contexto pueden exigir una nueva evaluación.
También es frecuente subestimar el papel de la organización usuaria, pensando que toda la carga recae en el proveedor.
Relación con otras obligaciones del AI Act
La evaluación de conformidad no es un elemento aislado. Se apoya en otros requisitos del reglamento como la gestión de riesgos, la gobernanza de datos, la vigilancia postcomercialización y la notificación de incidentes graves.
Entender los procedimientos y responsabilidades en la evaluación de conformidad es esencial para aplicar el AI Act de forma realista. No se trata solo de cumplir una norma, sino de establecer un sistema de control continuo que acompañe al ciclo de vida completo de los sistemas de inteligencia artificial.


