La trazabilidad es uno de los requisitos que más rechazo genera cuando se lee el Reglamento de Inteligencia Artificial por primera vez. A menudo se percibe como una carga administrativa o como un mecanismo de control excesivo. Sin embargo, el AI Act no exige trazabilidad para vigilar a las organizaciones, sino para hacer posible el control real de los sistemas de IA cuando algo no funciona como debería.
Que todo deje rastro no es un castigo. Es la condición mínima para poder entender, revisar y corregir el comportamiento de un sistema de IA.
Qué significa trazabilidad en el contexto del AI Act
La trazabilidad se refiere a la capacidad de reconstruir cómo ha funcionado un sistema de IA en un momento determinado.
Esto incluye saber qué versión del sistema estaba en uso, con qué datos operaba, qué decisiones tomó y bajo qué condiciones.
El AI Act no exige un registro exhaustivo de cada detalle técnico. Exige registros suficientes y adecuados al riesgo para poder analizar el comportamiento del sistema cuando sea necesario.
Por qué el AI Act exige registros y no solo confianza
Los sistemas de IA pueden producir resultados complejos y difíciles de interpretar a posteriori si no existen registros.
Sin trazabilidad, es prácticamente imposible determinar por qué se produjo un error, si hubo un fallo técnico, un uso indebido o un problema de datos.
El reglamento exige registros porque sin ellos no hay rendición de cuentas, ni mejora continua, ni protección efectiva de las personas afectadas.
Qué tipo de información debe dejar rastro
El tipo de registros exigidos depende del sistema y de su nivel de riesgo.
En sistemas de alto riesgo, suelen ser necesarios registros sobre el funcionamiento del sistema, los datos de entrada relevantes, las versiones del modelo y las intervenciones humanas.
El objetivo no es registrar todo, sino lo necesario para entender decisiones relevantes y detectar patrones problemáticos.
Los registros deben ser útiles, no decorativos.
Trazabilidad y ciclo de vida del sistema
La trazabilidad no se limita al momento de uso.
También es relevante durante el diseño, el desarrollo, las pruebas y las actualizaciones del sistema.
Cambios en el modelo, en los datos o en la configuración deben poder identificarse a posteriori.
Esto permite evaluar si un problema está relacionado con una modificación concreta o con el uso del sistema en condiciones no previstas.
Responsabilidades sobre los registros
El proveedor debe diseñar el sistema de forma que permita generar los registros necesarios y debe especificar qué información debe conservarse.
El usuario es responsable de mantener esos registros durante el uso real del sistema y de garantizar que no se eliminan o alteran indebidamente.
La trazabilidad es, de nuevo, una responsabilidad compartida.
Trazabilidad no es vigilancia permanente
Un malentendido habitual es pensar que el AI Act exige una vigilancia constante de personas o procesos.
La trazabilidad se activa cuando es necesario analizar un comportamiento, investigar un incidente o demostrar cumplimiento.
No implica monitorizar a empleados ni registrar información irrelevante.
Errores habituales al aplicar la trazabilidad
Un error común es generar grandes volúmenes de logs sin una finalidad clara.
Otro error es no proteger adecuadamente los registros, lo que puede generar riesgos adicionales, por ejemplo en materia de protección de datos.
También es frecuente no alinear los registros técnicos con los procesos organizativos, lo que los hace inútiles en la práctica.
Relación de la trazabilidad con otros requisitos del AI Act
La trazabilidad es la base operativa de la supervisión humana, la vigilancia postcomercialización y la gestión de incidentes.
Sin registros, estos mecanismos no funcionan.
Para el AI Act, la trazabilidad no es un fin en sí mismo. Es la herramienta que permite pasar de la confianza ciega al control informado y responsable de los sistemas de inteligencia artificial.


