“Lo bueno de la ciencia es que es cierta independientemente de si crees o no en ella” (Neil deGrasse Tyson)

Auditoría de Algoritmos "Legacy": Qué hacer con los modelos predictivos pre-2024 que hoy son cajas negras

Durante la última década, las organizaciones se lanzaron a una carrera frenética por adoptar el aprendizaje automático (Machine Learning). El objetivo era claro: extraer valor de los datos a cualquier precio. Esto dio lugar a la creación de miles de modelos predictivos —desde scorings crediticios y sistemas de recomendación hasta algoritmos de selección de personal o detección de fraude— desarrollados antes de 2024.

Hoy, muchos de estos modelos siguen en producción, pero se han convertido en un riesgo silencioso. Son "cajas negras" (black boxes): sistemas complejos donde ni los propios desarrolladores pueden explicar con certeza por qué el algoritmo toma una decisión específica.

Con la entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) en 2024, el escenario ha cambiado drásticamente. La opacidad ya no es solo un problema técnico; es un riesgo legal y de negocio. Aunque el AI Act contempla periodos transitorios para sistemas "legacy", cualquier modificación sustancial (como un reentrenamiento con nuevos datos) o su uso en sectores de alto riesgo obliga a cumplir con los nuevos estándares de transparencia, supervisión humana y explicabilidad.

Como líder técnico o estratégico, la pregunta es inevitable: ¿Qué hacemos con nuestros algoritmos legacy? ¿Los apagamos, los auditamos o los reconstruimos? Aquí tienes la hoja de ruta, desde la estrategia hasta la técnica, para auditar y transformar tu deuda algorítmica.


1. Fase Estratégica: El Inventario y el "Triage" de Riesgos

No puedes gobernar lo que no conoces. El primer paso no es técnico, sino organizativo.

  • Inventario exhaustivo: Localiza todos los modelos en producción. ¿Para qué se usan? ¿Qué datos consumen? ¿Quién es el "propietario" del negocio?

  • Clasificación de Riesgo (Triage): Utiliza el marco del AI Act (Anexo III) para clasificar tus modelos legacy.

    • ¿Es de Alto Riesgo? (ej. evaluación crediticia, biometría, recursos humanos, infraestructuras críticas). Si es así, la auditoría debe ser inmediata y rigurosa.

    • ¿Genera impacto en derechos fundamentales? (ej. posibles sesgos discriminatorios).

  • Evaluación del Ciclo de Vida: Un modelo creado en 2022 que no ha sido reentrenado probablemente sufra de Concept Drift (deriva de concepto) o Data Drift (deriva de datos). Es decir, el mundo ha cambiado, pero el modelo no. Su rendimiento actual es probablemente deficiente.


2. Fase Técnica: Abriendo la Caja Negra (XAI)

Si decides que un modelo legacy de alto riesgo debe mantenerse en producción, necesitas someterlo a una auditoría de Inteligencia Artificial Explicable (XAI). A nivel de ingeniería, tienes dos caminos principales:

Opción A: Explicabilidad Post-Hoc (El "Parche" Inteligente)

Si el modelo es demasiado complejo o costoso de reemplazar (ej. un Deep Neural Network o un Gradient Boosting masivo), puedes aplicar técnicas de explicabilidad post-hoc. Estas herramientas no cambian el modelo original, sino que lo envuelven para interpretar sus decisiones.

  • SHAP (SHapley Additive exPlanations): Basado en la teoría de juegos, permite cuantificar exactamente cuánto contribuye cada variable (ej. edad, ingresos, historial) a una predicción concreta (explicabilidad local) y al modelo en general (explicabilidad global).

  • LIME (Local Interpretable Model-Agnostic Explanations): Genera perturbaciones en los datos de entrada para entender cómo cambia la decisión del algoritmo en un entorno muy cercano a la decisión que se está evaluando.

  • Análisis Contrafactual: Proporciona respuestas accionables. Por ejemplo, en lugar de decir "Crédito denegado", el sistema explica: "Si sus ingresos fuesen un 10% mayores, el crédito habría sido concedido". Esto es vital para el cumplimiento del RGPD (Derecho a la explicación).

Opción B: Modelos Inherentemente Interpretables (Ante-Hoc)

El enfoque más responsable, fuertemente recomendado por expertos y frameworks como la ISO/IEC 42001, es reemplazar la caja negra.

A menudo, la complejidad de un modelo no justifica su mínima mejora en precisión. Para sistemas críticos, considera migrar hacia arquitecturas Glassbox (cajas transparentes):

  • Regresiones Lineales o Logísticas generalizadas (GAMs).

  • Árboles de decisión (Decision Trees).

  • Modelos basados en reglas.

    Estos modelos son interpretables por diseño, lo que simplifica drásticamente el cumplimiento de la documentación técnica y los registros exigidos por la normativa europea.


3. Auditoría de Sesgos y Rendimiento (Métricas de Solidez)

El AI Act (Art. 15) exige precisión, solidez y ciberseguridad a lo largo de todo el ciclo de vida. Durante tu auditoría legacy, debes evaluar:

  1. Imparcialidad (Fairness): Calcula métricas como el Disparate Impact o la Equal Opportunity Difference sobre variables protegidas (género, etnia) presentes en los datos históricos con los que se entrenó el modelo.

  2. Calidad de Datos: Examina el conjunto de datos de entrenamiento pre-2024. ¿Se utilizaron datos anónimos o incluyen PII (Información de Identificación Personal) oculta?

  3. Vulnerabilidades: Los modelos antiguos raramente pasaron por pruebas de Adversarial Machine Learning (ej. envenenamiento de datos o evasión).


4. Gobernanza y MLOps: Hacia una IA Responsable por Diseño

El objetivo final de auditar tus algoritmos heredados no es solo redactar un informe, sino integrar estos modelos en un marco de gobierno moderno.

  • Sistemas de Gestión (ISO 42001): Implementa un Sistema de Gestión de IA que defina políticas claras, responsabilidades y procesos de evaluación de impacto ético.

  • Integración MLOps: Despliega herramientas de monitoreo continuo. Si un modelo legacy se audita y se mantiene, debe conectarse a un pipeline que alerte automáticamente si la precisión cae por debajo de los umbrales aceptables o si el nivel de sesgo aumenta.

  • Vigilancia Humana (Human-in-the-loop): Todo modelo legacy en entornos críticos debe ser modificado a nivel de interfaz de usuario para garantizar que un operador humano pueda descartar, invalidar o revertir los resultados (requisito del Art. 14 del AI Act).



Los algoritmos predictivos creados antes de 2024 no son intocables. Dejarlos operar en las sombras bajo la excusa de que "si funciona, no lo toques" es una negligencia que expone a la empresa a multas millonarias (similares a las del RGPD), daños reputacionales y decisiones operativas sesgadas.

Auditar y someter tus modelos legacy a procesos de XAI e IA Responsable es una oportunidad estratégica. No solo te alineará con el marco jurídico más avanzado del mundo, sino que transformará el recelo hacia la "caja negra" en confianza verificable, tanto para tus empleados como para tus clientes.

La era del "Machine Learning a ciegas" ha terminado. Es hora de encender las luces.



"¿Por qué esta magnífica tecnología científica, que ahorra trabajo y nos hace la vida mas fácil, nos aporta tan poca felicidad? La repuesta es esta, simplemente: porque aún no hemos aprendido a usarla con tino." (Albert Einstein)

Comentarios