Auditoría de Algoritmos "Legacy": Qué hacer con los modelos predictivos pre-2024 que hoy son cajas negras
Durante la última década, las organizaciones se lanzaron a una carrera frenética por adoptar el aprendizaje automático (Machine Learning). El objetivo era claro: extraer valor de los datos a cualquier precio. Esto dio lugar a la creación de miles de modelos predictivos —desde scorings crediticios y sistemas de recomendación hasta algoritmos de selección de personal o detección de fraude— desarrollados antes de 2024 . Hoy, muchos de estos modelos siguen en producción, pero se han convertido en un riesgo silencioso. Son "cajas negras" (black boxes): sistemas complejos donde ni los propios desarrolladores pueden explicar con certeza por qué el algoritmo toma una decisión específica. Con la entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) en 2024, el escenario ha cambiado drásticamente. La opacidad ya no es solo un problema técnico; es un riesgo legal y de negocio. Aunque el AI Act contempla periodos transitorios para sistemas "legacy", cua...