Defensa de Tesis: 'Abriendo la caja negra de la IA: Avances en Inteligencia Artificial Explicable (XAI)'

La Inteligencia Artificial (IA) está transformando diversos sectores, pero muchos modelos avanzados funcionan como «cajas negras», tomando decisiones difíciles de interpretar. Esto plantea retos en términos de transparencia, confianza y responsabilidad, lo que subraya la necesidad de una IA más explicable.

Esta tesis aborda este problema desde la óptica de la Inteligencia Artificial eXplicable (XAI). Nuestro objetivo es explorar cómo los modelos transparentes pueden actuar como sistemas autoexplicativos y como herramientas para explicar el comportamiento de sistemas más complejos. Presentamos CNAM, un modelo que equilibra interpretabilidad y rendimiento, y nuevas métricas basadas en los valores de Shapley, como Shap Length y Shap Gap, para medir la complejidad del modelo y la fidelidad de la explicación. Desarrollamos los marcos TextFocus para evaluar la fidelidad de los métodos de explicación post-hoc. Demostramos el valor práctico de XAI a través de casos de uso en INDITEX, aplicando tanto modelos de caja blanca como explicaciones de caja negra para descubrir patrones complejos y mejorar la eficiencia y la transparencia en procesos clave.

Este trabajo representa un paso hacia la democratización de la IA, haciendo que los modelos complejos sean más accesibles, comprensibles y fiables, con el potencial de transformar la forma en que interactuamos con la IA y fomentar la innovación responsable.

Directores: José María Alonso Moral y Albert Gatt