Defensa de tesis: 'Nuevos Métodos para la Construcción y Explicación de Redes Bayesianas utilizando Lenguaje Natural'

Mi investigación de doctorado avanza la IA Explicable (XAI) para Redes Bayesianas (BNs) al mejorar su construcción, explicación de inferencias y confianza del usuario. Realicé la primera revisión sistemática de la reutilización de BNs, revelando importantes lagunas en la reutilización. Para abordar el aprendizaje de estructuras, desarrollé CausalGraphBench, un banco de pruebas que evalúa la construcción de BNs impulsada por Modelos de Lenguaje Grande. Para la explicación de inferencias, introduje el marco Factor Argument, que mejora las explicaciones en lenguaje natural y fue validado en el ámbito médico. Finalmente, en un estudio de caso, apliqué la construcción de BNs impulsada por LLM, generé explicaciones para usuarios reales y recopilé comentarios.

  • Supervisor: Alberto Bugarín