Automatización de métodos de validación de explicaciones para modelos de aprendizaje automático: un estudio observacional de la relación entre robustez y precisión

Rac Raican, Stefania Georgia (2025). Automatización de métodos de validación de explicaciones para modelos de aprendizaje automático: un estudio observacional de la relación entre robustez y precisión. Trabajo Fin de Grado / Proyecto Fin de Carrera, E.T.S. de Ingenieros Informáticos (UPM), Boadilla del Monte.

Descripción

Título: Automatización de métodos de validación de explicaciones para modelos de aprendizaje automático: un estudio observacional de la relación entre robustez y precisión
Autor/es:
  • Rac Raican, Stefania Georgia
Director/es:
Tipo de Documento: Trabajo Fin de Grado o Proyecto Fin de Carrera
Grado: Grado en Ciencia de Datos e Inteligencia Artificial
Fecha: Julio 2025
Materias:
ODS:
Escuela: E.T.S. de Ingenieros Informáticos (UPM)
Departamento: Inteligencia Artificial
Licencias Creative Commons: Reconocimiento - Sin obra derivada - No comercial

Texto completo

[thumbnail of STEFANIA_GEORGIA_RAC_RAICAN_TFG.pdf] PDF (Portable Document Format) - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (1MB)

Resumen

La Inteligencia Artificial eXplicable (IAX) es un área emergente que busca mejorar la transparencia de los modelos de aprendizaje automático, abordando desafíos como la explicabilidad, la robustez y la gestión de sesgos. Este campo es esencial para proporcionar explicaciones comprensibles sobre como los modelos toman decisiones, lo cual es crucial tanto en aplicaciones críticas como en el cumplimiento de normativas de transparencia.

Este trabajo se basa en una metodología propuesta para validación de explicaciones, pero enfocado en evaluar específicamente la relación entre la precisión de un modelo y la robustez de las explicaciones generadas mediante técnicas de IAX post-hoc, como SHAP y LIME, que son agnósticas al modelo. A través de un enfoque experimental y observacional, se estudia como los cambios en la precisión del modelo afectan a la estabilidad y fidelidad de las explicaciones proporcionadas. Se emplean tres modelos de aprendizaje automático aplicados a problemas de clasificación binaria, y se introduce ruido controlado en los datos para simular diferentes niveles de precisión, evaluando cómo estas alteraciones impactan las explicaciones generadas. La metodología permite la validación sistemática de explicaciones de modelos complejos.

ABSTRACT

eXplainable Artificial Intelligence (XAI) is an emerging field that aims to improve the transparency of machine learning models by addressing challenges such as explainability, robustness and bias management. This field is essential for providing understandable explanations of how models make decisions, which is crucial in both critical applications and compliance with transparency regulations.

This work is based on a proposed methodology for explanation validation but focuses on specifically evaluating the relationship between the accuracy of a model and the robustness of explanations generated using post-hoc IAX techniques, such as SHAP and LIME, which are model-agnostic. Through an experimental and observational approach, we study how changes in model accuracy affect the stability and fidelity of the explanations provided. Three machine learning models applied to binary classification problems are used, and controlled noise is introduced into the data to simulate different levels of accuracy, evaluating how these alterations impact the explanations generated. The methodology allows the systematic validation of complex model explanations.

Más información

ID de Registro: 91559
Identificador DC: https://oa.upm.es/91559/
Identificador OAI: oai:oa.upm.es:91559
Depositado por: Biblioteca Facultad de Informatica
Depositado el: 21 Oct 2025 09:52
Ultima Modificación: 21 Oct 2025 09:52