Desarrollo de un Sistema de Mejora del Rendimiento de Grandes Modelos de Lenguaje Mediante Técnicas de Ensamble

Fernández Villasante, Miguel (2025). Desarrollo de un Sistema de Mejora del Rendimiento de Grandes Modelos de Lenguaje Mediante Técnicas de Ensamble. Trabajo Fin de Grado / Proyecto Fin de Carrera, E.T.S.I. Telecomunicación (UPM).

Descripción

Título: Desarrollo de un Sistema de Mejora del Rendimiento de Grandes Modelos de Lenguaje Mediante Técnicas de Ensamble
Autor/es:
  • Fernández Villasante, Miguel
Director/es:
Tipo de Documento: Trabajo Fin de Grado o Proyecto Fin de Carrera
Grado: Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación
Fecha: Julio 2025
Materias:
ODS:
Escuela: E.T.S.I. Telecomunicación (UPM)
Departamento: Ingeniería Telemática y Electrónica
Licencias Creative Commons: Reconocimiento - No comercial

Texto completo

[thumbnail of main.pdf] PDF (Portable Document Format) - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (4MB)

Resumen

Un modelo de lenguaje a gran escala (LLM) es una red neuronal con miles de millones de parámetros, entrenada en grandes volúmenes de texto mediante aprendizaje autosupervisado o semisupervisado. Su capacidad para comprender y generar lenguaje natural lo hace clave en aplicaciones como traducción, generación de contenido y análisis de texto. Su importancia radica en su potencial para automatizar procesos, mejorar la eficiencia en diversas industrias y hacer más accesible la información, facilitando la comunicación y el aprendizaje en múltiples idiomas y disciplinas. El Stacking es un método de ensamble de modelos en el que se combinan múltiples modelos base (de diferentes tipos o del mismo tipo con distintas configuraciones) y sus predicciones se usan como entrada para un modelo de nivel superior, llamado meta-modelo o meta-learner. Este modelo final aprende a combinar las predicciones de los modelos base para mejorar la precisión general. El presente TFG tiene como objetivo entrenar un meta-modelo de inteligencia artificial que supere en rendimiento a los grandes modelos de lenguaje disponibles en la actualidad. Para ello, se utilizarán estrategias de ensamble de modelos existentes. El modelo propuesto será evaluado con datasets como MMLU, MMLU-pro o TELE-IA.

Más información

ID de Registro: 90388
Identificador DC: https://oa.upm.es/90388/
Identificador OAI: oai:oa.upm.es:90388
Depositado por: Miguel Fernández Villasante
Depositado el: 20 Ago 2025 14:32
Ultima Modificación: 20 Ago 2025 14:32