Transformers para predicción de maniobras y trayectorias satelitales

Gallego Asensio, Nerea (2025). Transformers para predicción de maniobras y trayectorias satelitales. Trabajo Fin de Grado / Proyecto Fin de Carrera, E.T.S.I. de Sistemas Informáticos (UPM), Madrid.

Descripción

Título: Transformers para predicción de maniobras y trayectorias satelitales
Autor/es:
  • Gallego Asensio, Nerea
Director/es:
Tipo de Documento: Trabajo Fin de Grado o Proyecto Fin de Carrera
Grado: Grado en Ciencia de Datos e Inteligencia Artificial
Fecha: Junio 2025
Materias:
ODS:
Palabras Clave Informales: Predicción de series temporales; Satélites; ARIMA; Prophet; Transformers
Escuela: E.T.S.I. de Sistemas Informáticos (UPM)
Departamento: Matemática Aplicada a las Tecnologías de la Información y las Comunicaciones
Licencias Creative Commons: Reconocimiento - Sin obra derivada - No comercial

Texto completo

[thumbnail of TFG_NEREA_GALLEGO_ASENSIO.pdf] PDF (Portable Document Format) - Acceso permitido solamente a usuarios en el campus de la UPM - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (1MB)
[thumbnail of TFG_NEREA_GALLEGO_ASENSIO_ANEXOS.zip] Archivo comprimido ZIP - Acceso permitido solamente a usuarios en el campus de la UPM
Descargar (14MB)

Resumen

El proyecto presentará una explicación teórica de los distintos modelos implementados en el proyecto, con el objetivo de comprender sus características y el valor que pueden aportar al objetivo planteado. Se comenzará con el método numérico, indagando en su funcionamiento y en los tres integradores más populares de la industria. Conocer en profundidad este método permite entender, a su vez, la necesidad que dio origen al proyecto. Posteriormente, se analizarán los modelos ARIMA, SARIMAX y Prophet, con la intención de desglosar sus componentes y sus casos de uso.

Después, se profundizará en el bloque central del proyecto, la arquitectura Transformer. En su correspondiente subsección se explicará su funcionamiento interno, las necesidades que motivaron su desarrollo, los ámbitos en los que destaca y, finalmente, se abordará su concepto fundamental: el mecanismo de atención. Una vez comprendida esta arquitectura, se indagará en los dos modelos que se implementan en el proyecto basados en la misma, PatchTST e Informer. Ambos modelos, especializados en la predicción de series temporales, introducen mejoras sobre la arquitectura Transformer base.

Más información

ID de Registro: 89448
Identificador DC: https://oa.upm.es/89448/
Identificador OAI: oai:oa.upm.es:89448
Depositado por: Biblioteca Universitaria Campus Sur
Depositado el: 14 Jun 2025 08:31
Ultima Modificación: 14 Jun 2025 08:31