Texto completo
|
PDF (Portable Document Format)
- Acceso permitido solamente a usuarios en el campus de la UPM
- Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (3MB) |
| Título: | LLMProfiler: Herramienta para la caracterización del despliegue de LLMs |
|---|---|
| Autor/es: |
|
| Director/es: |
|
| Tipo de Documento: | Trabajo Fin de Grado o Proyecto Fin de Carrera |
| Grado: | Grado en Ingeniería del Software |
| Fecha: | 18 Julio 2025 |
| Materias: | |
| ODS: | |
| Palabras Clave Informales: | Large language models (LLMs); Inteligencia artificial (IA); Ollama; Prometheus |
| Escuela: | E.T.S.I. de Sistemas Informáticos (UPM) |
| Departamento: | Sistemas Informáticos |
| Licencias Creative Commons: | Reconocimiento - Sin obra derivada - No comercial |
|
PDF (Portable Document Format)
- Acceso permitido solamente a usuarios en el campus de la UPM
- Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (3MB) |
Este Trabajo de Fin de Grado se enmarca en el ámbito de la inteligencia artificial (IA) y se ha enfocado principalmente como un proyecto de investigación. El objetivo principal ha sido analizar el coste y el rendimiento de los modelos de lenguaje de gran taman o (LLMs) ejecutados en entornos locales (on-premise) frente a soluciones en la nube (cloud).
Durante las primeras etapas del proyecto, se realizó un estudio de diferentes repositorios y herramientas existentes con la intención de extender alguna de ellas para adaptarla a los objetivos planteados. Sin embargo, tras evaluar sus limitaciones, se optó por desarrollar una herramienta propia: LLMProfiler.
LLMProfiler permite conectarse a un sistema bajo prueba (System Under Test, SUT), instalar automáticamente el entorno necesario para trabajar con distintos LLMs, y monitorizar el comportamiento del sistema mientras se ejecutan una serie de prompts. A través de herramientas como Ollama y Prometheus, la aplicación proporciona me tricas detalladas que permiten comparar el rendimiento de los modelos en diferentes contextos.
Este proyecto no solo ha permitido extraer conclusiones relevantes sobre la ejecución de LLMs, sino que también ha supuesto una valiosa oportunidad de aprendizaje en a reas como la monitorización de sistemas, la automatización con Bash, el uso de modelos de IA y el diseño de interfaces interactivas con Streamlit.
Abstract:
This Bachelor's Thesis focuses on the field of artificial intelligence (AI) and has been approached primarily as a research-oriented project. The main objective has been to analyze the cost and performance trade-offs of running large language models (LLMs) locally (on-premise) versus using cloud-based solutions.
In the early stages of the project, several existing repositories and tools were explored with the aim of extending them to fit our goals. However, due to their limitations, we ultimately decided to develop our own tool: LLMProfiler.
LLMProfiler connects to a System Under Test (SUT), installs the necessary components to work with different LLMs, and collects detailed system metrics while executing a series of prompts.
Leveraging tools such as Ollama and Prometheus, the application provides insights into the system's behavior during LLM execution.
This project not only delivers relevant conclusions about LLM deployment strategies, but it has also been an enriching learning experience in areas such as system monitoring, automation with Bash, artificial intelligence workflows, and interactive interface design using Streamlit.
| ID de Registro: | 91267 |
|---|---|
| Identificador DC: | https://oa.upm.es/91267/ |
| Identificador OAI: | oai:oa.upm.es:91267 |
| Depositado por: | Biblioteca Universitaria Campus Sur |
| Depositado el: | 03 Oct 2025 05:35 |
| Ultima Modificación: | 03 Oct 2025 05:35 |
Publicar en el Archivo Digital desde el Portal Científico