Estudio de simulación con R para una mejor comprensión de los modelos multicapa

Torán Sierra, Rodrigo (2017). Estudio de simulación con R para una mejor comprensión de los modelos multicapa. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. Industriales (UPM).

Description

Title: Estudio de simulación con R para una mejor comprensión de los modelos multicapa
Author/s:
  • Torán Sierra, Rodrigo
Contributor/s:
  • Mira Mcwilliams, José Manuel
Item Type: Final Project
Degree: Grado en Ingeniería en Tecnologías Industriales
Date: September 2017
Subjects:
Freetext Keywords: aprendizaje automático, aprendizaje supervisado, redes neuronales, deep learning, backpropagation, clasificación, salida lineal, learning rate
Faculty: E.T.S.I. Industriales (UPM)
Department: Ingeniería de Organización, Administración de Empresas y Estadística
Creative Commons Licenses: Recognition - No derivative works - Non commercial

Full text

[img]
Preview
PDF - Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (1MB) | Preview

Abstract

Este Trabajo Final de Grado tiene como objetivo la realización de una serie de experimentos computacionales que nos ilustren sobre el funcionamiento de las redes neuronales y la influencia de la arquitectura de las mismas en tareas de clasificación. Se estudiará por lo tanto el beneficio que pueda aportar el añadir una capa oculta más a la estructura de la red. Las simulaciones se harán con diferentes casos a clasificar, que pueden ser más o menos complicados de hacer. Descripción de las redes neuronales. Las redes neuronales son sistemas computacionales de aprendizaje basados en el funcionamiento de las redes neuronales biológicas, presentes en el cerebro de los animales. Están construidas a partir de una serie de nodos llamados “neuronas” que se organizan en forma de capas. Tiene que haber una capa de entrada, una capa de salida y por lo menos una capa intermedia o “capa oculta”. La capa de entrada debe tener tantas neuronas como variables de entrada tenga el sistema que estamos tratando de modelar, y la capa de salida debe tener tantas neuronas como variables que estemos intentando predecir. La capa de salida puede tener salida continua, para problemas de regresión, o discreta, para problemas de clasificación. En cuanto a las capas ocultas, sus neuronas realizan transformaciones no lineales sobre la información que los atraviesa mediante una función de activación. Hay muchas clases de funciones de activación, pero muchas de ellas son tales que su salida posible varía entre 0 y 1. Esto hace que según si la información que entra a la neurona supera un valor umbral, esta se activa o no. Básicamente, la tarea de la neurona es realizar una suma ponderada de todas las entradas que tiene y aplicarle una función de activación para luego pasar el resultado a las neuronas de la siguiente capa, que a su vez repetirán el proceso. El buen funcionamiento de las redes neuronales se basa en su entrenamiento, es decir, de la correcta asignación de valores a los pesos aplicados sobre las entradas de cada neurona con el fin de que se obtenga de la red el resultado deseado. Las tres formas de aprendizaje para las que se utiliza una red neuronal son aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. En este TFG nos centramos en el aprendizaje supervisado. El aprendizaje supervisado se basa en la alimentación de la red con datos “etiquetados” (con los valores de salida correctos para unos datos de entrada concretos) de forma que la red va modificando iterativamente sus pesos internos mediante un algoritmo, con el objetivo de minimizar una cierta función de coste basada en el error de predicción que comete la red neuronal. Existen muchos algoritmos utilizados para el entrenamiento de una red neuronal, pero el más utilizado es la retropropagacion o backpropagation y es el que utilizaremos nosotros. Los datos a clasificar. Como se ha mencionado, se desea ver como varia el rendimiento de las redes neuronales al añadir una capa oculta para tareas de clasificación. Pero algunas tareas de clasificación son más sencillas que otras. Para reflejar esto, intentaremos clasificar tres casos distintos. Los tres consisten en puntos del plano con coordenadas de x e y entre 0 y 1, a los cuales se les asigna una entre dos clases según la región que ocupen. Los modelos. Para clasificar estos datos, se van a entrenar una serie de redes neuronales. Se entrenarán redes con salida lineal o no lineal, y dentro de estos criterios se entrenarán redes con, o bien, una o dos capas ocultas. De los modelos de dos capas se realizarán dos variantes.Estos en realidad son ejemplos de los tipos de redes neuronales que se van a entrenar, ya que en realidad lo que se hará será, mediante un bucle, ir aumentando los nodos de tres arquitecturas bases, para así tener una visión de cómo afecta el número de nodos al rendimiento de las redes neuronales. Para cada una de estas posibilidades en cuanto a tipo de salida, arquitectura de la red, y numero de neuronas, realizaremos 10 replicaciones, con lo cual se estarían entrenando 600 modelos. Puesto que haremos todas estas simulaciones para los datos de los tres casos diferentes definidos en la página anterior, serían en total 1800 modelos a entrenar.

More information

Item ID: 48949
DC Identifier: http://oa.upm.es/48949/
OAI Identifier: oai:oa.upm.es:48949
Deposited by: Biblioteca ETSI Industriales
Deposited on: 31 Dec 2017 09:26
Last Modified: 26 Apr 2018 10:21
  • Logo InvestigaM (UPM)
  • Logo GEOUP4
  • Logo Open Access
  • Open Access
  • Logo Sherpa/Romeo
    Check whether the anglo-saxon journal in which you have published an article allows you to also publish it under open access.
  • Logo Dulcinea
    Check whether the spanish journal in which you have published an article allows you to also publish it under open access.
  • Logo de Recolecta
  • Logo del Observatorio I+D+i UPM
  • Logo de OpenCourseWare UPM