Estudio de simulación con R para una mejor comprensión de los modelos multicapa

Torán Sierra, Rodrigo (2017). Estudio de simulación con R para una mejor comprensión de los modelos multicapa. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. Industriales (UPM).

Descripción

Título: Estudio de simulación con R para una mejor comprensión de los modelos multicapa
Autor/es:
  • Torán Sierra, Rodrigo
Director/es:
  • Mira Mcwilliams, José Manuel
Tipo de Documento: Proyecto Fin de Carrera/Grado
Grado: Grado en Ingeniería en Tecnologías Industriales
Fecha: Septiembre 2017
Materias:
Palabras Clave Informales: aprendizaje automático, aprendizaje supervisado, redes neuronales, deep learning, backpropagation, clasificación, salida lineal, learning rate
Escuela: E.T.S.I. Industriales (UPM)
Departamento: Ingeniería de Organización, Administración de Empresas y Estadística
Licencias Creative Commons: Reconocimiento - Sin obra derivada - No comercial

Texto completo

[img]
Vista Previa
PDF (Document Portable Format) - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (2MB) | Vista Previa

Resumen

Este Trabajo Final de Grado tiene como objetivo la realización de una serie de experimentos computacionales que nos ilustren sobre el funcionamiento de las redes neuronales y la influencia de la arquitectura de las mismas en tareas de clasificación. Se estudiará por lo tanto el beneficio que pueda aportar el añadir una capa oculta más a la estructura de la red. Las simulaciones se harán con diferentes casos a clasificar, que pueden ser más o menos complicados de hacer. Descripción de las redes neuronales. Las redes neuronales son sistemas computacionales de aprendizaje basados en el funcionamiento de las redes neuronales biológicas, presentes en el cerebro de los animales. Están construidas a partir de una serie de nodos llamados “neuronas” que se organizan en forma de capas. Tiene que haber una capa de entrada, una capa de salida y por lo menos una capa intermedia o “capa oculta”. La capa de entrada debe tener tantas neuronas como variables de entrada tenga el sistema que estamos tratando de modelar, y la capa de salida debe tener tantas neuronas como variables que estemos intentando predecir. La capa de salida puede tener salida continua, para problemas de regresión, o discreta, para problemas de clasificación. En cuanto a las capas ocultas, sus neuronas realizan transformaciones no lineales sobre la información que los atraviesa mediante una función de activación. Hay muchas clases de funciones de activación, pero muchas de ellas son tales que su salida posible varía entre 0 y 1. Esto hace que según si la información que entra a la neurona supera un valor umbral, esta se activa o no. Básicamente, la tarea de la neurona es realizar una suma ponderada de todas las entradas que tiene y aplicarle una función de activación para luego pasar el resultado a las neuronas de la siguiente capa, que a su vez repetirán el proceso. El buen funcionamiento de las redes neuronales se basa en su entrenamiento, es decir, de la correcta asignación de valores a los pesos aplicados sobre las entradas de cada neurona con el fin de que se obtenga de la red el resultado deseado. Las tres formas de aprendizaje para las que se utiliza una red neuronal son aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. En este TFG nos centramos en el aprendizaje supervisado. El aprendizaje supervisado se basa en la alimentación de la red con datos “etiquetados” (con los valores de salida correctos para unos datos de entrada concretos) de forma que la red va modificando iterativamente sus pesos internos mediante un algoritmo, con el objetivo de minimizar una cierta función de coste basada en el error de predicción que comete la red neuronal. Existen muchos algoritmos utilizados para el entrenamiento de una red neuronal, pero el más utilizado es la retropropagacion o backpropagation y es el que utilizaremos nosotros. Los datos a clasificar. Como se ha mencionado, se desea ver como varia el rendimiento de las redes neuronales al añadir una capa oculta para tareas de clasificación. Pero algunas tareas de clasificación son más sencillas que otras. Para reflejar esto, intentaremos clasificar tres casos distintos. Los tres consisten en puntos del plano con coordenadas de x e y entre 0 y 1, a los cuales se les asigna una entre dos clases según la región que ocupen. Los modelos. Para clasificar estos datos, se van a entrenar una serie de redes neuronales. Se entrenarán redes con salida lineal o no lineal, y dentro de estos criterios se entrenarán redes con, o bien, una o dos capas ocultas. De los modelos de dos capas se realizarán dos variantes.Estos en realidad son ejemplos de los tipos de redes neuronales que se van a entrenar, ya que en realidad lo que se hará será, mediante un bucle, ir aumentando los nodos de tres arquitecturas bases, para así tener una visión de cómo afecta el número de nodos al rendimiento de las redes neuronales. Para cada una de estas posibilidades en cuanto a tipo de salida, arquitectura de la red, y numero de neuronas, realizaremos 10 replicaciones, con lo cual se estarían entrenando 600 modelos. Puesto que haremos todas estas simulaciones para los datos de los tres casos diferentes definidos en la página anterior, serían en total 1800 modelos a entrenar.

Más información

ID de Registro: 48949
Identificador DC: http://oa.upm.es/48949/
Identificador OAI: oai:oa.upm.es:48949
Depositado por: Biblioteca ETSI Industriales
Depositado el: 31 Dic 2017 09:26
Ultima Modificación: 31 Dic 2017 09:26
  • Open Access
  • Open Access
  • Sherpa-Romeo
    Compruebe si la revista anglosajona en la que ha publicado un artículo permite también su publicación en abierto.
  • Dulcinea
    Compruebe si la revista española en la que ha publicado un artículo permite también su publicación en abierto.
  • Recolecta
  • e-ciencia
  • Observatorio I+D+i UPM
  • OpenCourseWare UPM