Full text
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
Zamorano Graña, Yerai (2017). Design and development of an application service to visualize facial expressions recorded by a wearable device. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S. de Ingenieros Informáticos (UPM), Madrid, España.
Title: | Design and development of an application service to visualize facial expressions recorded by a wearable device |
---|---|
Author/s: |
|
Contributor/s: |
|
Item Type: | Final Project |
Degree: | Grado en Ingeniería Informática |
Date: | August 2017 |
Subjects: | |
Faculty: | E.T.S. de Ingenieros Informáticos (UPM) |
Department: | Otro |
Creative Commons Licenses: | Recognition - No derivative works - Non commercial |
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
Este proyecto consiste en diseñar y desarrollar una aplicación multiplataforma cuyas principales funciones son las de clasificar, almacenar y mostrar distintas expresiones faciales que han sido obtenidas gracias a un dispositivo “wearable”. Este dispositivo ha sido desarrollado por el laboratorio “Interactive Media Lab” perteneciente a la Universidad de Keio y es el encargado de medir la distancia entre los músculos faciales del usuario y el “wearable”. Con esta distancia, la aplicación utiliza inteligencia artificial para clasificar la información en una de las ocho posibles expresiones faciales que, una vez clasificadas, son almacenadas en una base de datos. Haciendo uso de esta base de datos, los usuarios de la aplicación pueden visualizar las expresiones faciales que han sido obtenidas gracias al “wearable”. La visualización puede darse de dos formas: basándose en el momento en el que la información fue obtenida, proveyendo en este caso al usuario de estadísticas sobre dichas expresiones faciales o basándose en el lugar donde se obtuvo la información, disponiendo al usuario de un mapa interactivo donde consultarlas.---ABSTRACT---This project consists of designing and developing a cross-platform application service. The main functions of this application service are to classify, store and display facial expressions recorded by a wearable device. This device, developed by the Interactive Media Lab at Keio University, records the distance between the user’s face and the wearable. With this information, the application uses machine learning to classify the data into one of the eight possible facial expressions that can be recorded and stores it in a database. Using this database, users can access the application to visualize their recorded facial expressions. This visualization can be done in two ways: using a time-based localization, providing users with statistics, or using a location-based visualization, providing users with an interactive map.
Item ID: | 54943 |
---|---|
DC Identifier: | https://oa.upm.es/54943/ |
OAI Identifier: | oai:oa.upm.es:54943 |
Deposited by: | Biblioteca Facultad de Informatica |
Deposited on: | 10 May 2019 10:00 |
Last Modified: | 10 May 2019 10:03 |