Full text
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
![]() |
Archive (ZIP)
- Users in campus UPM only
Download (35MB) |
Cano Fernández, Javier (2019). Captura de características de comportamiento para identificación biométrica. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. y Sistemas de Telecomunicación (UPM), Madrid.
Title: | Captura de características de comportamiento para identificación biométrica |
---|---|
Author/s: |
|
Contributor/s: |
|
Item Type: | Final Project |
Degree: | Grado en Ingeniería de Sistemas de Telecomunicación |
Date: | 19 July 2019 |
Subjects: | |
Freetext Keywords: | Biometría |
Faculty: | E.T.S.I. y Sistemas de Telecomunicación (UPM) |
Department: | Ingeniería Telemática y Electrónica |
Creative Commons Licenses: | Recognition - No derivative works - Non commercial |
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
![]() |
Archive (ZIP)
- Users in campus UPM only
Download (35MB) |
El objeto del presente proyecto es la obtención de características específicas basadas en la forma de caminar de una persona para su posterior uso en identificación biométrica. La extracción experimental de características de comportamiento se realiza usando una aplicación en Android. Para extraer características de un sujeto, se deberá primeramente registrar introduciendo los datos que definen una captura: identificador anónimo, la edad y el sexo. Durante el transcurso de una captura el usuario debe tener el dispositivo móvil en el bolsillo y caminar en línea recta. Al mismo tiempo la aplicación guarda muestras de la aceleración en cada eje espacial (X, Y, Z) y el instante de tiempo en el que se toma cada muestra. Al finalizar la captura la aplicación intenta conectar mediante Internet con un repositorio de capturas. De no poder hacerlo los datos de la captura se guardan en un fichero del dispositivo móvil, garantizando al usuario que pueda enviar los datos al repositorio en otro momento mediante una opción de envío que se activará si existen datos almacenados en el teléfono pertenecientes a una captura. Una vez construido el repositorio de capturas, se procede a realizar la clasificación de las mismas para la identificación biométrica. Primeramente, los datos son pre-procesados en Matlab: re-muestreo, técnicas de separación de bloques, etc. A continuación, se extraen observaciones mediante: Características fiduciales: media, varianza, asimetría, curtosis, tasa de cruce por la media y energía; Características no fiduciales: usando el método autocorrelación y transformada discreta del coseno (AC-DCT). Una vez extraídas las observaciones, se utiliza un clasificador que permite la identificación biométrica. Para hallar la tasa de acierto del clasificador se utiliza la medida de True Positive Rate (TPR). Por último, para hacer una comparativa de los resultados obtenidos del repositorio de capturas generada se utiliza como referencia alternativa la base de datos accesible ZjugaitAcc. Abstract: The aim of this project is to obtain specific features based on the way of walking. The experimental extraction of behavioural features is performed by an application in Android. To extract subject features, users must first register by filling all the data out related with a capture: user ID, age and gender. While a capture is running, users must have mobile phone in their pocket and walk straight. At the same time, the application saves acceleration samples of each spatial axis (X, Y, Z) and the time in which samples are saved. At the end of a capture the application tries to connect to the repository via Internet. If data cannot be sent to repository the application saves the capture data in a file and ensures to user the choice of send his data later. Once repository is built, next step is capture classification. Firstly, capture data are pre-processed in Matlab: resampling, blocks separation techniques, etc. Secondly, observations are extracted by: Fiducial features: mean, variance, skewness, kurtosis, mean crossing rate and energy; No Fiducial features: applying autocorrelation and discrete cosine transform method (AC-DCT). Once features are extracted from subjects, a classifier is used to biometric identification. To compute identification rate, a True Positive Rate (TPR) is used as a measure. Finally, in order to compare results, an open source data base ZJU-GaitAcc is used in this project.
Item ID: | 56640 |
---|---|
DC Identifier: | https://oa.upm.es/56640/ |
OAI Identifier: | oai:oa.upm.es:56640 |
Deposited by: | Biblioteca Universitaria Campus Sur |
Deposited on: | 02 Oct 2019 13:27 |
Last Modified: | 02 Oct 2019 13:27 |