Desarrollo de un visor de "free-viewpoint video" sobre gafas de realidad virtual

Sancho Aragón, Jaime (2017). Desarrollo de un visor de "free-viewpoint video" sobre gafas de realidad virtual. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. Telecomunicación (UPM), Madrid.

Descripción

Título: Desarrollo de un visor de "free-viewpoint video" sobre gafas de realidad virtual
Autor/es:
  • Sancho Aragón, Jaime
Director/es:
  • Morán Burgos, Francisco
Tipo de Documento: Proyecto Fin de Carrera/Grado
Grado: Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación
Fecha: 2017
Materias:
Palabras Clave Informales: Free-viewpoint video, FVV, DIBR, Realidad Virtual, HTV Vive, CUDA
Escuela: E.T.S.I. Telecomunicación (UPM)
Departamento: Señales, Sistemas y Radiocomunicaciones
Licencias Creative Commons: Reconocimiento - Sin obra derivada - No comercial

Texto completo

[img]
Vista Previa
PDF (Document Portable Format) - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (3MB) | Vista Previa

Resumen

En los últimos años, el contenido multimedia ha empezado a evolucionar de tal forma que el usuario participa activamente en la visualización. El nacimiento de tecnologías como el vídeo en 360° y el “Free-viewpoint video” permiten al espectador moverse por la escena para contemplarla desde su punto de vista favorito. Este tipo de tecnologías representan un reto en toda la cadena de producción del contenido; desde la captación hasta la visualización. El “Free-viewpoint video” consiste en la generación de imágenes virtuales de una escena en tres dimensiones real y observada desde un punto de vista libre elegido por el usuario, a partir de imágenes de referencia captadas por cámaras situadas en la escena real. Las imágenes de referencia son desproyectadas a un espacio tridimensional utilizando su información de profundidad para crear una nube de puntos que se proyectará en la posición de la cámara virtual, obteniendo así las imágenes virtuales. Este trabajo de fin de grado busca la implementación de dicho algoritmo en las gafas de realidad virtual HTC Vive. Se ha elegido este dispositivo por la naturalidad que ofrece a la hora de visualizar la escena. Gracias a él, es posible ver la escena desde cualquier punto de vista únicamente moviendo la cabeza o moviéndose como se haría en la vida real. Para llevar a cabo esta implementación, se ha de tener en cuenta el alto coste computacional que supone operar con todos los píxeles de varias imágenes de referencia y la baja latencia requerida para que las imágenes se generen al ritmo que el usuario mueve la cabeza. Todo ello, unido al alto grado de paralelismo que supone trabajar con píxeles, conduce inevitablemente a un modelo de programación paralela basado en la GPU.

Más información

ID de Registro: 47627
Identificador DC: http://oa.upm.es/47627/
Identificador OAI: oai:oa.upm.es:47627
Depositado por: Biblioteca ETSI Telecomunicación
Depositado el: 04 Sep 2017 06:33
Ultima Modificación: 04 Sep 2017 06:33
  • Open Access
  • Open Access
  • Sherpa-Romeo
    Compruebe si la revista anglosajona en la que ha publicado un artículo permite también su publicación en abierto.
  • Dulcinea
    Compruebe si la revista española en la que ha publicado un artículo permite también su publicación en abierto.
  • Recolecta
  • e-ciencia
  • Observatorio I+D+i UPM
  • OpenCourseWare UPM