Full text
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
Barrera Parissaki, Sebastián (2019). Desarrollo e implementación de una arquitectura hardware para el cálculo de mapas de profundidad para visión estereoscópica. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. Industriales (UPM).
Title: | Desarrollo e implementación de una arquitectura hardware para el cálculo de mapas de profundidad para visión estereoscópica |
---|---|
Author/s: |
|
Contributor/s: |
|
Item Type: | Final Project |
Degree: | Grado en Ingeniería en Tecnologías Industriales |
Date: | June 2019 |
Subjects: | |
Faculty: | E.T.S.I. Industriales (UPM) |
Department: | Automática, Ingeniería Eléctrica y Electrónica e Informática Industrial |
Creative Commons Licenses: | Recognition - No derivative works - Non commercial |
Preview |
PDF
- Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (2MB) | Preview |
La visión 3D es una herramienta muy útil en variedad de procesos. Para obtener la profundidad de una escena se usan distintas aproximaciones. Existen distintos sensores con ventajas y desventajas propias. Sin embargo, el más común y de más amplia utilización es el de passive imaging, basado en tomar una foto con dos cámaras y comparar estas fotos. Al saber los parámetros de las cámaras (distancia que las separa), si se calcula la disparidad entre las imágenes se puede calcular también la distancia a la que se encuentran los objetos. La disparidad se puede definir como las diferencias relativas en posición de cada imagen. Para definir la disparidad en un par de imágenes se ejecuta un proceso de tres pasos: 1. Se selecciona un punto característico de un objeto en una de las imágenes. 2. Se encuentra el mismo punto característico en la otra imagen. 3. Se mide la diferencia relativa (disparidad) entre la posición de estos puntos. En este proyecto se repetirá este proceso para todos los puntos de la imagen. Para esto se utilizará un algoritmo que constará de tres partes bien definidas: 1. La transformada de Census Se compara cuantitativamente cada píxel con los que tiene a su alrededor en una ventana de 9×7. Se mide el valor del píxel central en intensidad y después se compara si es mayor o menor que el resto uno a uno. Según si lo es o no se escribe un 1 o un 0 que se concatena al ir comparando con todos los píxeles. El resultado final es un vector de (9×7)−1=62 componentes binarias. Se resta uno debido a que no se compara el píxel central consigo mismo. Acto seguido se repite este proceso para todos los píxeles de la imagen. 2. El cubo de distancia Hamming La distancia Hamming es definida como el número de caracteres distintos entre dos cadenas. En este caso esto es lo mismo que el número de bits distintos entre dos vectores std_logic_vector. Estos son las salidas de las transformadas Census para las imágenes de la izquierda y de la derecha. Con esto se creará el llamado cubo de Hamming. 3. La agregación de costes por semi global matching. Esta última parte tendrá como objetivo sumar los costes de cada disparidad para cada píxel. Esto sirve para evitar la propagación de errores y correspondencias incorrectas o no únicas.
Item ID: | 55959 |
---|---|
DC Identifier: | https://oa.upm.es/55959/ |
OAI Identifier: | oai:oa.upm.es:55959 |
Deposited by: | Biblioteca ETSI Industriales |
Deposited on: | 03 Sep 2019 07:30 |
Last Modified: | 24 Sep 2019 22:30 |