EVALUACIÓN DE TÉCNICAS DE ESTIMACIÓN ÓPTICA DE MEDIDAS DE PROFUNDIDAD

J.E. Vivas, S.C. Imbachi, J.F. Florez Marulanda

Resumen


Se presenta un estudio comparativo de tres métodos de medición de profundidad por procesamiento óptico y digital de imágenes, analizando diferentes distancias a 0.67, 1.5, 2, 2.5, y 4 m de dos pares de sistemas de medición conformados por un sistema de visión estéreo, un escáner laser y un sistema de captación de movimiento integrado (Kinect), con el objetivo de conocer el adecuado rango de operación de cada sistema. Se observó que el de mayor precisión en la medida es el escáner laser con un error porcentual general del 1.38%.

Palabras clave: Medición, Profundidad, Procesamiento, Comparativo, Óptico.


Texto completo:

PDF

Referencias


Ballester, J., & Pheatt, C. (2013). Using the Xbox Kinect sensor for positional data acquisition. American Journal of Physics, 81(1), 71. http://doi.org/10.1119/1.4748853

Campbell, J., Sukthankar, R., & Nourbakhsh, I. (2004). Visual Odometry Using Commodity Optical Flow. Intelligent Robots and Systems (IROS), 1008–1009.

Lohmann, P., Koch, A., & Schaeffer, M. (2000). Approaches to the filtering of laser scanner data. International Archives of Photogrammetry and Remote Sensing, 33(B3/1; PART 3), 540–547.

Mandelbaum, R., McDowell, L., Bogoni, L., Reich, B., & Hansen, M. (1998). Real-time stereo processing, obstacle detection, and terrain estimation from vehicle-mounted stereo cameras. Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision. WACV’98, (1), 288–289. http://doi.org/10.1109/ACV.1998.732909

Matyunin, S., Vatolin, D., Berdnikov, Y., & Smirnov, M. (2011). Temporal filtering for depth maps generated by Kinect depth camera. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video, 3DTV-CON 2011 - Proceedings. http://doi.org/10.1109/3DTV.2011.5877202

Caballero Amaury, Velasco Gabriel, Pardo García A. (2013). DIFFERENTIATIONS OF OBJECTS IN DIFFUSE DATABASES. Revista colombiana de tecnologías de Avanzada. 2 (22). Pág. 131 – 137.

Revelo-Luna, D. A., Usama, F. D., & Flórez-Marulanda, J. F. (2012). Reconstrucción 3D de escenas mediante un sistema de visión estéreo basado en extracción de características y desarrollado en openCV. Ingenieria Y Universidad, 16(2), 485–500.

Creus Solé, A. (2011). "Generalidades" (Octva Edicion ed.). Impreso en Colombia: Alfaomega.

Burrus, N. (2011). RGBDemo. (Manctl) Recuperado el Agosto de 2012, de Nicolas Burrus Home Page: http://labs.manctl.com/rgbdemo/index.php/Main/HomePageBallester, J., & Pheatt, C. (2013). Using the Xbox Kinect sensor for positional data acquisition. American Journal of Physics, 81(1), 71. http://doi.org/10.1119/1.4748853

Campbell, J., Sukthankar, R., & Nourbakhsh, I. (2004). Visual Odometry Using Commodity Optical Flow. Intelligent Robots and Systems (IROS), 1008–1009.

Lohmann, P., Koch, A., & Schaeffer, M. (2000). Approaches to the filtering of laser scanner data. International Archives of Photogrammetry and Remote Sensing, 33(B3/1; PART 3), 540–547.

Mandelbaum, R., McDowell, L., Bogoni, L., Reich, B., & Hansen, M. (1998). Real-time stereo processing, obstacle detection, and terrain estimation from vehicle-mounted stereo cameras. Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision. WACV’98, (1), 288–289. http://doi.org/10.1109/ACV.1998.732909

Matyunin, S., Vatolin, D., Berdnikov, Y., & Smirnov, M. (2011). Temporal filtering for depth maps generated by Kinect depth camera. 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video, 3DTV-CON 2011 - Proceedings. http://doi.org/10.1109/3DTV.2011.5877202

Revelo-Luna, D. A., Usama, F. D., & Flórez-Marulanda, J. F. (2012). Reconstrucción 3D de escenas mediante un sistema de visión estéreo basado en extracción de características y desarrollado en openCV. Ingenieria Y Universidad, 16(2), 485–500.

Moreno Rubio J., Jiménez López A, Barrera Lombana N. (2013). El amplificador de potencia de carga sintonizada. Revista colombiana de tecnologías de Avanzada. 2(22). Pág. 9 – 13.




DOI: https://doi.org/10.24054/16927257.v29.n29.2017.2498

Enlaces refback

  • No hay ningún enlace refback.

Comentarios sobre este artículo

Ver todos los comentarios