Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real

En el presente trabajo de grado, se presenta el desarrollo de un sistema de vigilancia basado en visión artificial integrado a una plataforma aérea no tripulada. En la revisión realizada con respecto a los algoritmos dedicados a la detección de personas, se encontraron Mean Shift, Histograms of Orie...

Full description

Autores:
Parra Cabrera, Susana Andrea
Cuervo Lote, William Ricardo
Tipo de recurso:
Fecha de publicación:
2018
Institución:
Universidad Militar Nueva Granada
Repositorio:
Repositorio UMNG
Idioma:
spa
OAI Identifier:
oai:repository.unimilitar.edu.co:10654/17513
Acceso en línea:
http://hdl.handle.net/10654/17513
Palabra clave:
OJO ARTIFICIAL
VISION POR COMPUTADOR
DETECCION A DISTANCIA
HOG
YOLO
People detection
Aerial surveillance
Detección de personas
HOG
YOLO
vigilancia aérea
Rights
License
Derechos Reservados - Universidad Militar Nueva Granada, 2018
id UNIMILTAR2_ef38c85dd68c65b8e09e01b9681175d3
oai_identifier_str oai:repository.unimilitar.edu.co:10654/17513
network_acronym_str UNIMILTAR2
network_name_str Repositorio UMNG
repository_id_str
dc.title.spa.fl_str_mv Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
dc.title.translated.spa.fl_str_mv Artificial vision system integrated to an aerial platform for the detection of people in real time
title Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
spellingShingle Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
OJO ARTIFICIAL
VISION POR COMPUTADOR
DETECCION A DISTANCIA
HOG
YOLO
People detection
Aerial surveillance
Detección de personas
HOG
YOLO
vigilancia aérea
title_short Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
title_full Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
title_fullStr Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
title_full_unstemmed Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
title_sort Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo real
dc.creator.fl_str_mv Parra Cabrera, Susana Andrea
Cuervo Lote, William Ricardo
dc.contributor.advisor.spa.fl_str_mv Solaque Guzman, Leonardo Enrique
dc.contributor.author.spa.fl_str_mv Parra Cabrera, Susana Andrea
Cuervo Lote, William Ricardo
dc.subject.lemb.spa.fl_str_mv OJO ARTIFICIAL
VISION POR COMPUTADOR
DETECCION A DISTANCIA
topic OJO ARTIFICIAL
VISION POR COMPUTADOR
DETECCION A DISTANCIA
HOG
YOLO
People detection
Aerial surveillance
Detección de personas
HOG
YOLO
vigilancia aérea
dc.subject.keywords.spa.fl_str_mv HOG
YOLO
People detection
Aerial surveillance
dc.subject.proposal.spa.fl_str_mv Detección de personas
HOG
YOLO
vigilancia aérea
description En el presente trabajo de grado, se presenta el desarrollo de un sistema de vigilancia basado en visión artificial integrado a una plataforma aérea no tripulada. En la revisión realizada con respecto a los algoritmos dedicados a la detección de personas, se encontraron Mean Shift, Histograms of Oriented Gradients (HOG), Local Binary Pattern (LBP), Viola-Jones y You Only Look Once (YOLO), dejando seleccionados dos algoritmos para evaluar HOG y YOLO, para los cuales se realizaron las respectivas pruebas y su codificación en el sistema embebido. Los criterios utilizados para determinar el mejor algoritmo se basan en un análisis estadístico cualitativo, realizado con tomas de imágenes desde un drone, las cuales fueron usadas en pruebas off-line. La validación en tiempo real se obtiene mediante una interfaz en tierra que permita observar al usuario el número de personas detectadas, una imagen de la zona y la posición del drone.
publishDate 2018
dc.date.accessioned.none.fl_str_mv 2018-05-11T15:20:39Z
2019-12-26T22:11:01Z
dc.date.available.none.fl_str_mv 2018-05-11T15:20:39Z
2019-12-26T22:11:01Z
dc.date.issued.none.fl_str_mv 2018-04-19
dc.type.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.local.spa.fl_str_mv Trabajo de grado
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.dcmi-type-vocabulary.spa.fl_str_mv Text
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/10654/17513
url http://hdl.handle.net/10654/17513
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv Andre, R. (27 de Noviembre de 2017). AscTec Pelican. Obtenido de http://wiki.asctec.de/display/AR/AscTec+Pelican
Andriluka, M., Schnitzspan, P., Meyer, J., Kohlbrecher, S., Petersen, K., von Stryk, O., . . . Schiele, B. (Oct de 2010). Vision based victim detection from unmanned aerial vehicles. Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International Conference on, (págs. 1740-1747). doi:10.1109/IROS.2010.5649223
Barcelona, U. A. (2016). Detección de objetos. Barcelona.
Blondel, P., Potelle, A., Pegard, C., & Lozano, R. (2013). How to improve the HOG detector in the UAV context., 2, págs. 46-51. Compiegne. Obtenido de http://dx.doi.org/10.3182/20131120-3-FR-4045.00009
Blondel, P., Potelle, A., Pégard, C., & Lozano, R. (Dec de 2014). Human detection in uncluttered environments: From ground to UAV view. Control Automation Robotics Vision (ICARCV), 2014 13th International Conference on, (págs. 76-81). doi:10.1109/ICARCV.2014.7064283
Chen, H.-J. H.-T. (2015). Face Recognition on Drones: Issues and Limitations. Proceedings of the First Workshop on Micro Aerial Vehicle Networks, Systems, and Applications for Civilian Use.
Cruz, N. M. (2013). Desarrollo de un sistema avanzado de asistencia a la conducción en tiempo real para la detección de peatones en entornos urbanos complejos.
Doyle, D., Jennings, A., & Black, J. (2017). Estados Unidos Patente nº US 9,696.404 B1.
ECOPETROL (Ed.). (2015). Ecopetrol anuncia plan de inversiones para 2016 por US$4.800 millones.
EL TIEMPO. (19 de Octubre de 2016). La Policía de Bogotá planea utilizar drones para la vigilancia. EL TIEMPO.
Extra. (24 de Junio de 2017). Operación conjunta logró desactivar válvula ilegal de combustibles en Buenaventura. Extra.
Fang, P., Lu, J., Tian, Y., & Miao, Z. (2011). An Improved Object Tracking Method in UAV Videos. Procedia Engineering, 15, 634-638. doi:http://dx.doi.org/10.1016/j.proeng.2011.08.118
Guo, Y. D., Xie, Z. G., & Ma, H. B. (2014). Pedestrian detection optimization algorithm based on low-altitude UAV., 571-572, págs. 757-763. Obtenido de http://dx.doi.org/10.4028/www.scientific.net/AMM.571-572.757
Joseph, R. (2016). Darknet: Open Source Neural Networks in C. Obtenido de https://pjreddie.com/darknet/
Kang-Hyun, J., Van-Dung, H., & Joko, H. (2014). Moving Object Localization Using Optical Flow for Pedestrian Detection from a Moving Vehicle. The Scientific World Journal.
Li, J., Liang, X., Shen, S., Xu, T., Feng, J., & Yan, S. (2016). Scale-aware Fast R-CNN for Pedestrian Detection. IEEE Transactions on Multimedia, (pág. 99).
Loaiza, A., Manzano, D., & Múnera, L. (2012). Sistema de visión artificial para conteo de objetos en movimiento.
Ma, Y., Wu, X., Yu, G., Xu, Y., & Wang, Y. (2016). Pedestrian detection and tracking from low-resolution unmanned aerial vehicle thermal imagery. Sensors (Switzerland), 16. Obtenido de http://dx.doi.org/10.3390/s16040446
Manosalve, M. (27 de Septiembre de 2017). Derrame de petróleo por atentado en oleoducto de Caño Limón se extiende por 107 kilómetros. (E. L. TIEMPO, Ed.) EL ESPECTADOR.
Margherita Bonetto, P. K. (2015). Privacy in mini drone Based Video Surveillance. Quebec City.
Molchanov, V., Vishnyakov, B., Vizilter, Y., Vishnyakova, O., & Knyaz, V. (26 de Junio de 2017). Pedestrian detection in video surveillance using fully convolutional YOLO neural network. Munich, Germany.
N. Davis, F. P. (2013). Facial recognition using human visual system algorithms for robotic and UAV platforms.
Nakama, M. (13 de Agosto de 2011). video, Un estudio basado en la Técnica de Mean Shift para Agrupamiento y Seguimiento en. Buenos Aire, Argentina.
Navarro, J. (2015). People exact-tracking using a Parrot AR.Drone 2.0.
Negri, P., & Garayalde, D. (2016). Pedestrian tracking using probability fields and a movement feature space. DYNA.
NVIDIA. (s.f.). Obtenido de JETSON TX1: http://www.nvidia.es/object/jetson-tx1-module-es.html
OpenCV. (s.f.). CUDA. Obtenido de http://opencv.org/platforms/cuda.html
OpenCV. (s.f.). OpenCV. Obtenido de http://opencv.org/about.html
Oreifej, O., Mehran, R., & Shah, M. (June de 2010). Human identity recognition in aerial images. Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on, (págs. 709-716). doi:10.1109/CVPR.2010.5540147
Oviedo, J. (2016). Uso de los drones en la seguridad privada. Bogotá
Peng, Q., Luo, W., Hong, G., Feng, M., Xia, Y., Yu, L., . . . Li, M. (2016). Pedestrian Detection for Transformer Substation Based on Gaussian Mixture Model and YOLO. 8th International Conference on Intelligent Human-Machine Systems and Cybernetics, (págs. 562-565). Nanjing, China.
Pestana, J., Sanchez-Lopez, J., Campoy, P., & Saripalli, S. (2013). Vision based GPS-denied Object Tracking and following for unmanned aerial vehicles. 2013 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), (págs. 1-6). Linkoping.
PORTAFOLIO. (8 de Junio de 2017). Las válvulas ilícitas, otro drama para las petroleras. (E. L. TIEMPO, Ed.) Portafolio.
Pupilli, M., & Calway, A. (2006). Real-Time Camera Tracking Using Known 3D Models and a Particle Filter. 18th International Conference on Pattern Recognition , (págs. 199-203). Hong Kong.
Qiushi. (6 de Junio de 2014). Label object bboxes for ImageNet Detection data.
Redmon, J., Divval, S., Girshic, R., & Farhad, A. (2016). You Only Look Once: Unified, Real-Time Object Detection. IEEE Conference on Computer Vision and Pattern Recognition.
Reilly, V., Solmaz, B., & Shah, M. (2010). Geometric Constraints for Human Detection in Aerial Imagery. En K. Daniilidis, P. Maragos, & N. Paragios (Edits.), Computer Vision -- ECCV 2010: 11th European Conference on Computer Vision, Heraklion, Crete, Greece, September 5-11, 2010, Proceedings, Part VI (págs. 252-265). Berlin, Heidelber, g: Springer Berlin Heidelberg. doi:10.1007/978-3-642-15567-3_19
Reyes, S., Rángel, J., Zavala, J., Romero, H., Salazar, S., & Lozano, R. (2013). Real-Time Tracking by a Quadrotor for Arbitrary Objects Defined Online*. IFAC Proceedings Volumes, 46, 93-98. doi:http://dx.doi.org/10.3182/20131120-3-FR-4045.00060
STEREOLABS. (2017). STEREOLABS. Obtenido de https://www.stereolabs.com/zed/
Sugimura, D., Fujimura, T., & Hamamoto, T. (2016). Enhanced Cascading Classifier Using Multi-Scale HOG for Pedestrian Detection from Aerial Images. International Journal of Pattern Recognition \& Artificial Intelligence, 30, -1. Obtenido de http://search.ebscohost.com/login.aspx?direct=true&db=egs&AN=113219938&site=ehost-live
Velásquez, W. (Julio de 2017). El Impacto De La Tecnología Dron En La Seguridad Privada. Bogotá.
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Militar Nueva Granada, 2018
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas
rights_invalid_str_mv Derechos Reservados - Universidad Militar Nueva Granada, 2018
https://creativecommons.org/licenses/by-nc-nd/2.5/co/
Atribución-NoComercial-SinDerivadas
http://purl.org/coar/access_right/c_abf2
dc.format.extent.spa.fl_str_mv 70 páginas : figuras, fotos.
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.spatial.spa.fl_str_mv Calle 100
dc.publisher.department.spa.fl_str_mv Facultad de Ingenieríad
dc.publisher.program.spa.fl_str_mv Ingeniería en Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Ingenieria - Ingenieria en Mecatrónica
dc.publisher.grantor.spa.fl_str_mv Universidad Militar Nueva Granada
institution Universidad Militar Nueva Granada
bitstream.url.fl_str_mv http://repository.unimilitar.edu.co/bitstream/10654/17513/1/ParraCabreraSusanaAndrea2018.pdf
http://repository.unimilitar.edu.co/bitstream/10654/17513/2/ParraCabreraSusanaAndrea2018%20%282%29.pdf
http://repository.unimilitar.edu.co/bitstream/10654/17513/3/license.txt
http://repository.unimilitar.edu.co/bitstream/10654/17513/4/ParraCabreraSusanaAndrea2018.pdf.txt
http://repository.unimilitar.edu.co/bitstream/10654/17513/5/ParraCabreraSusanaAndrea2018%20%282%29.pdf.txt
http://repository.unimilitar.edu.co/bitstream/10654/17513/6/ParraCabreraSusanaAndrea2018.pdf.jpg
http://repository.unimilitar.edu.co/bitstream/10654/17513/7/ParraCabreraSusanaAndrea2018%20%282%29.pdf.jpg
bitstream.checksum.fl_str_mv 87b970c4a52592883221d9fec6ec7baf
b5295d6f0ecc7810d4d714fa21b14ade
57c1b5429c07cf705f9d5e4ce515a2f6
0ab6288055b60b981bb83e79bbefdd25
5dce57ecbb90c53f4829f23f12576423
39bcbea3200c5c65603b9a3409e40980
fa90c0a34a0ddefdd0920d926f316114
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UMNG
repository.mail.fl_str_mv bibliodigital@unimilitar.edu.co
_version_ 1808417827871260672
spelling Solaque Guzman, Leonardo EnriqueParra Cabrera, Susana AndreaCuervo Lote, William RicardoIngeniero en MecatrónicaIngeniero en MecatrónicaCalle 1002018-05-11T15:20:39Z2019-12-26T22:11:01Z2018-05-11T15:20:39Z2019-12-26T22:11:01Z2018-04-19http://hdl.handle.net/10654/17513En el presente trabajo de grado, se presenta el desarrollo de un sistema de vigilancia basado en visión artificial integrado a una plataforma aérea no tripulada. En la revisión realizada con respecto a los algoritmos dedicados a la detección de personas, se encontraron Mean Shift, Histograms of Oriented Gradients (HOG), Local Binary Pattern (LBP), Viola-Jones y You Only Look Once (YOLO), dejando seleccionados dos algoritmos para evaluar HOG y YOLO, para los cuales se realizaron las respectivas pruebas y su codificación en el sistema embebido. Los criterios utilizados para determinar el mejor algoritmo se basan en un análisis estadístico cualitativo, realizado con tomas de imágenes desde un drone, las cuales fueron usadas en pruebas off-line. La validación en tiempo real se obtiene mediante una interfaz en tierra que permita observar al usuario el número de personas detectadas, una imagen de la zona y la posición del drone.Agradecimientos 2 Abstract 8 Resumen 9 Objetivos 16 Objetivo general 16 Objetivos específicos 17 Alcance Del Proyecto 17 CAPÍTULO I 19 Marco Teórico 19 Sistemas de detección 19 Técnicas para la Detección De Personas 20 Criterios de evaluación 25 Seguimiento De Personas 26 Tracking- Learning-Detection (TLD) 26 Software 30 OpenCV 30 CUDA 31 Bases de datos 32 Hardware 32 CAPÍTULO II 35 Desarrollo y simulación 35 Creación de la base de datos 35 Base de datos método HOG 37 Base de datos YOLO y Tiny YOLO 39 Entrenamiento YOLO y Tiny YOLO 41 Pruebas de los algoritmos 42 Diseño mecánico y arquitectura de hardware 43 Seguimiento de personas 45 CAPÍTULO III 47 Experimentación en tiempo real 47 Puesta en marcha 48 Validación en tiempo real 49 CAPÍTULO IV 51 Conclusiones 51 ANEXO 1 53 Códigos 53 Código Tracking 53 Código Muestras 55 Código número de personas 58 Código de la interfaz en Matlab 59 ANEXO 2 61 Hardware 61 NVIDIA Jetson TX1 61 Alienware Alpha 62 Cámara ZED 62 Cámara Zenmuse Z3 63 QuadRotor AscTec Pelican 64 Dji Matrice 600 Pro 65 Referencias 66The present grade work describes the development of a surveillance system based on artificial vision integrated at Unmanned Aerial Vehicle (UAV). The review realized about the methods dedicated to pedestrian detection, were found the following algorithms: Mean Shift, Histograms of Oriented Gradients (HOG), Local Binary Pattern (LBP), Viola-Jones and You Only Look Once (YOLO), selecting two algorithms to be evaluate HOG and YOLO, doing for each one the respective tests and its codification in the embedded system. The criteria used to determine the best algorithm was based on a qualitative statistical analysis realized with captures of images from a drone, which were used in tests off-line. The real-time validation obtains with an interface in ground that allows to the user to observe an image of the area, the number of detected persons and the position of the dronePregrado70 páginas : figuras, fotos.application/pdfspaDerechos Reservados - Universidad Militar Nueva Granada, 2018https://creativecommons.org/licenses/by-nc-nd/2.5/co/Atribución-NoComercial-SinDerivadashttp://purl.org/coar/access_right/c_abf2Sistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo realArtificial vision system integrated to an aerial platform for the detection of people in real timeinfo:eu-repo/semantics/bachelorThesisTrabajo de gradoinfo:eu-repo/semantics/bachelorThesisTexthttp://purl.org/coar/resource_type/c_7a1fOJO ARTIFICIALVISION POR COMPUTADORDETECCION A DISTANCIAHOGYOLOPeople detectionAerial surveillanceDetección de personasHOGYOLOvigilancia aéreaFacultad de IngenieríadIngeniería en MecatrónicaIngenieria - Ingenieria en MecatrónicaUniversidad Militar Nueva GranadaAndre, R. (27 de Noviembre de 2017). AscTec Pelican. Obtenido de http://wiki.asctec.de/display/AR/AscTec+PelicanAndriluka, M., Schnitzspan, P., Meyer, J., Kohlbrecher, S., Petersen, K., von Stryk, O., . . . Schiele, B. (Oct de 2010). Vision based victim detection from unmanned aerial vehicles. Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International Conference on, (págs. 1740-1747). doi:10.1109/IROS.2010.5649223Barcelona, U. A. (2016). Detección de objetos. Barcelona.Blondel, P., Potelle, A., Pegard, C., & Lozano, R. (2013). How to improve the HOG detector in the UAV context., 2, págs. 46-51. Compiegne. Obtenido de http://dx.doi.org/10.3182/20131120-3-FR-4045.00009Blondel, P., Potelle, A., Pégard, C., & Lozano, R. (Dec de 2014). Human detection in uncluttered environments: From ground to UAV view. Control Automation Robotics Vision (ICARCV), 2014 13th International Conference on, (págs. 76-81). doi:10.1109/ICARCV.2014.7064283Chen, H.-J. H.-T. (2015). Face Recognition on Drones: Issues and Limitations. Proceedings of the First Workshop on Micro Aerial Vehicle Networks, Systems, and Applications for Civilian Use.Cruz, N. M. (2013). Desarrollo de un sistema avanzado de asistencia a la conducción en tiempo real para la detección de peatones en entornos urbanos complejos.Doyle, D., Jennings, A., & Black, J. (2017). Estados Unidos Patente nº US 9,696.404 B1.ECOPETROL (Ed.). (2015). Ecopetrol anuncia plan de inversiones para 2016 por US$4.800 millones.EL TIEMPO. (19 de Octubre de 2016). La Policía de Bogotá planea utilizar drones para la vigilancia. EL TIEMPO.Extra. (24 de Junio de 2017). Operación conjunta logró desactivar válvula ilegal de combustibles en Buenaventura. Extra.Fang, P., Lu, J., Tian, Y., & Miao, Z. (2011). An Improved Object Tracking Method in UAV Videos. Procedia Engineering, 15, 634-638. doi:http://dx.doi.org/10.1016/j.proeng.2011.08.118Guo, Y. D., Xie, Z. G., & Ma, H. B. (2014). Pedestrian detection optimization algorithm based on low-altitude UAV., 571-572, págs. 757-763. Obtenido de http://dx.doi.org/10.4028/www.scientific.net/AMM.571-572.757Joseph, R. (2016). Darknet: Open Source Neural Networks in C. Obtenido de https://pjreddie.com/darknet/Kang-Hyun, J., Van-Dung, H., & Joko, H. (2014). Moving Object Localization Using Optical Flow for Pedestrian Detection from a Moving Vehicle. The Scientific World Journal.Li, J., Liang, X., Shen, S., Xu, T., Feng, J., & Yan, S. (2016). Scale-aware Fast R-CNN for Pedestrian Detection. IEEE Transactions on Multimedia, (pág. 99).Loaiza, A., Manzano, D., & Múnera, L. (2012). Sistema de visión artificial para conteo de objetos en movimiento.Ma, Y., Wu, X., Yu, G., Xu, Y., & Wang, Y. (2016). Pedestrian detection and tracking from low-resolution unmanned aerial vehicle thermal imagery. Sensors (Switzerland), 16. Obtenido de http://dx.doi.org/10.3390/s16040446Manosalve, M. (27 de Septiembre de 2017). Derrame de petróleo por atentado en oleoducto de Caño Limón se extiende por 107 kilómetros. (E. L. TIEMPO, Ed.) EL ESPECTADOR.Margherita Bonetto, P. K. (2015). Privacy in mini drone Based Video Surveillance. Quebec City.Molchanov, V., Vishnyakov, B., Vizilter, Y., Vishnyakova, O., & Knyaz, V. (26 de Junio de 2017). Pedestrian detection in video surveillance using fully convolutional YOLO neural network. Munich, Germany.N. Davis, F. P. (2013). Facial recognition using human visual system algorithms for robotic and UAV platforms.Nakama, M. (13 de Agosto de 2011). video, Un estudio basado en la Técnica de Mean Shift para Agrupamiento y Seguimiento en. Buenos Aire, Argentina.Navarro, J. (2015). People exact-tracking using a Parrot AR.Drone 2.0.Negri, P., & Garayalde, D. (2016). Pedestrian tracking using probability fields and a movement feature space. DYNA.NVIDIA. (s.f.). Obtenido de JETSON TX1: http://www.nvidia.es/object/jetson-tx1-module-es.htmlOpenCV. (s.f.). CUDA. Obtenido de http://opencv.org/platforms/cuda.htmlOpenCV. (s.f.). OpenCV. Obtenido de http://opencv.org/about.htmlOreifej, O., Mehran, R., & Shah, M. (June de 2010). Human identity recognition in aerial images. Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on, (págs. 709-716). doi:10.1109/CVPR.2010.5540147Oviedo, J. (2016). Uso de los drones en la seguridad privada. BogotáPeng, Q., Luo, W., Hong, G., Feng, M., Xia, Y., Yu, L., . . . Li, M. (2016). Pedestrian Detection for Transformer Substation Based on Gaussian Mixture Model and YOLO. 8th International Conference on Intelligent Human-Machine Systems and Cybernetics, (págs. 562-565). Nanjing, China.Pestana, J., Sanchez-Lopez, J., Campoy, P., & Saripalli, S. (2013). Vision based GPS-denied Object Tracking and following for unmanned aerial vehicles. 2013 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), (págs. 1-6). Linkoping.PORTAFOLIO. (8 de Junio de 2017). Las válvulas ilícitas, otro drama para las petroleras. (E. L. TIEMPO, Ed.) Portafolio.Pupilli, M., & Calway, A. (2006). Real-Time Camera Tracking Using Known 3D Models and a Particle Filter. 18th International Conference on Pattern Recognition , (págs. 199-203). Hong Kong.Qiushi. (6 de Junio de 2014). Label object bboxes for ImageNet Detection data.Redmon, J., Divval, S., Girshic, R., & Farhad, A. (2016). You Only Look Once: Unified, Real-Time Object Detection. IEEE Conference on Computer Vision and Pattern Recognition.Reilly, V., Solmaz, B., & Shah, M. (2010). Geometric Constraints for Human Detection in Aerial Imagery. En K. Daniilidis, P. Maragos, & N. Paragios (Edits.), Computer Vision -- ECCV 2010: 11th European Conference on Computer Vision, Heraklion, Crete, Greece, September 5-11, 2010, Proceedings, Part VI (págs. 252-265). Berlin, Heidelber, g: Springer Berlin Heidelberg. doi:10.1007/978-3-642-15567-3_19Reyes, S., Rángel, J., Zavala, J., Romero, H., Salazar, S., & Lozano, R. (2013). Real-Time Tracking by a Quadrotor for Arbitrary Objects Defined Online*. IFAC Proceedings Volumes, 46, 93-98. doi:http://dx.doi.org/10.3182/20131120-3-FR-4045.00060STEREOLABS. (2017). STEREOLABS. Obtenido de https://www.stereolabs.com/zed/Sugimura, D., Fujimura, T., & Hamamoto, T. (2016). Enhanced Cascading Classifier Using Multi-Scale HOG for Pedestrian Detection from Aerial Images. International Journal of Pattern Recognition \& Artificial Intelligence, 30, -1. Obtenido de http://search.ebscohost.com/login.aspx?direct=true&db=egs&AN=113219938&site=ehost-liveVelásquez, W. (Julio de 2017). El Impacto De La Tecnología Dron En La Seguridad Privada. Bogotá.ORIGINALParraCabreraSusanaAndrea2018.pdfTesisapplication/pdf1200552http://repository.unimilitar.edu.co/bitstream/10654/17513/1/ParraCabreraSusanaAndrea2018.pdf87b970c4a52592883221d9fec6ec7bafMD51ParraCabreraSusanaAndrea2018 (2).pdfArtículoapplication/pdf526625http://repository.unimilitar.edu.co/bitstream/10654/17513/2/ParraCabreraSusanaAndrea2018%20%282%29.pdfb5295d6f0ecc7810d4d714fa21b14adeMD52LICENSElicense.txttext/plain1521http://repository.unimilitar.edu.co/bitstream/10654/17513/3/license.txt57c1b5429c07cf705f9d5e4ce515a2f6MD53TEXTParraCabreraSusanaAndrea2018.pdf.txtExtracted texttext/plain84370http://repository.unimilitar.edu.co/bitstream/10654/17513/4/ParraCabreraSusanaAndrea2018.pdf.txt0ab6288055b60b981bb83e79bbefdd25MD54ParraCabreraSusanaAndrea2018 (2).pdf.txtExtracted texttext/plain42516http://repository.unimilitar.edu.co/bitstream/10654/17513/5/ParraCabreraSusanaAndrea2018%20%282%29.pdf.txt5dce57ecbb90c53f4829f23f12576423MD55THUMBNAILParraCabreraSusanaAndrea2018.pdf.jpgIM Thumbnailimage/jpeg4150http://repository.unimilitar.edu.co/bitstream/10654/17513/6/ParraCabreraSusanaAndrea2018.pdf.jpg39bcbea3200c5c65603b9a3409e40980MD56ParraCabreraSusanaAndrea2018 (2).pdf.jpgIM Thumbnailimage/jpeg9627http://repository.unimilitar.edu.co/bitstream/10654/17513/7/ParraCabreraSusanaAndrea2018%20%282%29.pdf.jpgfa90c0a34a0ddefdd0920d926f316114MD5710654/17513oai:repository.unimilitar.edu.co:10654/175132020-06-30 13:04:49.606Repositorio Institucional UMNGbibliodigital@unimilitar.edu.coRWwgYXV0b3IgZGUgbGEgb2JyYSAodGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbyksIGFjdHVhbmRvIGVuIG5vbWJyZSBwcm9waW8sCkhhY2UgZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZW4gZm9ybWF0byBkaWdpdGFsIG8gZWxlY3Ryw7NuaWNvLgoKWSBhdXRvcml6YSBhIGxhIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSwgcGFyYSBxdWUgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW46CgotIExleSAyMyBkZSAxOTgyCi0gTGV5IDQ0IGRlIDE5OTMKLSBEZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzCi0gRGVjcmV0byA0NjAgZGUgMTk5NQoKeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIHkgdXNlIHBvciBjdWFscXVpZXIgbWVkaW8gY29ub2NpZG8gbyBwb3IgY29ub2NlciwKbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiBkZSBsYSBvYnJhIApvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4KClBBUsOBR1JBRk86IExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc8OzbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZQpsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byB2aXJ0dWFsLCBlbGVjdHLDs25pY28sIGRpZ2l0YWwsIHkgY3V5byB1c28gc2UgZGUgZW4gcmVkLAppbnRlcm5ldCwgZXh0cmFuZXQsIGludHJhbmV0LCBldGMuLCB5IGVuIGdlbmVyYWwgZW4gY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4KCkVMIEVTVFVESUFOVEUgLSBBVVRPUiwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIKbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KClBBUsOBR1JBRk86IEVuIGNhc28gZGUgcHJlc2VudGFyc2UgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBvIGFjY2nDs24gcG9yIHBhcnRlIGRlIHVuIHRlcmNlcm8gZW4gY3VhbnRvIGEgCmxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgRVNUVURJQU5URSAtIEFVVE9SLCBhc3VtaXLDoSB0b2RhIGxhIHJlc3BvbnNhYmlsaWRhZCwgCnkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSB1bml2ZXJzaWRhZCBhY3TDumEgY29tbyAKdW4gdGVyY2VybyBkZSBidWVuYSBmZS4K