Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor

ilustraciones, diagramas, fotografías

Autores:
Mongua López, Luis Alejandro
Tipo de recurso:
Fecha de publicación:
2024
Institución:
Universidad Nacional de Colombia
Repositorio:
Universidad Nacional de Colombia
Idioma:
spa
OAI Identifier:
oai:repositorio.unal.edu.co:unal/86734
Acceso en línea:
https://repositorio.unal.edu.co/handle/unal/86734
https://repositorio.unal.edu.co/
Palabra clave:
000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación
000 - Ciencias de la computación, información y obras generales::005 - Programación, programas, datos de computación
620 - Ingeniería y operaciones afines::629 - Otras ramas de la ingeniería
VEHICULOS DE MOTOR
VISIÓN POR COMPUTADOR
FRENOS
DISPOSITIVOS DE IDENTIFICACIÓN POR COMPUTADOR
Motor vehicles
Computer vision
Brakes
Optical character recognition devices
Inteligencia artificial
Aprendizaje automático
Procesamiento de imágenes
Reconocimiento de patrones
Redes neuronales artificiales
Vehículos de motor
Inspección
Seguridad de transportes
Artificial Intelligence
Machine Learning
Image Processing
Pattern Recognition
Artificial Neural Networks
Motor Vehicles
Inspection
Transport Safety
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 4.0 Internacional
id UNACIONAL2_2bc1e960b2403927c00fcd479a05700d
oai_identifier_str oai:repositorio.unal.edu.co:unal/86734
network_acronym_str UNACIONAL2
network_name_str Universidad Nacional de Colombia
repository_id_str
dc.title.spa.fl_str_mv Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
dc.title.translated.eng.fl_str_mv Method based in computer vision for axis and vehicle identification during light vehicle inspection on vehicle inspection centers
title Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
spellingShingle Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación
000 - Ciencias de la computación, información y obras generales::005 - Programación, programas, datos de computación
620 - Ingeniería y operaciones afines::629 - Otras ramas de la ingeniería
VEHICULOS DE MOTOR
VISIÓN POR COMPUTADOR
FRENOS
DISPOSITIVOS DE IDENTIFICACIÓN POR COMPUTADOR
Motor vehicles
Computer vision
Brakes
Optical character recognition devices
Inteligencia artificial
Aprendizaje automático
Procesamiento de imágenes
Reconocimiento de patrones
Redes neuronales artificiales
Vehículos de motor
Inspección
Seguridad de transportes
Artificial Intelligence
Machine Learning
Image Processing
Pattern Recognition
Artificial Neural Networks
Motor Vehicles
Inspection
Transport Safety
title_short Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
title_full Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
title_fullStr Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
title_full_unstemmed Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
title_sort Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor
dc.creator.fl_str_mv Mongua López, Luis Alejandro
dc.contributor.advisor.spa.fl_str_mv Pedraza Bonilla, Cesar Augusto
dc.contributor.author.spa.fl_str_mv Mongua López, Luis Alejandro
dc.subject.ddc.spa.fl_str_mv 000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación
000 - Ciencias de la computación, información y obras generales::005 - Programación, programas, datos de computación
620 - Ingeniería y operaciones afines::629 - Otras ramas de la ingeniería
topic 000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación
000 - Ciencias de la computación, información y obras generales::005 - Programación, programas, datos de computación
620 - Ingeniería y operaciones afines::629 - Otras ramas de la ingeniería
VEHICULOS DE MOTOR
VISIÓN POR COMPUTADOR
FRENOS
DISPOSITIVOS DE IDENTIFICACIÓN POR COMPUTADOR
Motor vehicles
Computer vision
Brakes
Optical character recognition devices
Inteligencia artificial
Aprendizaje automático
Procesamiento de imágenes
Reconocimiento de patrones
Redes neuronales artificiales
Vehículos de motor
Inspección
Seguridad de transportes
Artificial Intelligence
Machine Learning
Image Processing
Pattern Recognition
Artificial Neural Networks
Motor Vehicles
Inspection
Transport Safety
dc.subject.lemb.spa.fl_str_mv VEHICULOS DE MOTOR
VISIÓN POR COMPUTADOR
FRENOS
DISPOSITIVOS DE IDENTIFICACIÓN POR COMPUTADOR
dc.subject.lemb.eng.fl_str_mv Motor vehicles
Computer vision
Brakes
Optical character recognition devices
dc.subject.proposal.spa.fl_str_mv Inteligencia artificial
Aprendizaje automático
Procesamiento de imágenes
Reconocimiento de patrones
Redes neuronales artificiales
Vehículos de motor
Inspección
Seguridad de transportes
dc.subject.proposal.eng.fl_str_mv Artificial Intelligence
Machine Learning
Image Processing
Pattern Recognition
Artificial Neural Networks
Motor Vehicles
Inspection
Transport Safety
description ilustraciones, diagramas, fotografías
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-08-16T20:06:22Z
dc.date.available.none.fl_str_mv 2024-08-16T20:06:22Z
dc.date.issued.none.fl_str_mv 2024
dc.type.spa.fl_str_mv Trabajo de grado - Maestría
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TM
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unal.edu.co/handle/unal/86734
dc.identifier.instname.spa.fl_str_mv Universidad Nacional de Colombia
dc.identifier.reponame.spa.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourl.spa.fl_str_mv https://repositorio.unal.edu.co/
url https://repositorio.unal.edu.co/handle/unal/86734
https://repositorio.unal.edu.co/
identifier_str_mv Universidad Nacional de Colombia
Repositorio Institucional Universidad Nacional de Colombia
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv PODER PÚBLICO - RAMA LEGISLATIVA. «Ley 769, Por la cual se expide el Código Nacional de Tránsito Terrestre y se dictan otras disposiciones». 2002.
Victor Bennett y col. «Customer-Driven Misconduct: How Competition Corrupts Business Practices». En: SSRN Electronic Journal (nov. de 2012). DOI: 10.2139/SSRN.2005779.
Comunicaciones Supertransporte. «Supertransporte formula cargos en contra del Centro de Diagnóstico Automotor Tecnimas, por presuntas irregularidades en la revisión técnico-mecánica del vehículo implicado en el siniestro ocurrido en el túnel de los venados». En: Noticias Supertransporte (16 de feb. de 2022). URL: https://www.supertransporte.gov.co/index.php/comunicaciones-2022/supertransporte-formula-cargos-en-contra-del-centro-de-diagnostico-automotor-tecnimas-por-presuntas-irregularidades-en-la-revision-tecnico-mecanica-del-vehiculo-implicado-en-el-siniestro-ocurrido-en/ (visitado 19-10-2022).
Superintendencia de puertos y transporte. «Resolución 9304 de 2012. Por la cual se reglamentan las caracteristicas tecnicas de los sistemas de seguridad documental, garantizando la legitimidad de los certificados y la protección al usuario de la falsificación.» 24 de dic. de 2012. URL: https://www.supertransporte.gov.co/documentos/2012/notificaciones/resoluciones_generales/9304.pdf (visitado 26-10-2022).
Superintendencia de puertos y transporte. «Resolución 013830 de 2014. Por la cual se expide al anexo técnico para la implementación de los Sistemas de Control y Vigilancia ordenado a través de la Resolución número 9304 del 24 de diciembre de 2012.» 23 de sep. de 2014. URL: https://www.supertransporte.gov.co/documentos/2014/notificaciones/Resoluciones_Generales/13830.pdf (visitado 26-10-2022).
ansv.observatorio01. «Comportamiento cifra de víctimas en siniestros viales Definitivas 2020». En: Observatorio nacional de seguridad vial (23 de dic. de 2021). URL: https://ansv.gov.co/sites/default/files/2021-12/Cifras_Nacionales_Definitivas_2020_ONSV.pdf (visitado 27-10-2022).
Osmis Areda Habte y Håkan J. Holm. «Competition Makes Inspectors More Lenient: Evidence from the Motor Vehicle Inspection Market». En: Review of Industrial Organization 61 (1 ago. de 2022), págs. 45-72. ISSN: 15737160. DOI: 10.1007/S11151-022-09864-Z/FIGURES/6. URL: https://link.springer.com/article/10.1007/s11151-022-09864-z.
V. Dobromirov, V. Verkhorubov e I. Chernyaev. «Systematizing the factors that determine ways of developing the vehicle maintenance system and providing vehicle safety». En: vol. 36.2018, págs. 114-121. DOI: 10.1016/j.trpro.2018.12.052.
Aaron Agbo y col. «An Empirical Inquiry into Maintenance Work of Auto-Mechanics and its Relative Bearing on Road Traffic Accidents - A Developing Country Case, Ghana». En: International Journal of Engineering Research in Africa 34 (ene. de 2018), págs. 139-160. DOI: 10.4028/www.scientific.net/JERA.34.139.
Behrang Assemi y Mark Hickman. «Relationship between heavy vehicle periodic inspections, crash contributing factors and crash severity». En: Transportation Research Part A: Policy and Practice 113 (jul. de 2018), págs. 441-459. ISSN: 09658564. DOI: 10.1016/J.TRA.2018.04.018.
B. Hou y col. «Abnormal Analysis of Motor Vehicle Brake Inspection Based on Similarity». En: 2022, págs. 482-486. ISBN: 9783800757282.
C. Qiu, H. Xu y W. Liu. «Supervision on abnormal activities in vehicle inspection service by anomaly detection in bipartite graph». En: 2016, págs. 68-71. ISBN: 9781467390460. DOI:10.1109/ICITE.2016.7581309.
R.P. de Souza, L.F.R.C. Carmo y L. Pirmez. «A procedure to detect suspected patterns of fraudulent behavior in vehicle emissions tests performed by an accredited inspection body». En: Accreditation and Quality Assurance 21 (5 2016), págs. 323-333. DOI: 10.1007/s00769-016-1231-y.
R.P. Souza, L.F.R.C. Carmo y L. Pirmez. «Rapid video assessment for monitoring testing facility fraud». En: International Journal of Quality and Reliability Management 35 (8 2018), págs. 1508-1518. DOI: 10.1108/IJQRM-01-2017-0022.
Paul Viola y Michael Jones. «Robust Real-Time Object Detection». En: vol. 57. Ene. de 2001.
N. Dalal y B. Triggs. «Histograms of oriented gradients for human detection». En: 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). Vol. 1. 2005, 886-893 vol. 1. DOI: 10.1109/CVPR.2005.177.
Pedro Felzenszwalb, David McAllester y Deva Ramanan. «A discriminatively trained, multiscale, deformable part model». En: 2008 IEEE Conference on Computer Vision and Pattern Recognition. 2008, págs. 1-8. DOI: 10.1109/CVPR.2008.4587597.
Alex Krizhevsky, Ilya Sutskever y Geoffrey E. Hinton. «ImageNet classification with deep convolutional neural networks». En: Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1. NIPS’12. Lake Tahoe, Nevada: Curran Associates Inc., 2012, págs. 1097-1105.
Karen Simonyan y Andrew Zisserman. «Very Deep Convolutional Networks for Large-Scale Image Recognition». En: arXiv preprint arXiv:1409.1556 (2014).
Kaiming He y col. «Deep Residual Learning for Image Recognition». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016), págs. 770-778. DOI: 10.1109/CVPR.2016.90.
Christian Szegedy y col. «Going Deeper with Convolutions». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2015), págs. 1-9. DOI: 10.1109/CVPR. 2015.7298594.
Mingxing Tan y Quoc V. Le. «EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks». En: Proceedings of the 36th International Conference on Machine Learning (ICML) 97 (2019), págs. 6105-6114.
Zhengxia Zou y col. Object Detection in 20 Years: A Survey. 2023. arXiv: 1905.05055 [cs.CV].
J. Redmon y col. «You only look once: Unified, real-time object detection». En: vol. 2016- Decem. 2016, págs. 779-788. ISBN: 9781467388504. DOI: 10.1109/CVPR.2016.91.
Wei Liu y col. «SSD: Single Shot MultiBox Detector». En: Lecture Notes in Computer Science. Springer International Publishing, 2016, págs. 21-37. ISBN: 9783319464480. DOI: 10.1007/978-3-319-46448-0_2. URL: http://dx.doi.org/10.1007/978-3-319-46448-0_2.
Tsung-Yi Lin y col. Focal Loss for Dense Object Detection. 2018. arXiv: 1708.02002 [cs.CV].
Hei Law y Jia Deng. CornerNet: Detecting Objects as Paired Keypoints. 2019. arXiv: 1808.01244 [cs.CV].
Xingyi Zhou, Dequan Wang y Philipp Krähenbühl. Objects as Points. 2019. arXiv: 1904.07850 [cs.CV].
Nicolas Carion y col. End-to-End Object Detection with Transformers. 2020. arXiv: 2005.12872 [cs.CV].
Joseph Redmon y Ali Farhadi. YOLO9000: Better, Faster, Stronger. 2016. arXiv: 1612 . 08242 [cs.CV].
Joseph Redmon y Ali Farhadi. YOLOv3: An Incremental Improvement. 2018. arXiv: 1804.02767 [cs.CV].
Alexey Bochkovskiy, Chien-Yao Wang y Hong-Yuan Mark Liao. YOLOv4: Optimal Speed and Accuracy of Object Detection. 2020. arXiv: 2004.10934 [cs.CV].
Ultralytics. YOLOv5: Object Detection Software. https://github.com/ultralytics/yolov5. Accedido: 2023-02-10. 2022.
Chuyi Li y col. YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications. 2022. arXiv: 2209.02976 [cs.CV].
Chien-Yao Wang, Alexey Bochkovskiy y Hong-Yuan Mark Liao. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. 2022. arXiv: 2207.02696 [cs.CV].
Dillon Reis y col. Real-Time Flying Object Detection with YOLOv8. 2023. arXiv: 2305 . 09972 [cs.CV].
Chien-Yao Wang, I-Hau Yeh y Hong-Yuan Mark Liao. YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information. 2024. arXiv: 2402.13616 [cs.CV].
Juan Terven, Diana-Margarita Córdova-Esparza y Julio-Alejandro Romero-González. «A Comprehensive Review of YOLO Architectures in Computer Vision: From YOLOv1 to YOLOv8 and YOLO-NAS». En: Machine Learning and Knowledge Extraction 5.4 (nov. de 2023), págs. 1680-1716. ISSN: 2504-4990. DOI: 10.3390/make5040083. URL: http://dx.doi.org/10.3390/make5040083.
Ashish Vaswani y col. «Attention is all you need». En: Advances in neural information processing systems 30 (2017).
Yuxin Fang y col. «You only look at one sequence: Rethinking transformer in vision through object detection». En: Advances in Neural Information Processing Systems 34 (2021), págs. 26204-26218.
L. Connie, C. Kim On y A. Patricia. «A review of automatic license plate recognition system in mobile-based platform». En: Journal of Telecommunication, Electronic and Computer Engineering 10 (3-2 2018), págs. 77-82.
N.N. Kyaw, G.R. Sinha y K.L. Mon. «License Plate Recognition of Myanmar Vehicle Number Plates A Critical Review». En: 2018 IEEE 7th Global Conference on Consumer Electronics, GCCE 2018 (2018), págs. 300-303. DOI: 10.1109/GCCE.2018.8574751. URL: https://ieeexplore.ieee.org/document/8574751.
Muayad Ali Hamood Bakhtan, Munaisyah Abdullah y Aedah Abd Rahman. «A review on License Plate Recognition system algorithms». En: 2016 International Conference on Information and Communication Technology (ICICTM). 2016, págs. 84-89. DOI: 10.1109/ICICTM.2016.7890782.
P. Marzuki y col. «A design of license plate recognition system using convolutional neural network». En: International Journal of Electrical and Computer Engineering 9 (3 2019), págs. 2196-2204. DOI: 10.11591/ijece.v9i3.pp2196-2204.
M. Moaga, T. Chunling y P. Owolawi. «A review on vision-based vehicle identification using convolutional neural network». En: 2020. ISBN: 9781450375580. DOI: 10.1145/3415088. 3415112.
P. Kaur y col. «Automatic license plate recognition system for vehicles using a cnn». En: Computers, Materials and Continua 71 (1 2022), págs. 35-50. DOI: 10.32604/cmc.2022.017681.
R. Laroca y col. «An efficient and layout-independent automatic license plate recognition system based on the YOLO detector». En: IET Intelligent Transport Systems 15 (4 2021), págs. 483-503. DOI: 10.1049/itr2.12030.
A. Tourani y col. «A robust deep learning approach for automatic Iranian vehicle license plate detection and recognition for surveillance systems». En: IEEE Access 8 (2020), págs. 201317-201330. DOI: 10.1109/ACCESS.2020.3035992.
Y. Lee y col. «Accurate License Plate Recognition and Super-Resolution Using a Generative Adversarial Networks on Traffic Surveillance Video». En: 2018. ISBN: 9781538658079. DOI: 10.1109/ICCE-ASIA.2018.8552121.
A. Boukerche, A.J. Siddiqui y A. Mammeri. «Automated vehicle detection and classification: Models, methods, and techniques». En: ACM Computing Surveys 50 (5 2017). DOI: 10.1145/3107614.
M. Biglari, A. Soleimani y H. Hassanpour. «A Cascaded Part-Based System for Fine-Grained Vehicle Classification». En: IEEE Transactions on Intelligent Transportation Systems 19 (1 2018), págs. 273-283. DOI: 10.1109/TITS.2017.2749961.
Xinchen Liu y col. «A deep learning-based approach to progressive vehicle re-identification for urban surveillance». En: European conference on computer vision. Springer, 2016, págs. 869-884.
Jane Bromley y col. «Signature verification using a ”siamese” time delay neural network». En: Advances in neural information processing systems. 1994, págs. 737-744.
Gregory Koch, Richard Zemel y Ruslan Salakhutdinov. «Siamese neural networks for one-shot image recognition». En: ICML deep learning workshop. Vol. 2. 2015.
Dominik Zapletal y Adam Herout. «Vehicle re-identification for automatic video traffic surveillance». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2016, págs. 25-31.
Yantao Shen y col. «Learning deep neural networks for vehicle re-ID with visual-spatio-temporal path proposals». En: Proceedings of the IEEE International Conference on Computer Vision. 2017, págs. 1900-1909.
Florian Schroff, Dmitry Kalenichenko y James Philbin. «Facenet: A unified embedding for face recognition and clustering». En: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015, págs. 815-823.
Raia Hadsell, Sumit Chopra y Yann LeCun. «Dimensionality reduction by learning an invariant mapping». En: 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06). Vol. 2. IEEE. 2006, págs. 1735-1742.
Tsung-Yi Lin y col. Microsoft COCO: Common Objects in Context. 2015. arXiv: 1405.0312 [cs.CV].
Maxim Tkachenko y col. Label Studio: Data labeling software. Open source software available from https://github.com/heartexlabs/label-studio. 2020-2022. URL: https://github.com/heartexlabs/label-studio.
Huggin Face. https://hugginface.co. Accessed: 2024-03-09.
Hong-Yuan Mark Liao Chien-Yao Wang I-Hau Yeh. WongKinYiu/yolov9: Implementation of paper. https://github.com/WongKinYiu/yolov9. Accedido: 2024-03-10. 2024.
Jonathan Krause y col. 3D Object Representations for Fine-Grained Categorization. Sydney, Australia, 2013. URL: http://ai.stanford.edu/~jkrause/cars/car_dataset.html.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional
http://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv x, 48 páginas
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Nacional de Colombia
dc.publisher.program.spa.fl_str_mv Bogotá - Ingeniería - Maestría en Ingeniería - Ingeniería de Sistemas y Computación
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Bogotá, Colombia
dc.publisher.branch.spa.fl_str_mv Universidad Nacional de Colombia - Sede Bogotá
institution Universidad Nacional de Colombia
bitstream.url.fl_str_mv https://repositorio.unal.edu.co/bitstream/unal/86734/1/license.txt
https://repositorio.unal.edu.co/bitstream/unal/86734/2/1032369640.2024.pdf
https://repositorio.unal.edu.co/bitstream/unal/86734/3/1032369640.2024.pdf.jpg
bitstream.checksum.fl_str_mv eb34b1cf90b7e1103fc9dfd26be24b4a
03a8805b6d0470aa22e87d94aa6c2ab1
d41aa907538462934c5c9219d059f65f
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
repository.mail.fl_str_mv repositorio_nal@unal.edu.co
_version_ 1812169287397277696
spelling Atribución-NoComercial-SinDerivadas 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Pedraza Bonilla, Cesar Augustoc9f3a45785520d570c3ce7b608546d43Mongua López, Luis Alejandroe00f56b6205b51a0cac403946c91a1482024-08-16T20:06:22Z2024-08-16T20:06:22Z2024https://repositorio.unal.edu.co/handle/unal/86734Universidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/ilustraciones, diagramas, fotografíasEste trabajo de grado explora la aplicación de técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente el proceso de inspección vehicular en los centros de diagnóstico automotor (CDA) en Colombia, específicamente durante la prueba de frenos. El objetivo principal es desarrollar un método que permita identificar el eje y el vehículo al que pertenece durante la inspección, con el fin de prevenir la suplantación de ejes o vehículos. La metodología empleada consta de tres fases: preparación, implementación y documentación. En la fase de preparación se recolectaron videos de inspecciones y se construyeron conjuntos de datos etiquetados manualmente para el entrenamiento y evaluación de los modelos. Durante la fase de implementación, se entrenaron y compararon tres modelos de detección de objetos (DETR-ResNet50, DETR-ResNet101 y YOLOv9) para la detección de ejes, seleccionando el modelo YOLOv9 por su mejor rendimiento. Además, se utilizó un algoritmo de reconocimiento de placas para identificar los vehículos y una red siamesa para los casos en que la placa no era visible. En la fase de documentación, se detalló el desarrollo del proyecto, el experimento realizado y los resultados obtenidos. El experimento consistió en evaluar el método propuesto utilizando imágenes de una semana de operación de un CDA. Los resultados demostraron la efectividad del modelo YOLOv9 para la detección de ejes y del algoritmo de identificación de vehículos, con un alto porcentaje de aciertos y pocos falsos positivos. En conclusión, este trabajo demuestra la viabilidad de aplicar técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente los procesos de inspección vehicular en los CDA, contribuyendo así a mejorar la calidad del servicio y la seguridad vial. Se sugieren trabajos futuros enfocados en expandir los conjuntos de datos, explorar nuevas arquitecturas de redes neuronales y realizar pruebas de campo a mayor escala (Texto tomado de la fuente).This final project explores the application of deep learning-based computer vision techniques to automatically supervise the vehicle inspection process at automotive diagnostic centers (CDA) in Colombia, specifically during the brake test. The main objective is to develop a method that allows identifying the axle and the vehicle to which it belongs during the inspection, in order to prevent axle or vehicle impersonation. The methodology employed consists of three phases: preparation, implementation, and documentation. In the preparation phase, videos of inspections were collected, and manually labeled datasets were constructed for training and evaluation of the models. During the implementation phase, three object detection models (DETR-ResNet50, DETR-ResNet101, and YOLOv9) were trained and compared for axle detection, selecting the YOLOv9 model for its better performance. Additionally, a license plate recognition algorithm was used to identify vehicles, and a Siamese network was employed for cases where the license plate was not visible. In the documentation phase, the project development, the experiment carried out, and the results obtained were detailed. The experiment consisted of evaluating the proposed method using images from a week of operation of a CDA. The results demonstrated the effectiveness of the YOLOv9 model for axle detection and the vehicle identification algorithm, with a high percentage of correct identifications and few false positives. In conclusion, this work demonstrates the feasibility of applying deep learning-based computer vision techniques to automatically supervise vehicle inspection processes at CDAs, thus contributing to improving service quality and road safety. Future work is suggested, focusing on expanding datasets, exploring new neural network architectures, and conducting larger-scale field tests.MaestríaMagíster en Ingeniería - Ingeniería de Sistemas y ComputaciónLa metodología empleada para llevar a cabo este proyecto se ilustra en la figura 4-1. En esta figura se muestra como el proceso se dividió en tres fases: la fase de preparación que corresponde a la primera parte del proyecto donde se preparan los datos; la fase de implementación en la que se desarrolló el método integrado de identificación de ejes y, finalmente, una fase transversal que incluyó la documentación del proyecto.Computación aplicadax, 48 páginasapplication/pdfspaUniversidad Nacional de ColombiaBogotá - Ingeniería - Maestría en Ingeniería - Ingeniería de Sistemas y ComputaciónFacultad de IngenieríaBogotá, ColombiaUniversidad Nacional de Colombia - Sede Bogotá000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación000 - Ciencias de la computación, información y obras generales::005 - Programación, programas, datos de computación620 - Ingeniería y operaciones afines::629 - Otras ramas de la ingenieríaVEHICULOS DE MOTORVISIÓN POR COMPUTADORFRENOSDISPOSITIVOS DE IDENTIFICACIÓN POR COMPUTADORMotor vehiclesComputer visionBrakesOptical character recognition devicesInteligencia artificialAprendizaje automáticoProcesamiento de imágenesReconocimiento de patronesRedes neuronales artificialesVehículos de motorInspecciónSeguridad de transportesArtificial IntelligenceMachine LearningImage ProcessingPattern RecognitionArtificial Neural NetworksMotor VehiclesInspectionTransport SafetyMétodo basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotorMethod based in computer vision for axis and vehicle identification during light vehicle inspection on vehicle inspection centersTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMPODER PÚBLICO - RAMA LEGISLATIVA. «Ley 769, Por la cual se expide el Código Nacional de Tránsito Terrestre y se dictan otras disposiciones». 2002.Victor Bennett y col. «Customer-Driven Misconduct: How Competition Corrupts Business Practices». En: SSRN Electronic Journal (nov. de 2012). DOI: 10.2139/SSRN.2005779.Comunicaciones Supertransporte. «Supertransporte formula cargos en contra del Centro de Diagnóstico Automotor Tecnimas, por presuntas irregularidades en la revisión técnico-mecánica del vehículo implicado en el siniestro ocurrido en el túnel de los venados». En: Noticias Supertransporte (16 de feb. de 2022). URL: https://www.supertransporte.gov.co/index.php/comunicaciones-2022/supertransporte-formula-cargos-en-contra-del-centro-de-diagnostico-automotor-tecnimas-por-presuntas-irregularidades-en-la-revision-tecnico-mecanica-del-vehiculo-implicado-en-el-siniestro-ocurrido-en/ (visitado 19-10-2022).Superintendencia de puertos y transporte. «Resolución 9304 de 2012. Por la cual se reglamentan las caracteristicas tecnicas de los sistemas de seguridad documental, garantizando la legitimidad de los certificados y la protección al usuario de la falsificación.» 24 de dic. de 2012. URL: https://www.supertransporte.gov.co/documentos/2012/notificaciones/resoluciones_generales/9304.pdf (visitado 26-10-2022).Superintendencia de puertos y transporte. «Resolución 013830 de 2014. Por la cual se expide al anexo técnico para la implementación de los Sistemas de Control y Vigilancia ordenado a través de la Resolución número 9304 del 24 de diciembre de 2012.» 23 de sep. de 2014. URL: https://www.supertransporte.gov.co/documentos/2014/notificaciones/Resoluciones_Generales/13830.pdf (visitado 26-10-2022).ansv.observatorio01. «Comportamiento cifra de víctimas en siniestros viales Definitivas 2020». En: Observatorio nacional de seguridad vial (23 de dic. de 2021). URL: https://ansv.gov.co/sites/default/files/2021-12/Cifras_Nacionales_Definitivas_2020_ONSV.pdf (visitado 27-10-2022).Osmis Areda Habte y Håkan J. Holm. «Competition Makes Inspectors More Lenient: Evidence from the Motor Vehicle Inspection Market». En: Review of Industrial Organization 61 (1 ago. de 2022), págs. 45-72. ISSN: 15737160. DOI: 10.1007/S11151-022-09864-Z/FIGURES/6. URL: https://link.springer.com/article/10.1007/s11151-022-09864-z.V. Dobromirov, V. Verkhorubov e I. Chernyaev. «Systematizing the factors that determine ways of developing the vehicle maintenance system and providing vehicle safety». En: vol. 36.2018, págs. 114-121. DOI: 10.1016/j.trpro.2018.12.052.Aaron Agbo y col. «An Empirical Inquiry into Maintenance Work of Auto-Mechanics and its Relative Bearing on Road Traffic Accidents - A Developing Country Case, Ghana». En: International Journal of Engineering Research in Africa 34 (ene. de 2018), págs. 139-160. DOI: 10.4028/www.scientific.net/JERA.34.139.Behrang Assemi y Mark Hickman. «Relationship between heavy vehicle periodic inspections, crash contributing factors and crash severity». En: Transportation Research Part A: Policy and Practice 113 (jul. de 2018), págs. 441-459. ISSN: 09658564. DOI: 10.1016/J.TRA.2018.04.018.B. Hou y col. «Abnormal Analysis of Motor Vehicle Brake Inspection Based on Similarity». En: 2022, págs. 482-486. ISBN: 9783800757282.C. Qiu, H. Xu y W. Liu. «Supervision on abnormal activities in vehicle inspection service by anomaly detection in bipartite graph». En: 2016, págs. 68-71. ISBN: 9781467390460. DOI:10.1109/ICITE.2016.7581309.R.P. de Souza, L.F.R.C. Carmo y L. Pirmez. «A procedure to detect suspected patterns of fraudulent behavior in vehicle emissions tests performed by an accredited inspection body». En: Accreditation and Quality Assurance 21 (5 2016), págs. 323-333. DOI: 10.1007/s00769-016-1231-y.R.P. Souza, L.F.R.C. Carmo y L. Pirmez. «Rapid video assessment for monitoring testing facility fraud». En: International Journal of Quality and Reliability Management 35 (8 2018), págs. 1508-1518. DOI: 10.1108/IJQRM-01-2017-0022.Paul Viola y Michael Jones. «Robust Real-Time Object Detection». En: vol. 57. Ene. de 2001.N. Dalal y B. Triggs. «Histograms of oriented gradients for human detection». En: 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). Vol. 1. 2005, 886-893 vol. 1. DOI: 10.1109/CVPR.2005.177.Pedro Felzenszwalb, David McAllester y Deva Ramanan. «A discriminatively trained, multiscale, deformable part model». En: 2008 IEEE Conference on Computer Vision and Pattern Recognition. 2008, págs. 1-8. DOI: 10.1109/CVPR.2008.4587597.Alex Krizhevsky, Ilya Sutskever y Geoffrey E. Hinton. «ImageNet classification with deep convolutional neural networks». En: Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1. NIPS’12. Lake Tahoe, Nevada: Curran Associates Inc., 2012, págs. 1097-1105.Karen Simonyan y Andrew Zisserman. «Very Deep Convolutional Networks for Large-Scale Image Recognition». En: arXiv preprint arXiv:1409.1556 (2014).Kaiming He y col. «Deep Residual Learning for Image Recognition». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016), págs. 770-778. DOI: 10.1109/CVPR.2016.90.Christian Szegedy y col. «Going Deeper with Convolutions». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2015), págs. 1-9. DOI: 10.1109/CVPR. 2015.7298594.Mingxing Tan y Quoc V. Le. «EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks». En: Proceedings of the 36th International Conference on Machine Learning (ICML) 97 (2019), págs. 6105-6114.Zhengxia Zou y col. Object Detection in 20 Years: A Survey. 2023. arXiv: 1905.05055 [cs.CV].J. Redmon y col. «You only look once: Unified, real-time object detection». En: vol. 2016- Decem. 2016, págs. 779-788. ISBN: 9781467388504. DOI: 10.1109/CVPR.2016.91.Wei Liu y col. «SSD: Single Shot MultiBox Detector». En: Lecture Notes in Computer Science. Springer International Publishing, 2016, págs. 21-37. ISBN: 9783319464480. DOI: 10.1007/978-3-319-46448-0_2. URL: http://dx.doi.org/10.1007/978-3-319-46448-0_2.Tsung-Yi Lin y col. Focal Loss for Dense Object Detection. 2018. arXiv: 1708.02002 [cs.CV].Hei Law y Jia Deng. CornerNet: Detecting Objects as Paired Keypoints. 2019. arXiv: 1808.01244 [cs.CV].Xingyi Zhou, Dequan Wang y Philipp Krähenbühl. Objects as Points. 2019. arXiv: 1904.07850 [cs.CV].Nicolas Carion y col. End-to-End Object Detection with Transformers. 2020. arXiv: 2005.12872 [cs.CV].Joseph Redmon y Ali Farhadi. YOLO9000: Better, Faster, Stronger. 2016. arXiv: 1612 . 08242 [cs.CV].Joseph Redmon y Ali Farhadi. YOLOv3: An Incremental Improvement. 2018. arXiv: 1804.02767 [cs.CV].Alexey Bochkovskiy, Chien-Yao Wang y Hong-Yuan Mark Liao. YOLOv4: Optimal Speed and Accuracy of Object Detection. 2020. arXiv: 2004.10934 [cs.CV].Ultralytics. YOLOv5: Object Detection Software. https://github.com/ultralytics/yolov5. Accedido: 2023-02-10. 2022.Chuyi Li y col. YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications. 2022. arXiv: 2209.02976 [cs.CV].Chien-Yao Wang, Alexey Bochkovskiy y Hong-Yuan Mark Liao. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. 2022. arXiv: 2207.02696 [cs.CV].Dillon Reis y col. Real-Time Flying Object Detection with YOLOv8. 2023. arXiv: 2305 . 09972 [cs.CV].Chien-Yao Wang, I-Hau Yeh y Hong-Yuan Mark Liao. YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information. 2024. arXiv: 2402.13616 [cs.CV].Juan Terven, Diana-Margarita Córdova-Esparza y Julio-Alejandro Romero-González. «A Comprehensive Review of YOLO Architectures in Computer Vision: From YOLOv1 to YOLOv8 and YOLO-NAS». En: Machine Learning and Knowledge Extraction 5.4 (nov. de 2023), págs. 1680-1716. ISSN: 2504-4990. DOI: 10.3390/make5040083. URL: http://dx.doi.org/10.3390/make5040083.Ashish Vaswani y col. «Attention is all you need». En: Advances in neural information processing systems 30 (2017).Yuxin Fang y col. «You only look at one sequence: Rethinking transformer in vision through object detection». En: Advances in Neural Information Processing Systems 34 (2021), págs. 26204-26218.L. Connie, C. Kim On y A. Patricia. «A review of automatic license plate recognition system in mobile-based platform». En: Journal of Telecommunication, Electronic and Computer Engineering 10 (3-2 2018), págs. 77-82.N.N. Kyaw, G.R. Sinha y K.L. Mon. «License Plate Recognition of Myanmar Vehicle Number Plates A Critical Review». En: 2018 IEEE 7th Global Conference on Consumer Electronics, GCCE 2018 (2018), págs. 300-303. DOI: 10.1109/GCCE.2018.8574751. URL: https://ieeexplore.ieee.org/document/8574751.Muayad Ali Hamood Bakhtan, Munaisyah Abdullah y Aedah Abd Rahman. «A review on License Plate Recognition system algorithms». En: 2016 International Conference on Information and Communication Technology (ICICTM). 2016, págs. 84-89. DOI: 10.1109/ICICTM.2016.7890782.P. Marzuki y col. «A design of license plate recognition system using convolutional neural network». En: International Journal of Electrical and Computer Engineering 9 (3 2019), págs. 2196-2204. DOI: 10.11591/ijece.v9i3.pp2196-2204.M. Moaga, T. Chunling y P. Owolawi. «A review on vision-based vehicle identification using convolutional neural network». En: 2020. ISBN: 9781450375580. DOI: 10.1145/3415088. 3415112.P. Kaur y col. «Automatic license plate recognition system for vehicles using a cnn». En: Computers, Materials and Continua 71 (1 2022), págs. 35-50. DOI: 10.32604/cmc.2022.017681.R. Laroca y col. «An efficient and layout-independent automatic license plate recognition system based on the YOLO detector». En: IET Intelligent Transport Systems 15 (4 2021), págs. 483-503. DOI: 10.1049/itr2.12030.A. Tourani y col. «A robust deep learning approach for automatic Iranian vehicle license plate detection and recognition for surveillance systems». En: IEEE Access 8 (2020), págs. 201317-201330. DOI: 10.1109/ACCESS.2020.3035992.Y. Lee y col. «Accurate License Plate Recognition and Super-Resolution Using a Generative Adversarial Networks on Traffic Surveillance Video». En: 2018. ISBN: 9781538658079. DOI: 10.1109/ICCE-ASIA.2018.8552121.A. Boukerche, A.J. Siddiqui y A. Mammeri. «Automated vehicle detection and classification: Models, methods, and techniques». En: ACM Computing Surveys 50 (5 2017). DOI: 10.1145/3107614.M. Biglari, A. Soleimani y H. Hassanpour. «A Cascaded Part-Based System for Fine-Grained Vehicle Classification». En: IEEE Transactions on Intelligent Transportation Systems 19 (1 2018), págs. 273-283. DOI: 10.1109/TITS.2017.2749961.Xinchen Liu y col. «A deep learning-based approach to progressive vehicle re-identification for urban surveillance». En: European conference on computer vision. Springer, 2016, págs. 869-884.Jane Bromley y col. «Signature verification using a ”siamese” time delay neural network». En: Advances in neural information processing systems. 1994, págs. 737-744.Gregory Koch, Richard Zemel y Ruslan Salakhutdinov. «Siamese neural networks for one-shot image recognition». En: ICML deep learning workshop. Vol. 2. 2015.Dominik Zapletal y Adam Herout. «Vehicle re-identification for automatic video traffic surveillance». En: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2016, págs. 25-31.Yantao Shen y col. «Learning deep neural networks for vehicle re-ID with visual-spatio-temporal path proposals». En: Proceedings of the IEEE International Conference on Computer Vision. 2017, págs. 1900-1909.Florian Schroff, Dmitry Kalenichenko y James Philbin. «Facenet: A unified embedding for face recognition and clustering». En: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015, págs. 815-823.Raia Hadsell, Sumit Chopra y Yann LeCun. «Dimensionality reduction by learning an invariant mapping». En: 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06). Vol. 2. IEEE. 2006, págs. 1735-1742.Tsung-Yi Lin y col. Microsoft COCO: Common Objects in Context. 2015. arXiv: 1405.0312 [cs.CV].Maxim Tkachenko y col. Label Studio: Data labeling software. Open source software available from https://github.com/heartexlabs/label-studio. 2020-2022. URL: https://github.com/heartexlabs/label-studio.Huggin Face. https://hugginface.co. Accessed: 2024-03-09.Hong-Yuan Mark Liao Chien-Yao Wang I-Hau Yeh. WongKinYiu/yolov9: Implementation of paper. https://github.com/WongKinYiu/yolov9. Accedido: 2024-03-10. 2024.Jonathan Krause y col. 3D Object Representations for Fine-Grained Categorization. Sydney, Australia, 2013. URL: http://ai.stanford.edu/~jkrause/cars/car_dataset.html.InvestigadoresResponsables políticosLICENSElicense.txtlicense.txttext/plain; charset=utf-85879https://repositorio.unal.edu.co/bitstream/unal/86734/1/license.txteb34b1cf90b7e1103fc9dfd26be24b4aMD51ORIGINAL1032369640.2024.pdf1032369640.2024.pdfTesis de Maestría en Ingeniería de Sistemas y Computaciónapplication/pdf8662377https://repositorio.unal.edu.co/bitstream/unal/86734/2/1032369640.2024.pdf03a8805b6d0470aa22e87d94aa6c2ab1MD52THUMBNAIL1032369640.2024.pdf.jpg1032369640.2024.pdf.jpgGenerated Thumbnailimage/jpeg5421https://repositorio.unal.edu.co/bitstream/unal/86734/3/1032369640.2024.pdf.jpgd41aa907538462934c5c9219d059f65fMD53unal/86734oai:repositorio.unal.edu.co:unal/867342024-08-16 23:25:39.879Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.coUEFSVEUgMS4gVMOJUk1JTk9TIERFIExBIExJQ0VOQ0lBIFBBUkEgUFVCTElDQUNJw5NOIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KCkxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgYXV0b3IsIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgc2UgaW50ZWdyYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsLCBiYWpvIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vczoKCgphKQlMb3MgYXV0b3JlcyB5L28gbG9zIHRpdHVsYXJlcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEgcGFyYSByZWFsaXphciBsb3Mgc2lndWllbnRlcyBhY3RvcyBzb2JyZSBsYSBvYnJhOiBpKSByZXByb2R1Y2lyIGxhIG9icmEgZGUgbWFuZXJhIGRpZ2l0YWwsIHBlcm1hbmVudGUgbyB0ZW1wb3JhbCwgaW5jbHV5ZW5kbyBlbCBhbG1hY2VuYW1pZW50byBlbGVjdHLDs25pY28sIGFzw60gY29tbyBjb252ZXJ0aXIgZWwgZG9jdW1lbnRvIGVuIGVsIGN1YWwgc2UgZW5jdWVudHJhIGNvbnRlbmlkYSBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBleGlzdGVudGUgYSBsYSBmZWNoYSBkZSBsYSBzdXNjcmlwY2nDs24gZGUgbGEgcHJlc2VudGUgbGljZW5jaWEsIHkgaWkpIGNvbXVuaWNhciBhbCBww7pibGljbyBsYSBvYnJhIHBvciBjdWFscXVpZXIgbWVkaW8gbyBwcm9jZWRpbWllbnRvLCBlbiBtZWRpb3MgYWzDoW1icmljb3MgbyBpbmFsw6FtYnJpY29zLCBpbmNsdXllbmRvIGxhIHB1ZXN0YSBhIGRpc3Bvc2ljacOzbiBlbiBhY2Nlc28gYWJpZXJ0by4gQWRpY2lvbmFsIGEgbG8gYW50ZXJpb3IsIGVsIGF1dG9yIHkvbyB0aXR1bGFyIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgcGFyYSBxdWUsIGVuIGxhIHJlcHJvZHVjY2nDs24geSBjb211bmljYWNpw7NuIGFsIHDDumJsaWNvIHF1ZSBsYSBVbml2ZXJzaWRhZCByZWFsaWNlIHNvYnJlIGxhIG9icmEsIGhhZ2EgbWVuY2nDs24gZGUgbWFuZXJhIGV4cHJlc2EgYWwgdGlwbyBkZSBsaWNlbmNpYSBDcmVhdGl2ZSBDb21tb25zIGJham8gbGEgY3VhbCBlbCBhdXRvciB5L28gdGl0dWxhciBkZXNlYSBvZnJlY2VyIHN1IG9icmEgYSBsb3MgdGVyY2Vyb3MgcXVlIGFjY2VkYW4gYSBkaWNoYSBvYnJhIGEgdHJhdsOpcyBkZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgY3VhbmRvIHNlYSBlbCBjYXNvLiBFbCBhdXRvciB5L28gdGl0dWxhciBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBwb2Ryw6EgZGFyIHBvciB0ZXJtaW5hZGEgbGEgcHJlc2VudGUgbGljZW5jaWEgbWVkaWFudGUgc29saWNpdHVkIGVsZXZhZGEgYSBsYSBEaXJlY2Npw7NuIE5hY2lvbmFsIGRlIEJpYmxpb3RlY2FzIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLiAKCmIpIAlMb3MgYXV0b3JlcyB5L28gdGl0dWxhcmVzIGRlIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIGF1dG9yIHNvYnJlIGxhIG9icmEgY29uZmllcmVuIGxhIGxpY2VuY2lhIHNlw7FhbGFkYSBlbiBlbCBsaXRlcmFsIGEpIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8gcG9yIGVsIHRpZW1wbyBkZSBwcm90ZWNjacOzbiBkZSBsYSBvYnJhIGVuIHRvZG9zIGxvcyBwYcOtc2VzIGRlbCBtdW5kbywgZXN0byBlcywgc2luIGxpbWl0YWNpw7NuIHRlcnJpdG9yaWFsIGFsZ3VuYS4KCmMpCUxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBtYW5pZmllc3RhbiBlc3RhciBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgcHJlc2VudGUgbGljZW5jaWEgc2Ugb3RvcmdhIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCByZW51bmNpYW4gYSByZWNpYmlyIGN1YWxxdWllciByZXRyaWJ1Y2nDs24gZWNvbsOzbWljYSBvIGVtb2x1bWVudG8gYWxndW5vIHBvciBsYSBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EgeSBjdWFscXVpZXIgb3RybyB1c28gcXVlIHNlIGhhZ2EgZW4gbG9zIHTDqXJtaW5vcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGRlIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgY29uIHF1ZSBzZSBwdWJsaWNhLgoKZCkJUXVpZW5lcyBmaXJtYW4gZWwgcHJlc2VudGUgZG9jdW1lbnRvIGRlY2xhcmFuIHF1ZSBwYXJhIGxhIGNyZWFjacOzbiBkZSBsYSBvYnJhLCBubyBzZSBoYW4gdnVsbmVyYWRvIGxvcyBkZXJlY2hvcyBkZSBwcm9waWVkYWQgaW50ZWxlY3R1YWwsIGluZHVzdHJpYWwsIG1vcmFsZXMgeSBwYXRyaW1vbmlhbGVzIGRlIHRlcmNlcm9zLiBEZSBvdHJhIHBhcnRlLCAgcmVjb25vY2VuIHF1ZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlIHkgc2UgZW5jdWVudHJhIGV4ZW50YSBkZSBjdWxwYSBlbiBjYXNvIGRlIHByZXNlbnRhcnNlIGFsZ8O6biB0aXBvIGRlIHJlY2xhbWFjacOzbiBlbiBtYXRlcmlhIGRlIGRlcmVjaG9zIGRlIGF1dG9yIG8gcHJvcGllZGFkIGludGVsZWN0dWFsIGVuIGdlbmVyYWwuIFBvciBsbyB0YW50bywgbG9zIGZpcm1hbnRlcyAgYWNlcHRhbiBxdWUgY29tbyB0aXR1bGFyZXMgw7puaWNvcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciwgYXN1bWlyw6FuIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIGNpdmlsLCBhZG1pbmlzdHJhdGl2YSB5L28gcGVuYWwgcXVlIHB1ZWRhIGRlcml2YXJzZSBkZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYS4gIAoKZikJQXV0b3JpemFuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgaW5jbHVpciBsYSBvYnJhIGVuIGxvcyBhZ3JlZ2Fkb3JlcyBkZSBjb250ZW5pZG9zLCBidXNjYWRvcmVzIGFjYWTDqW1pY29zLCBtZXRhYnVzY2Fkb3Jlcywgw61uZGljZXMgeSBkZW3DoXMgbWVkaW9zIHF1ZSBzZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBwcm9tb3ZlciBlbCBhY2Nlc28geSBjb25zdWx0YSBkZSBsYSBtaXNtYS4gCgpnKQlFbiBlbCBjYXNvIGRlIGxhcyB0ZXNpcyBjcmVhZGFzIHBhcmEgb3B0YXIgZG9ibGUgdGl0dWxhY2nDs24sIGxvcyBmaXJtYW50ZXMgc2Vyw6FuIGxvcyByZXNwb25zYWJsZXMgZGUgY29tdW5pY2FyIGEgbGFzIGluc3RpdHVjaW9uZXMgbmFjaW9uYWxlcyBvIGV4dHJhbmplcmFzIGVuIGNvbnZlbmlvLCBsYXMgbGljZW5jaWFzIGRlIGFjY2VzbyBhYmllcnRvIENyZWF0aXZlIENvbW1vbnMgeSBhdXRvcml6YWNpb25lcyBhc2lnbmFkYXMgYSBzdSBvYnJhIHBhcmEgbGEgcHVibGljYWNpw7NuIGVuIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgVU5BTCBkZSBhY3VlcmRvIGNvbiBsYXMgZGlyZWN0cmljZXMgZGUgbGEgUG9sw610aWNhIEdlbmVyYWwgZGUgbGEgQmlibGlvdGVjYSBEaWdpdGFsLgoKCmgpCVNlIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgY29tbyByZXNwb25zYWJsZSBkZWwgdHJhdGFtaWVudG8gZGUgZGF0b3MgcGVyc29uYWxlcywgZGUgYWN1ZXJkbyBjb24gbGEgbGV5IDE1ODEgZGUgMjAxMiBlbnRlbmRpZW5kbyBxdWUgc2UgZW5jdWVudHJhbiBiYWpvIG1lZGlkYXMgcXVlIGdhcmFudGl6YW4gbGEgc2VndXJpZGFkLCBjb25maWRlbmNpYWxpZGFkIGUgaW50ZWdyaWRhZCwgeSBzdSB0cmF0YW1pZW50byB0aWVuZSB1bmEgZmluYWxpZGFkIGhpc3TDs3JpY2EsIGVzdGFkw61zdGljYSBvIGNpZW50w61maWNhIHNlZ8O6biBsbyBkaXNwdWVzdG8gZW4gbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMuCgoKClBBUlRFIDIuIEFVVE9SSVpBQ0nDk04gUEFSQSBQVUJMSUNBUiBZIFBFUk1JVElSIExBIENPTlNVTFRBIFkgVVNPIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KClNlIGF1dG9yaXphIGxhIHB1YmxpY2FjacOzbiBlbGVjdHLDs25pY2EsIGNvbnN1bHRhIHkgdXNvIGRlIGxhIG9icmEgcG9yIHBhcnRlIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgZGUgc3VzIHVzdWFyaW9zIGRlIGxhIHNpZ3VpZW50ZSBtYW5lcmE6CgphLglDb25jZWRvIGxpY2VuY2lhIGVuIGxvcyB0w6lybWlub3Mgc2XDsWFsYWRvcyBlbiBsYSBwYXJ0ZSAxIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8sIGNvbiBlbCBvYmpldGl2byBkZSBxdWUgbGEgb2JyYSBlbnRyZWdhZGEgc2VhIHB1YmxpY2FkYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGVuIGFjY2VzbyBhYmllcnRvIHBhcmEgc3UgY29uc3VsdGEgcG9yIGxvcyB1c3VhcmlvcyBkZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSAgYSB0cmF2w6lzIGRlIGludGVybmV0LgoKCgpQQVJURSAzIEFVVE9SSVpBQ0nDk04gREUgVFJBVEFNSUVOVE8gREUgREFUT1MgUEVSU09OQUxFUy4KCkxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLCBjb21vIHJlc3BvbnNhYmxlIGRlbCBUcmF0YW1pZW50byBkZSBEYXRvcyBQZXJzb25hbGVzLCBpbmZvcm1hIHF1ZSBsb3MgZGF0b3MgZGUgY2Fyw6FjdGVyIHBlcnNvbmFsIHJlY29sZWN0YWRvcyBtZWRpYW50ZSBlc3RlIGZvcm11bGFyaW8sIHNlIGVuY3VlbnRyYW4gYmFqbyBtZWRpZGFzIHF1ZSBnYXJhbnRpemFuIGxhIHNlZ3VyaWRhZCwgY29uZmlkZW5jaWFsaWRhZCBlIGludGVncmlkYWQgeSBzdSB0cmF0YW1pZW50byBzZSByZWFsaXphIGRlIGFjdWVyZG8gYWwgY3VtcGxpbWllbnRvIG5vcm1hdGl2byBkZSBsYSBMZXkgMTU4MSBkZSAyMDEyIHkgZGUgbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMgZGUgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEuIFB1ZWRlIGVqZXJjZXIgc3VzIGRlcmVjaG9zIGNvbW8gdGl0dWxhciBhIGNvbm9jZXIsIGFjdHVhbGl6YXIsIHJlY3RpZmljYXIgeSByZXZvY2FyIGxhcyBhdXRvcml6YWNpb25lcyBkYWRhcyBhIGxhcyBmaW5hbGlkYWRlcyBhcGxpY2FibGVzIGEgdHJhdsOpcyBkZSBsb3MgY2FuYWxlcyBkaXNwdWVzdG9zIHkgZGlzcG9uaWJsZXMgZW4gd3d3LnVuYWwuZWR1LmNvIG8gZS1tYWlsOiBwcm90ZWNkYXRvc19uYUB1bmFsLmVkdS5jbyIKClRlbmllbmRvIGVuIGN1ZW50YSBsbyBhbnRlcmlvciwgYXV0b3Jpem8gZGUgbWFuZXJhIHZvbHVudGFyaWEsIHByZXZpYSwgZXhwbMOtY2l0YSwgaW5mb3JtYWRhIGUgaW5lcXXDrXZvY2EgYSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhIHRyYXRhciBsb3MgZGF0b3MgcGVyc29uYWxlcyBkZSBhY3VlcmRvIGNvbiBsYXMgZmluYWxpZGFkZXMgZXNwZWPDrWZpY2FzIHBhcmEgZWwgZGVzYXJyb2xsbyB5IGVqZXJjaWNpbyBkZSBsYXMgZnVuY2lvbmVzIG1pc2lvbmFsZXMgZGUgZG9jZW5jaWEsIGludmVzdGlnYWNpw7NuIHkgZXh0ZW5zacOzbiwgYXPDrSBjb21vIGxhcyByZWxhY2lvbmVzIGFjYWTDqW1pY2FzLCBsYWJvcmFsZXMsIGNvbnRyYWN0dWFsZXMgeSB0b2RhcyBsYXMgZGVtw6FzIHJlbGFjaW9uYWRhcyBjb24gZWwgb2JqZXRvIHNvY2lhbCBkZSBsYSBVbml2ZXJzaWRhZC4gCgo=