Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos

ilustraciones, fotografías a color, gráficas

Autores:
García Arias, Gerardo Antonio
Tipo de recurso:
Fecha de publicación:
2022
Institución:
Universidad Nacional de Colombia
Repositorio:
Universidad Nacional de Colombia
Idioma:
spa
OAI Identifier:
oai:repositorio.unal.edu.co:unal/82628
Acceso en línea:
https://repositorio.unal.edu.co/handle/unal/82628
https://repositorio.unal.edu.co/
Palabra clave:
310 - Colecciones de estadística general
Estafa
Delitos económicos
Swindlers and swindling
Commercial crimes
Modelo de Prevención de Fraude
Modelos Lineales Generalizados
Redes Neuronales
Detección de Objetos
Seguimiento por Vídeo
Fraud Prevention Model
Generalized Linear Model
Neural Networks
Object Detection
Tracker Video
Rights
openAccess
License
Atribución-NoComercial 4.0 Internacional
id UNACIONAL2_78801c664cab75b29f063a0cb26f761c
oai_identifier_str oai:repositorio.unal.edu.co:unal/82628
network_acronym_str UNACIONAL2
network_name_str Universidad Nacional de Colombia
repository_id_str
dc.title.spa.fl_str_mv Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
dc.title.translated.eng.fl_str_mv Video-based fraud prevention model. An application of neural networks and statistical models
title Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
spellingShingle Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
310 - Colecciones de estadística general
Estafa
Delitos económicos
Swindlers and swindling
Commercial crimes
Modelo de Prevención de Fraude
Modelos Lineales Generalizados
Redes Neuronales
Detección de Objetos
Seguimiento por Vídeo
Fraud Prevention Model
Generalized Linear Model
Neural Networks
Object Detection
Tracker Video
title_short Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
title_full Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
title_fullStr Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
title_full_unstemmed Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
title_sort Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
dc.creator.fl_str_mv García Arias, Gerardo Antonio
dc.contributor.advisor.none.fl_str_mv Alonso Malaver, Carlos Eduardo
dc.contributor.author.none.fl_str_mv García Arias, Gerardo Antonio
dc.subject.ddc.spa.fl_str_mv 310 - Colecciones de estadística general
topic 310 - Colecciones de estadística general
Estafa
Delitos económicos
Swindlers and swindling
Commercial crimes
Modelo de Prevención de Fraude
Modelos Lineales Generalizados
Redes Neuronales
Detección de Objetos
Seguimiento por Vídeo
Fraud Prevention Model
Generalized Linear Model
Neural Networks
Object Detection
Tracker Video
dc.subject.lemb.spa.fl_str_mv Estafa
Delitos económicos
dc.subject.lemb.eng.fl_str_mv Swindlers and swindling
Commercial crimes
dc.subject.proposal.spa.fl_str_mv Modelo de Prevención de Fraude
Modelos Lineales Generalizados
Redes Neuronales
Detección de Objetos
Seguimiento por Vídeo
dc.subject.proposal.eng.fl_str_mv Fraud Prevention Model
Generalized Linear Model
Neural Networks
Object Detection
Tracker Video
description ilustraciones, fotografías a color, gráficas
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-11-03T18:36:36Z
dc.date.available.none.fl_str_mv 2022-11-03T18:36:36Z
dc.date.issued.none.fl_str_mv 2022-11-01
dc.type.spa.fl_str_mv Trabajo de grado - Maestría
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.content.spa.fl_str_mv Model
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TM
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unal.edu.co/handle/unal/82628
dc.identifier.instname.spa.fl_str_mv Universidad Nacional de Colombia
dc.identifier.reponame.spa.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourl.spa.fl_str_mv https://repositorio.unal.edu.co/
url https://repositorio.unal.edu.co/handle/unal/82628
https://repositorio.unal.edu.co/
identifier_str_mv Universidad Nacional de Colombia
Repositorio Institucional Universidad Nacional de Colombia
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.indexed.spa.fl_str_mv RedCol
LaReferencia
dc.relation.references.spa.fl_str_mv Agresti, A. (2015), Foundations of Linear and Generalized Linear Models, i edn, Wiley, United States of America.
Arbib, M. (2003), The Handbook of Brain Theory and Neural Networks, i edn, Advisory Board, United States of America.
Bengio, Y. (2009), ‘Learning deep architectures for ai’, Foundations and Trends in Machine Learning 2, 1–127.
Cyganek, B. (2013), Video tracking: theory and practice, i edn, John Wiley and Sons, United Kingdom.
Fiaz, M., Mahmood, A. & Ki Jung, S. (2019), Deep siamese networks toward robust vi-sual tracking, in L. Mazzeo, ed., ‘Visual Object Tracking with Deep Neural Networks’, IntechOpen, chapter 1, pp. 1–21.
Goodfellow, I., Bengio, Y. & Courville, A. (2016), Deep learning, i edn, MIT Press.
Khan, S., Rahmani, H., Ali Shah, S. A. & Bennamoun, M. (2018), ‘A guide to convolutional neural networks for computer vision’, Synthesis Lectures on Computer Vision 8, 1–207.
Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.
Lee, J. & Verleysen, M. (2007), Nonlinear Dimension Reduction, i edn, Springer, United States of America.
Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.
Mishachev, N. (2017), ‘Backpropagation in matrix notation’, arXiv 8, 1–7.
OpenVIVO (2020), ‘Faster RCNN inception v2 COCO’, https://github.com/openvinotoolkit/open_model_zoo/tree/master/models/public/faster_rcnn_inception_v2_coco. Online; accedido 03 de septiembre de 2020.
Ren, S., He, K., Girshick, R. & Sun, J. (2017), ‘Faster r-CNN: Towards real-time object detection with region proposal networks’, IEEE Transactions on Pattern Analysis and Machine Intelligence 39(6), 1137–1149.
Salman, K., Hossein, R., Syed, A., Ali, S. & Mohammed, B. (2018), A Guide to Convolutional Neural Networks for Computer Vision, i edn, Morgan Claypool.
Sharma, Avinash (2020), ‘Understanding Activation Functions in Neural Networks’, https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0. Online; accedido 01 de agosto de 2020.
Vanegas, H. & Rondón, L. (2018), ‘Notas de clase: Modelos lineales generalizados’.
Wang, Q., Zhang, L. & Bertinetto, L. (2019), ‘Fast online object tracking and segmentation: A unifying approach’, IEEE Conference On Computer Vision And Pattern Recognition, pp. 1328–1338.
Warren, S. (1994), ‘Neural networks and statistical models’, Proceedings of the Nineteenth Annual SAS Users Group International Conference pp. 1–13.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
rights_invalid_str_mv Atribución-NoComercial 4.0 Internacional
http://creativecommons.org/licenses/by-nc/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv xii, 57 páginas
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Nacional de Colombia
dc.publisher.program.spa.fl_str_mv Bogotá - Ciencias - Maestría en Ciencias - Estadística
dc.publisher.faculty.spa.fl_str_mv Facultad de Ciencias
dc.publisher.place.spa.fl_str_mv Bogotá, Colombia
dc.publisher.branch.spa.fl_str_mv Universidad Nacional de Colombia - Sede Bogotá
institution Universidad Nacional de Colombia
bitstream.url.fl_str_mv https://repositorio.unal.edu.co/bitstream/unal/82628/1/license.txt
https://repositorio.unal.edu.co/bitstream/unal/82628/2/1052358743.2022.pdf
bitstream.checksum.fl_str_mv eb34b1cf90b7e1103fc9dfd26be24b4a
5aa238217991a8f40f40c73323f57d60
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
repository.mail.fl_str_mv repositorio_nal@unal.edu.co
_version_ 1806886048584695808
spelling Atribución-NoComercial 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Alonso Malaver, Carlos Eduardod7d5adb6d2633a4f50cb7702f84558c8García Arias, Gerardo Antonio3cf8c2eeb33bc85856d18ff83250eaa32022-11-03T18:36:36Z2022-11-03T18:36:36Z2022-11-01https://repositorio.unal.edu.co/handle/unal/82628Universidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/ilustraciones, fotografías a color, gráficasDada una nueva tipología de fraude, en la que cajeros automáticos son bloqueados con el propósito de crear una distracción de los usuario; lo cual, permite el cambio de una tarjeta asociada a un producto financiero y la captura de su clave. El presente trabajo, propone un modelo lineal generalizado como herramienta de pronóstico de la probabilidad de ocurrencia de fraude, mediante la estructuración de una base de datos, extraída de vídeos por medio de redes neuronales convolucionales. Estos modelos estiman la presencia de personas, encontrando el punto de partida para realizar el rastreo de cada individuo por medio de redes neuronales siamesas. La metodología, permite la construcción de covariables en función de la ubicación espacio-temporal de las personas en el lugar de los hechos, insumo que permite la identificación del modelo lineal. (Texto tomado de la fuente)Given a new type of fraud, in which ATMs are blocked with the purpose of creating a distraction for users that allows them to change a card associated with a financial product and capture the password. This paper proposes a Generalized Linear Model as a tool for forecasting the probability of fraud occurrences, by structuring a database extracted from videos by means of Convolutional Neural Networks. This model estimate the presence of people, by finding the starting point to track each individual with a Siamese Neural Networks. The proposal enable the construction of covariates based on the spatio-temporal location of the people at the scene of the events. Input that allows the identification of the lineal model.MaestríaMagíster en Ciencias - Estadísticaxii, 57 páginasapplication/pdfspaUniversidad Nacional de ColombiaBogotá - Ciencias - Maestría en Ciencias - EstadísticaFacultad de CienciasBogotá, ColombiaUniversidad Nacional de Colombia - Sede Bogotá310 - Colecciones de estadística generalEstafaDelitos económicosSwindlers and swindlingCommercial crimesModelo de Prevención de FraudeModelos Lineales GeneralizadosRedes NeuronalesDetección de ObjetosSeguimiento por VídeoFraud Prevention ModelGeneralized Linear ModelNeural NetworksObject DetectionTracker VideoModelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticosVideo-based fraud prevention model. An application of neural networks and statistical modelsTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionModelhttp://purl.org/redcol/resource_type/TMRedColLaReferenciaAgresti, A. (2015), Foundations of Linear and Generalized Linear Models, i edn, Wiley, United States of America.Arbib, M. (2003), The Handbook of Brain Theory and Neural Networks, i edn, Advisory Board, United States of America.Bengio, Y. (2009), ‘Learning deep architectures for ai’, Foundations and Trends in Machine Learning 2, 1–127.Cyganek, B. (2013), Video tracking: theory and practice, i edn, John Wiley and Sons, United Kingdom.Fiaz, M., Mahmood, A. & Ki Jung, S. (2019), Deep siamese networks toward robust vi-sual tracking, in L. Mazzeo, ed., ‘Visual Object Tracking with Deep Neural Networks’, IntechOpen, chapter 1, pp. 1–21.Goodfellow, I., Bengio, Y. & Courville, A. (2016), Deep learning, i edn, MIT Press.Khan, S., Rahmani, H., Ali Shah, S. A. & Bennamoun, M. (2018), ‘A guide to convolutional neural networks for computer vision’, Synthesis Lectures on Computer Vision 8, 1–207.Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.Lee, J. & Verleysen, M. (2007), Nonlinear Dimension Reduction, i edn, Springer, United States of America.Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.Mishachev, N. (2017), ‘Backpropagation in matrix notation’, arXiv 8, 1–7.OpenVIVO (2020), ‘Faster RCNN inception v2 COCO’, https://github.com/openvinotoolkit/open_model_zoo/tree/master/models/public/faster_rcnn_inception_v2_coco. Online; accedido 03 de septiembre de 2020.Ren, S., He, K., Girshick, R. & Sun, J. (2017), ‘Faster r-CNN: Towards real-time object detection with region proposal networks’, IEEE Transactions on Pattern Analysis and Machine Intelligence 39(6), 1137–1149.Salman, K., Hossein, R., Syed, A., Ali, S. & Mohammed, B. (2018), A Guide to Convolutional Neural Networks for Computer Vision, i edn, Morgan Claypool.Sharma, Avinash (2020), ‘Understanding Activation Functions in Neural Networks’, https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0. Online; accedido 01 de agosto de 2020.Vanegas, H. & Rondón, L. (2018), ‘Notas de clase: Modelos lineales generalizados’.Wang, Q., Zhang, L. & Bertinetto, L. (2019), ‘Fast online object tracking and segmentation: A unifying approach’, IEEE Conference On Computer Vision And Pattern Recognition, pp. 1328–1338.Warren, S. (1994), ‘Neural networks and statistical models’, Proceedings of the Nineteenth Annual SAS Users Group International Conference pp. 1–13.EstudiantesInvestigadoresMaestrosLICENSElicense.txtlicense.txttext/plain; charset=utf-85879https://repositorio.unal.edu.co/bitstream/unal/82628/1/license.txteb34b1cf90b7e1103fc9dfd26be24b4aMD51ORIGINAL1052358743.2022.pdf1052358743.2022.pdfTesis de Maestría en Ciencias - Estadísticaapplication/pdf4499262https://repositorio.unal.edu.co/bitstream/unal/82628/2/1052358743.2022.pdf5aa238217991a8f40f40c73323f57d60MD52unal/82628oai:repositorio.unal.edu.co:unal/826282022-11-03 13:39:18.742Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.coUEFSVEUgMS4gVMOJUk1JTk9TIERFIExBIExJQ0VOQ0lBIFBBUkEgUFVCTElDQUNJw5NOIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KCkxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgYXV0b3IsIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgc2UgaW50ZWdyYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsLCBiYWpvIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vczoKCgphKQlMb3MgYXV0b3JlcyB5L28gbG9zIHRpdHVsYXJlcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEgcGFyYSByZWFsaXphciBsb3Mgc2lndWllbnRlcyBhY3RvcyBzb2JyZSBsYSBvYnJhOiBpKSByZXByb2R1Y2lyIGxhIG9icmEgZGUgbWFuZXJhIGRpZ2l0YWwsIHBlcm1hbmVudGUgbyB0ZW1wb3JhbCwgaW5jbHV5ZW5kbyBlbCBhbG1hY2VuYW1pZW50byBlbGVjdHLDs25pY28sIGFzw60gY29tbyBjb252ZXJ0aXIgZWwgZG9jdW1lbnRvIGVuIGVsIGN1YWwgc2UgZW5jdWVudHJhIGNvbnRlbmlkYSBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBleGlzdGVudGUgYSBsYSBmZWNoYSBkZSBsYSBzdXNjcmlwY2nDs24gZGUgbGEgcHJlc2VudGUgbGljZW5jaWEsIHkgaWkpIGNvbXVuaWNhciBhbCBww7pibGljbyBsYSBvYnJhIHBvciBjdWFscXVpZXIgbWVkaW8gbyBwcm9jZWRpbWllbnRvLCBlbiBtZWRpb3MgYWzDoW1icmljb3MgbyBpbmFsw6FtYnJpY29zLCBpbmNsdXllbmRvIGxhIHB1ZXN0YSBhIGRpc3Bvc2ljacOzbiBlbiBhY2Nlc28gYWJpZXJ0by4gQWRpY2lvbmFsIGEgbG8gYW50ZXJpb3IsIGVsIGF1dG9yIHkvbyB0aXR1bGFyIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgcGFyYSBxdWUsIGVuIGxhIHJlcHJvZHVjY2nDs24geSBjb211bmljYWNpw7NuIGFsIHDDumJsaWNvIHF1ZSBsYSBVbml2ZXJzaWRhZCByZWFsaWNlIHNvYnJlIGxhIG9icmEsIGhhZ2EgbWVuY2nDs24gZGUgbWFuZXJhIGV4cHJlc2EgYWwgdGlwbyBkZSBsaWNlbmNpYSBDcmVhdGl2ZSBDb21tb25zIGJham8gbGEgY3VhbCBlbCBhdXRvciB5L28gdGl0dWxhciBkZXNlYSBvZnJlY2VyIHN1IG9icmEgYSBsb3MgdGVyY2Vyb3MgcXVlIGFjY2VkYW4gYSBkaWNoYSBvYnJhIGEgdHJhdsOpcyBkZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgY3VhbmRvIHNlYSBlbCBjYXNvLiBFbCBhdXRvciB5L28gdGl0dWxhciBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBwb2Ryw6EgZGFyIHBvciB0ZXJtaW5hZGEgbGEgcHJlc2VudGUgbGljZW5jaWEgbWVkaWFudGUgc29saWNpdHVkIGVsZXZhZGEgYSBsYSBEaXJlY2Npw7NuIE5hY2lvbmFsIGRlIEJpYmxpb3RlY2FzIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLiAKCmIpIAlMb3MgYXV0b3JlcyB5L28gdGl0dWxhcmVzIGRlIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIGF1dG9yIHNvYnJlIGxhIG9icmEgY29uZmllcmVuIGxhIGxpY2VuY2lhIHNlw7FhbGFkYSBlbiBlbCBsaXRlcmFsIGEpIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8gcG9yIGVsIHRpZW1wbyBkZSBwcm90ZWNjacOzbiBkZSBsYSBvYnJhIGVuIHRvZG9zIGxvcyBwYcOtc2VzIGRlbCBtdW5kbywgZXN0byBlcywgc2luIGxpbWl0YWNpw7NuIHRlcnJpdG9yaWFsIGFsZ3VuYS4KCmMpCUxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBtYW5pZmllc3RhbiBlc3RhciBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgcHJlc2VudGUgbGljZW5jaWEgc2Ugb3RvcmdhIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCByZW51bmNpYW4gYSByZWNpYmlyIGN1YWxxdWllciByZXRyaWJ1Y2nDs24gZWNvbsOzbWljYSBvIGVtb2x1bWVudG8gYWxndW5vIHBvciBsYSBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EgeSBjdWFscXVpZXIgb3RybyB1c28gcXVlIHNlIGhhZ2EgZW4gbG9zIHTDqXJtaW5vcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGRlIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgY29uIHF1ZSBzZSBwdWJsaWNhLgoKZCkJUXVpZW5lcyBmaXJtYW4gZWwgcHJlc2VudGUgZG9jdW1lbnRvIGRlY2xhcmFuIHF1ZSBwYXJhIGxhIGNyZWFjacOzbiBkZSBsYSBvYnJhLCBubyBzZSBoYW4gdnVsbmVyYWRvIGxvcyBkZXJlY2hvcyBkZSBwcm9waWVkYWQgaW50ZWxlY3R1YWwsIGluZHVzdHJpYWwsIG1vcmFsZXMgeSBwYXRyaW1vbmlhbGVzIGRlIHRlcmNlcm9zLiBEZSBvdHJhIHBhcnRlLCAgcmVjb25vY2VuIHF1ZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlIHkgc2UgZW5jdWVudHJhIGV4ZW50YSBkZSBjdWxwYSBlbiBjYXNvIGRlIHByZXNlbnRhcnNlIGFsZ8O6biB0aXBvIGRlIHJlY2xhbWFjacOzbiBlbiBtYXRlcmlhIGRlIGRlcmVjaG9zIGRlIGF1dG9yIG8gcHJvcGllZGFkIGludGVsZWN0dWFsIGVuIGdlbmVyYWwuIFBvciBsbyB0YW50bywgbG9zIGZpcm1hbnRlcyAgYWNlcHRhbiBxdWUgY29tbyB0aXR1bGFyZXMgw7puaWNvcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciwgYXN1bWlyw6FuIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIGNpdmlsLCBhZG1pbmlzdHJhdGl2YSB5L28gcGVuYWwgcXVlIHB1ZWRhIGRlcml2YXJzZSBkZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYS4gIAoKZikJQXV0b3JpemFuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgaW5jbHVpciBsYSBvYnJhIGVuIGxvcyBhZ3JlZ2Fkb3JlcyBkZSBjb250ZW5pZG9zLCBidXNjYWRvcmVzIGFjYWTDqW1pY29zLCBtZXRhYnVzY2Fkb3Jlcywgw61uZGljZXMgeSBkZW3DoXMgbWVkaW9zIHF1ZSBzZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBwcm9tb3ZlciBlbCBhY2Nlc28geSBjb25zdWx0YSBkZSBsYSBtaXNtYS4gCgpnKQlFbiBlbCBjYXNvIGRlIGxhcyB0ZXNpcyBjcmVhZGFzIHBhcmEgb3B0YXIgZG9ibGUgdGl0dWxhY2nDs24sIGxvcyBmaXJtYW50ZXMgc2Vyw6FuIGxvcyByZXNwb25zYWJsZXMgZGUgY29tdW5pY2FyIGEgbGFzIGluc3RpdHVjaW9uZXMgbmFjaW9uYWxlcyBvIGV4dHJhbmplcmFzIGVuIGNvbnZlbmlvLCBsYXMgbGljZW5jaWFzIGRlIGFjY2VzbyBhYmllcnRvIENyZWF0aXZlIENvbW1vbnMgeSBhdXRvcml6YWNpb25lcyBhc2lnbmFkYXMgYSBzdSBvYnJhIHBhcmEgbGEgcHVibGljYWNpw7NuIGVuIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgVU5BTCBkZSBhY3VlcmRvIGNvbiBsYXMgZGlyZWN0cmljZXMgZGUgbGEgUG9sw610aWNhIEdlbmVyYWwgZGUgbGEgQmlibGlvdGVjYSBEaWdpdGFsLgoKCmgpCVNlIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgY29tbyByZXNwb25zYWJsZSBkZWwgdHJhdGFtaWVudG8gZGUgZGF0b3MgcGVyc29uYWxlcywgZGUgYWN1ZXJkbyBjb24gbGEgbGV5IDE1ODEgZGUgMjAxMiBlbnRlbmRpZW5kbyBxdWUgc2UgZW5jdWVudHJhbiBiYWpvIG1lZGlkYXMgcXVlIGdhcmFudGl6YW4gbGEgc2VndXJpZGFkLCBjb25maWRlbmNpYWxpZGFkIGUgaW50ZWdyaWRhZCwgeSBzdSB0cmF0YW1pZW50byB0aWVuZSB1bmEgZmluYWxpZGFkIGhpc3TDs3JpY2EsIGVzdGFkw61zdGljYSBvIGNpZW50w61maWNhIHNlZ8O6biBsbyBkaXNwdWVzdG8gZW4gbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMuCgoKClBBUlRFIDIuIEFVVE9SSVpBQ0nDk04gUEFSQSBQVUJMSUNBUiBZIFBFUk1JVElSIExBIENPTlNVTFRBIFkgVVNPIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KClNlIGF1dG9yaXphIGxhIHB1YmxpY2FjacOzbiBlbGVjdHLDs25pY2EsIGNvbnN1bHRhIHkgdXNvIGRlIGxhIG9icmEgcG9yIHBhcnRlIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgZGUgc3VzIHVzdWFyaW9zIGRlIGxhIHNpZ3VpZW50ZSBtYW5lcmE6CgphLglDb25jZWRvIGxpY2VuY2lhIGVuIGxvcyB0w6lybWlub3Mgc2XDsWFsYWRvcyBlbiBsYSBwYXJ0ZSAxIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8sIGNvbiBlbCBvYmpldGl2byBkZSBxdWUgbGEgb2JyYSBlbnRyZWdhZGEgc2VhIHB1YmxpY2FkYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGVuIGFjY2VzbyBhYmllcnRvIHBhcmEgc3UgY29uc3VsdGEgcG9yIGxvcyB1c3VhcmlvcyBkZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSAgYSB0cmF2w6lzIGRlIGludGVybmV0LgoKCgpQQVJURSAzIEFVVE9SSVpBQ0nDk04gREUgVFJBVEFNSUVOVE8gREUgREFUT1MgUEVSU09OQUxFUy4KCkxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLCBjb21vIHJlc3BvbnNhYmxlIGRlbCBUcmF0YW1pZW50byBkZSBEYXRvcyBQZXJzb25hbGVzLCBpbmZvcm1hIHF1ZSBsb3MgZGF0b3MgZGUgY2Fyw6FjdGVyIHBlcnNvbmFsIHJlY29sZWN0YWRvcyBtZWRpYW50ZSBlc3RlIGZvcm11bGFyaW8sIHNlIGVuY3VlbnRyYW4gYmFqbyBtZWRpZGFzIHF1ZSBnYXJhbnRpemFuIGxhIHNlZ3VyaWRhZCwgY29uZmlkZW5jaWFsaWRhZCBlIGludGVncmlkYWQgeSBzdSB0cmF0YW1pZW50byBzZSByZWFsaXphIGRlIGFjdWVyZG8gYWwgY3VtcGxpbWllbnRvIG5vcm1hdGl2byBkZSBsYSBMZXkgMTU4MSBkZSAyMDEyIHkgZGUgbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMgZGUgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEuIFB1ZWRlIGVqZXJjZXIgc3VzIGRlcmVjaG9zIGNvbW8gdGl0dWxhciBhIGNvbm9jZXIsIGFjdHVhbGl6YXIsIHJlY3RpZmljYXIgeSByZXZvY2FyIGxhcyBhdXRvcml6YWNpb25lcyBkYWRhcyBhIGxhcyBmaW5hbGlkYWRlcyBhcGxpY2FibGVzIGEgdHJhdsOpcyBkZSBsb3MgY2FuYWxlcyBkaXNwdWVzdG9zIHkgZGlzcG9uaWJsZXMgZW4gd3d3LnVuYWwuZWR1LmNvIG8gZS1tYWlsOiBwcm90ZWNkYXRvc19uYUB1bmFsLmVkdS5jbyIKClRlbmllbmRvIGVuIGN1ZW50YSBsbyBhbnRlcmlvciwgYXV0b3Jpem8gZGUgbWFuZXJhIHZvbHVudGFyaWEsIHByZXZpYSwgZXhwbMOtY2l0YSwgaW5mb3JtYWRhIGUgaW5lcXXDrXZvY2EgYSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhIHRyYXRhciBsb3MgZGF0b3MgcGVyc29uYWxlcyBkZSBhY3VlcmRvIGNvbiBsYXMgZmluYWxpZGFkZXMgZXNwZWPDrWZpY2FzIHBhcmEgZWwgZGVzYXJyb2xsbyB5IGVqZXJjaWNpbyBkZSBsYXMgZnVuY2lvbmVzIG1pc2lvbmFsZXMgZGUgZG9jZW5jaWEsIGludmVzdGlnYWNpw7NuIHkgZXh0ZW5zacOzbiwgYXPDrSBjb21vIGxhcyByZWxhY2lvbmVzIGFjYWTDqW1pY2FzLCBsYWJvcmFsZXMsIGNvbnRyYWN0dWFsZXMgeSB0b2RhcyBsYXMgZGVtw6FzIHJlbGFjaW9uYWRhcyBjb24gZWwgb2JqZXRvIHNvY2lhbCBkZSBsYSBVbml2ZXJzaWRhZC4gCgo=