Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos
ilustraciones, fotografías a color, gráficas
- Autores:
-
García Arias, Gerardo Antonio
- Tipo de recurso:
- Fecha de publicación:
- 2022
- Institución:
- Universidad Nacional de Colombia
- Repositorio:
- Universidad Nacional de Colombia
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unal.edu.co:unal/82628
- Palabra clave:
- 310 - Colecciones de estadística general
Estafa
Delitos económicos
Swindlers and swindling
Commercial crimes
Modelo de Prevención de Fraude
Modelos Lineales Generalizados
Redes Neuronales
Detección de Objetos
Seguimiento por Vídeo
Fraud Prevention Model
Generalized Linear Model
Neural Networks
Object Detection
Tracker Video
- Rights
- openAccess
- License
- Atribución-NoComercial 4.0 Internacional
id |
UNACIONAL2_78801c664cab75b29f063a0cb26f761c |
---|---|
oai_identifier_str |
oai:repositorio.unal.edu.co:unal/82628 |
network_acronym_str |
UNACIONAL2 |
network_name_str |
Universidad Nacional de Colombia |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
dc.title.translated.eng.fl_str_mv |
Video-based fraud prevention model. An application of neural networks and statistical models |
title |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
spellingShingle |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos 310 - Colecciones de estadística general Estafa Delitos económicos Swindlers and swindling Commercial crimes Modelo de Prevención de Fraude Modelos Lineales Generalizados Redes Neuronales Detección de Objetos Seguimiento por Vídeo Fraud Prevention Model Generalized Linear Model Neural Networks Object Detection Tracker Video |
title_short |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
title_full |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
title_fullStr |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
title_full_unstemmed |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
title_sort |
Modelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticos |
dc.creator.fl_str_mv |
García Arias, Gerardo Antonio |
dc.contributor.advisor.none.fl_str_mv |
Alonso Malaver, Carlos Eduardo |
dc.contributor.author.none.fl_str_mv |
García Arias, Gerardo Antonio |
dc.subject.ddc.spa.fl_str_mv |
310 - Colecciones de estadística general |
topic |
310 - Colecciones de estadística general Estafa Delitos económicos Swindlers and swindling Commercial crimes Modelo de Prevención de Fraude Modelos Lineales Generalizados Redes Neuronales Detección de Objetos Seguimiento por Vídeo Fraud Prevention Model Generalized Linear Model Neural Networks Object Detection Tracker Video |
dc.subject.lemb.spa.fl_str_mv |
Estafa Delitos económicos |
dc.subject.lemb.eng.fl_str_mv |
Swindlers and swindling Commercial crimes |
dc.subject.proposal.spa.fl_str_mv |
Modelo de Prevención de Fraude Modelos Lineales Generalizados Redes Neuronales Detección de Objetos Seguimiento por Vídeo |
dc.subject.proposal.eng.fl_str_mv |
Fraud Prevention Model Generalized Linear Model Neural Networks Object Detection Tracker Video |
description |
ilustraciones, fotografías a color, gráficas |
publishDate |
2022 |
dc.date.accessioned.none.fl_str_mv |
2022-11-03T18:36:36Z |
dc.date.available.none.fl_str_mv |
2022-11-03T18:36:36Z |
dc.date.issued.none.fl_str_mv |
2022-11-01 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Maestría |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/masterThesis |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.content.spa.fl_str_mv |
Model |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TM |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://repositorio.unal.edu.co/handle/unal/82628 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Nacional de Colombia |
dc.identifier.reponame.spa.fl_str_mv |
Repositorio Institucional Universidad Nacional de Colombia |
dc.identifier.repourl.spa.fl_str_mv |
https://repositorio.unal.edu.co/ |
url |
https://repositorio.unal.edu.co/handle/unal/82628 https://repositorio.unal.edu.co/ |
identifier_str_mv |
Universidad Nacional de Colombia Repositorio Institucional Universidad Nacional de Colombia |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.indexed.spa.fl_str_mv |
RedCol LaReferencia |
dc.relation.references.spa.fl_str_mv |
Agresti, A. (2015), Foundations of Linear and Generalized Linear Models, i edn, Wiley, United States of America. Arbib, M. (2003), The Handbook of Brain Theory and Neural Networks, i edn, Advisory Board, United States of America. Bengio, Y. (2009), ‘Learning deep architectures for ai’, Foundations and Trends in Machine Learning 2, 1–127. Cyganek, B. (2013), Video tracking: theory and practice, i edn, John Wiley and Sons, United Kingdom. Fiaz, M., Mahmood, A. & Ki Jung, S. (2019), Deep siamese networks toward robust vi-sual tracking, in L. Mazzeo, ed., ‘Visual Object Tracking with Deep Neural Networks’, IntechOpen, chapter 1, pp. 1–21. Goodfellow, I., Bengio, Y. & Courville, A. (2016), Deep learning, i edn, MIT Press. Khan, S., Rahmani, H., Ali Shah, S. A. & Bennamoun, M. (2018), ‘A guide to convolutional neural networks for computer vision’, Synthesis Lectures on Computer Vision 8, 1–207. Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India. Lee, J. & Verleysen, M. (2007), Nonlinear Dimension Reduction, i edn, Springer, United States of America. Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India. Mishachev, N. (2017), ‘Backpropagation in matrix notation’, arXiv 8, 1–7. OpenVIVO (2020), ‘Faster RCNN inception v2 COCO’, https://github.com/openvinotoolkit/open_model_zoo/tree/master/models/public/faster_rcnn_inception_v2_coco. Online; accedido 03 de septiembre de 2020. Ren, S., He, K., Girshick, R. & Sun, J. (2017), ‘Faster r-CNN: Towards real-time object detection with region proposal networks’, IEEE Transactions on Pattern Analysis and Machine Intelligence 39(6), 1137–1149. Salman, K., Hossein, R., Syed, A., Ali, S. & Mohammed, B. (2018), A Guide to Convolutional Neural Networks for Computer Vision, i edn, Morgan Claypool. Sharma, Avinash (2020), ‘Understanding Activation Functions in Neural Networks’, https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0. Online; accedido 01 de agosto de 2020. Vanegas, H. & Rondón, L. (2018), ‘Notas de clase: Modelos lineales generalizados’. Wang, Q., Zhang, L. & Bertinetto, L. (2019), ‘Fast online object tracking and segmentation: A unifying approach’, IEEE Conference On Computer Vision And Pattern Recognition, pp. 1328–1338. Warren, S. (1994), ‘Neural networks and statistical models’, Proceedings of the Nineteenth Annual SAS Users Group International Conference pp. 1–13. |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.license.spa.fl_str_mv |
Atribución-NoComercial 4.0 Internacional |
dc.rights.uri.spa.fl_str_mv |
http://creativecommons.org/licenses/by-nc/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Atribución-NoComercial 4.0 Internacional http://creativecommons.org/licenses/by-nc/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.spa.fl_str_mv |
xii, 57 páginas |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad Nacional de Colombia |
dc.publisher.program.spa.fl_str_mv |
Bogotá - Ciencias - Maestría en Ciencias - Estadística |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ciencias |
dc.publisher.place.spa.fl_str_mv |
Bogotá, Colombia |
dc.publisher.branch.spa.fl_str_mv |
Universidad Nacional de Colombia - Sede Bogotá |
institution |
Universidad Nacional de Colombia |
bitstream.url.fl_str_mv |
https://repositorio.unal.edu.co/bitstream/unal/82628/1/license.txt https://repositorio.unal.edu.co/bitstream/unal/82628/2/1052358743.2022.pdf https://repositorio.unal.edu.co/bitstream/unal/82628/3/1052358743.2022.pdf.jpg |
bitstream.checksum.fl_str_mv |
eb34b1cf90b7e1103fc9dfd26be24b4a 5aa238217991a8f40f40c73323f57d60 1100b6209b82f14bef1b311f7cd2b3f5 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad Nacional de Colombia |
repository.mail.fl_str_mv |
repositorio_nal@unal.edu.co |
_version_ |
1814089357170049024 |
spelling |
Atribución-NoComercial 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Alonso Malaver, Carlos Eduardod7d5adb6d2633a4f50cb7702f84558c8García Arias, Gerardo Antonio3cf8c2eeb33bc85856d18ff83250eaa32022-11-03T18:36:36Z2022-11-03T18:36:36Z2022-11-01https://repositorio.unal.edu.co/handle/unal/82628Universidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/ilustraciones, fotografías a color, gráficasDada una nueva tipología de fraude, en la que cajeros automáticos son bloqueados con el propósito de crear una distracción de los usuario; lo cual, permite el cambio de una tarjeta asociada a un producto financiero y la captura de su clave. El presente trabajo, propone un modelo lineal generalizado como herramienta de pronóstico de la probabilidad de ocurrencia de fraude, mediante la estructuración de una base de datos, extraída de vídeos por medio de redes neuronales convolucionales. Estos modelos estiman la presencia de personas, encontrando el punto de partida para realizar el rastreo de cada individuo por medio de redes neuronales siamesas. La metodología, permite la construcción de covariables en función de la ubicación espacio-temporal de las personas en el lugar de los hechos, insumo que permite la identificación del modelo lineal. (Texto tomado de la fuente)Given a new type of fraud, in which ATMs are blocked with the purpose of creating a distraction for users that allows them to change a card associated with a financial product and capture the password. This paper proposes a Generalized Linear Model as a tool for forecasting the probability of fraud occurrences, by structuring a database extracted from videos by means of Convolutional Neural Networks. This model estimate the presence of people, by finding the starting point to track each individual with a Siamese Neural Networks. The proposal enable the construction of covariates based on the spatio-temporal location of the people at the scene of the events. Input that allows the identification of the lineal model.MaestríaMagíster en Ciencias - Estadísticaxii, 57 páginasapplication/pdfspaUniversidad Nacional de ColombiaBogotá - Ciencias - Maestría en Ciencias - EstadísticaFacultad de CienciasBogotá, ColombiaUniversidad Nacional de Colombia - Sede Bogotá310 - Colecciones de estadística generalEstafaDelitos económicosSwindlers and swindlingCommercial crimesModelo de Prevención de FraudeModelos Lineales GeneralizadosRedes NeuronalesDetección de ObjetosSeguimiento por VídeoFraud Prevention ModelGeneralized Linear ModelNeural NetworksObject DetectionTracker VideoModelo de prevención de fraude basado en video. Una aplicación de redes neuronales y modelos estadísticosVideo-based fraud prevention model. An application of neural networks and statistical modelsTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionModelhttp://purl.org/redcol/resource_type/TMRedColLaReferenciaAgresti, A. (2015), Foundations of Linear and Generalized Linear Models, i edn, Wiley, United States of America.Arbib, M. (2003), The Handbook of Brain Theory and Neural Networks, i edn, Advisory Board, United States of America.Bengio, Y. (2009), ‘Learning deep architectures for ai’, Foundations and Trends in Machine Learning 2, 1–127.Cyganek, B. (2013), Video tracking: theory and practice, i edn, John Wiley and Sons, United Kingdom.Fiaz, M., Mahmood, A. & Ki Jung, S. (2019), Deep siamese networks toward robust vi-sual tracking, in L. Mazzeo, ed., ‘Visual Object Tracking with Deep Neural Networks’, IntechOpen, chapter 1, pp. 1–21.Goodfellow, I., Bengio, Y. & Courville, A. (2016), Deep learning, i edn, MIT Press.Khan, S., Rahmani, H., Ali Shah, S. A. & Bennamoun, M. (2018), ‘A guide to convolutional neural networks for computer vision’, Synthesis Lectures on Computer Vision 8, 1–207.Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.Lee, J. & Verleysen, M. (2007), Nonlinear Dimension Reduction, i edn, Springer, United States of America.Maggio, E. & Cavallaro, A. (2011), Video tracking: theory and practice, i edn, John Wiley and Sons, India.Mishachev, N. (2017), ‘Backpropagation in matrix notation’, arXiv 8, 1–7.OpenVIVO (2020), ‘Faster RCNN inception v2 COCO’, https://github.com/openvinotoolkit/open_model_zoo/tree/master/models/public/faster_rcnn_inception_v2_coco. Online; accedido 03 de septiembre de 2020.Ren, S., He, K., Girshick, R. & Sun, J. (2017), ‘Faster r-CNN: Towards real-time object detection with region proposal networks’, IEEE Transactions on Pattern Analysis and Machine Intelligence 39(6), 1137–1149.Salman, K., Hossein, R., Syed, A., Ali, S. & Mohammed, B. (2018), A Guide to Convolutional Neural Networks for Computer Vision, i edn, Morgan Claypool.Sharma, Avinash (2020), ‘Understanding Activation Functions in Neural Networks’, https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0. Online; accedido 01 de agosto de 2020.Vanegas, H. & Rondón, L. (2018), ‘Notas de clase: Modelos lineales generalizados’.Wang, Q., Zhang, L. & Bertinetto, L. (2019), ‘Fast online object tracking and segmentation: A unifying approach’, IEEE Conference On Computer Vision And Pattern Recognition, pp. 1328–1338.Warren, S. (1994), ‘Neural networks and statistical models’, Proceedings of the Nineteenth Annual SAS Users Group International Conference pp. 1–13.EstudiantesInvestigadoresMaestrosLICENSElicense.txtlicense.txttext/plain; charset=utf-85879https://repositorio.unal.edu.co/bitstream/unal/82628/1/license.txteb34b1cf90b7e1103fc9dfd26be24b4aMD51ORIGINAL1052358743.2022.pdf1052358743.2022.pdfTesis de Maestría en Ciencias - Estadísticaapplication/pdf4499262https://repositorio.unal.edu.co/bitstream/unal/82628/2/1052358743.2022.pdf5aa238217991a8f40f40c73323f57d60MD52THUMBNAIL1052358743.2022.pdf.jpg1052358743.2022.pdf.jpgGenerated Thumbnailimage/jpeg4725https://repositorio.unal.edu.co/bitstream/unal/82628/3/1052358743.2022.pdf.jpg1100b6209b82f14bef1b311f7cd2b3f5MD53unal/82628oai:repositorio.unal.edu.co:unal/826282024-08-12 23:11:25.236Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.coUEFSVEUgMS4gVMOJUk1JTk9TIERFIExBIExJQ0VOQ0lBIFBBUkEgUFVCTElDQUNJw5NOIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KCkxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgYXV0b3IsIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgc2UgaW50ZWdyYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsLCBiYWpvIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vczoKCgphKQlMb3MgYXV0b3JlcyB5L28gbG9zIHRpdHVsYXJlcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGNvbmZpZXJlbiBhIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEgcGFyYSByZWFsaXphciBsb3Mgc2lndWllbnRlcyBhY3RvcyBzb2JyZSBsYSBvYnJhOiBpKSByZXByb2R1Y2lyIGxhIG9icmEgZGUgbWFuZXJhIGRpZ2l0YWwsIHBlcm1hbmVudGUgbyB0ZW1wb3JhbCwgaW5jbHV5ZW5kbyBlbCBhbG1hY2VuYW1pZW50byBlbGVjdHLDs25pY28sIGFzw60gY29tbyBjb252ZXJ0aXIgZWwgZG9jdW1lbnRvIGVuIGVsIGN1YWwgc2UgZW5jdWVudHJhIGNvbnRlbmlkYSBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBleGlzdGVudGUgYSBsYSBmZWNoYSBkZSBsYSBzdXNjcmlwY2nDs24gZGUgbGEgcHJlc2VudGUgbGljZW5jaWEsIHkgaWkpIGNvbXVuaWNhciBhbCBww7pibGljbyBsYSBvYnJhIHBvciBjdWFscXVpZXIgbWVkaW8gbyBwcm9jZWRpbWllbnRvLCBlbiBtZWRpb3MgYWzDoW1icmljb3MgbyBpbmFsw6FtYnJpY29zLCBpbmNsdXllbmRvIGxhIHB1ZXN0YSBhIGRpc3Bvc2ljacOzbiBlbiBhY2Nlc28gYWJpZXJ0by4gQWRpY2lvbmFsIGEgbG8gYW50ZXJpb3IsIGVsIGF1dG9yIHkvbyB0aXR1bGFyIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgcGFyYSBxdWUsIGVuIGxhIHJlcHJvZHVjY2nDs24geSBjb211bmljYWNpw7NuIGFsIHDDumJsaWNvIHF1ZSBsYSBVbml2ZXJzaWRhZCByZWFsaWNlIHNvYnJlIGxhIG9icmEsIGhhZ2EgbWVuY2nDs24gZGUgbWFuZXJhIGV4cHJlc2EgYWwgdGlwbyBkZSBsaWNlbmNpYSBDcmVhdGl2ZSBDb21tb25zIGJham8gbGEgY3VhbCBlbCBhdXRvciB5L28gdGl0dWxhciBkZXNlYSBvZnJlY2VyIHN1IG9icmEgYSBsb3MgdGVyY2Vyb3MgcXVlIGFjY2VkYW4gYSBkaWNoYSBvYnJhIGEgdHJhdsOpcyBkZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgY3VhbmRvIHNlYSBlbCBjYXNvLiBFbCBhdXRvciB5L28gdGl0dWxhciBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBwb2Ryw6EgZGFyIHBvciB0ZXJtaW5hZGEgbGEgcHJlc2VudGUgbGljZW5jaWEgbWVkaWFudGUgc29saWNpdHVkIGVsZXZhZGEgYSBsYSBEaXJlY2Npw7NuIE5hY2lvbmFsIGRlIEJpYmxpb3RlY2FzIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLiAKCmIpIAlMb3MgYXV0b3JlcyB5L28gdGl0dWxhcmVzIGRlIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIGF1dG9yIHNvYnJlIGxhIG9icmEgY29uZmllcmVuIGxhIGxpY2VuY2lhIHNlw7FhbGFkYSBlbiBlbCBsaXRlcmFsIGEpIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8gcG9yIGVsIHRpZW1wbyBkZSBwcm90ZWNjacOzbiBkZSBsYSBvYnJhIGVuIHRvZG9zIGxvcyBwYcOtc2VzIGRlbCBtdW5kbywgZXN0byBlcywgc2luIGxpbWl0YWNpw7NuIHRlcnJpdG9yaWFsIGFsZ3VuYS4KCmMpCUxvcyBhdXRvcmVzIHkvbyB0aXR1bGFyZXMgZGUgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciBtYW5pZmllc3RhbiBlc3RhciBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgcHJlc2VudGUgbGljZW5jaWEgc2Ugb3RvcmdhIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCByZW51bmNpYW4gYSByZWNpYmlyIGN1YWxxdWllciByZXRyaWJ1Y2nDs24gZWNvbsOzbWljYSBvIGVtb2x1bWVudG8gYWxndW5vIHBvciBsYSBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EgeSBjdWFscXVpZXIgb3RybyB1c28gcXVlIHNlIGhhZ2EgZW4gbG9zIHTDqXJtaW5vcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGRlIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgY29uIHF1ZSBzZSBwdWJsaWNhLgoKZCkJUXVpZW5lcyBmaXJtYW4gZWwgcHJlc2VudGUgZG9jdW1lbnRvIGRlY2xhcmFuIHF1ZSBwYXJhIGxhIGNyZWFjacOzbiBkZSBsYSBvYnJhLCBubyBzZSBoYW4gdnVsbmVyYWRvIGxvcyBkZXJlY2hvcyBkZSBwcm9waWVkYWQgaW50ZWxlY3R1YWwsIGluZHVzdHJpYWwsIG1vcmFsZXMgeSBwYXRyaW1vbmlhbGVzIGRlIHRlcmNlcm9zLiBEZSBvdHJhIHBhcnRlLCAgcmVjb25vY2VuIHF1ZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlIHkgc2UgZW5jdWVudHJhIGV4ZW50YSBkZSBjdWxwYSBlbiBjYXNvIGRlIHByZXNlbnRhcnNlIGFsZ8O6biB0aXBvIGRlIHJlY2xhbWFjacOzbiBlbiBtYXRlcmlhIGRlIGRlcmVjaG9zIGRlIGF1dG9yIG8gcHJvcGllZGFkIGludGVsZWN0dWFsIGVuIGdlbmVyYWwuIFBvciBsbyB0YW50bywgbG9zIGZpcm1hbnRlcyAgYWNlcHRhbiBxdWUgY29tbyB0aXR1bGFyZXMgw7puaWNvcyBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBkZSBhdXRvciwgYXN1bWlyw6FuIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIGNpdmlsLCBhZG1pbmlzdHJhdGl2YSB5L28gcGVuYWwgcXVlIHB1ZWRhIGRlcml2YXJzZSBkZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYS4gIAoKZikJQXV0b3JpemFuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgaW5jbHVpciBsYSBvYnJhIGVuIGxvcyBhZ3JlZ2Fkb3JlcyBkZSBjb250ZW5pZG9zLCBidXNjYWRvcmVzIGFjYWTDqW1pY29zLCBtZXRhYnVzY2Fkb3Jlcywgw61uZGljZXMgeSBkZW3DoXMgbWVkaW9zIHF1ZSBzZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBwcm9tb3ZlciBlbCBhY2Nlc28geSBjb25zdWx0YSBkZSBsYSBtaXNtYS4gCgpnKQlFbiBlbCBjYXNvIGRlIGxhcyB0ZXNpcyBjcmVhZGFzIHBhcmEgb3B0YXIgZG9ibGUgdGl0dWxhY2nDs24sIGxvcyBmaXJtYW50ZXMgc2Vyw6FuIGxvcyByZXNwb25zYWJsZXMgZGUgY29tdW5pY2FyIGEgbGFzIGluc3RpdHVjaW9uZXMgbmFjaW9uYWxlcyBvIGV4dHJhbmplcmFzIGVuIGNvbnZlbmlvLCBsYXMgbGljZW5jaWFzIGRlIGFjY2VzbyBhYmllcnRvIENyZWF0aXZlIENvbW1vbnMgeSBhdXRvcml6YWNpb25lcyBhc2lnbmFkYXMgYSBzdSBvYnJhIHBhcmEgbGEgcHVibGljYWNpw7NuIGVuIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgVU5BTCBkZSBhY3VlcmRvIGNvbiBsYXMgZGlyZWN0cmljZXMgZGUgbGEgUG9sw610aWNhIEdlbmVyYWwgZGUgbGEgQmlibGlvdGVjYSBEaWdpdGFsLgoKCmgpCVNlIGF1dG9yaXphIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgY29tbyByZXNwb25zYWJsZSBkZWwgdHJhdGFtaWVudG8gZGUgZGF0b3MgcGVyc29uYWxlcywgZGUgYWN1ZXJkbyBjb24gbGEgbGV5IDE1ODEgZGUgMjAxMiBlbnRlbmRpZW5kbyBxdWUgc2UgZW5jdWVudHJhbiBiYWpvIG1lZGlkYXMgcXVlIGdhcmFudGl6YW4gbGEgc2VndXJpZGFkLCBjb25maWRlbmNpYWxpZGFkIGUgaW50ZWdyaWRhZCwgeSBzdSB0cmF0YW1pZW50byB0aWVuZSB1bmEgZmluYWxpZGFkIGhpc3TDs3JpY2EsIGVzdGFkw61zdGljYSBvIGNpZW50w61maWNhIHNlZ8O6biBsbyBkaXNwdWVzdG8gZW4gbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMuCgoKClBBUlRFIDIuIEFVVE9SSVpBQ0nDk04gUEFSQSBQVUJMSUNBUiBZIFBFUk1JVElSIExBIENPTlNVTFRBIFkgVVNPIERFIE9CUkFTIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU5BTC4KClNlIGF1dG9yaXphIGxhIHB1YmxpY2FjacOzbiBlbGVjdHLDs25pY2EsIGNvbnN1bHRhIHkgdXNvIGRlIGxhIG9icmEgcG9yIHBhcnRlIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgZGUgc3VzIHVzdWFyaW9zIGRlIGxhIHNpZ3VpZW50ZSBtYW5lcmE6CgphLglDb25jZWRvIGxpY2VuY2lhIGVuIGxvcyB0w6lybWlub3Mgc2XDsWFsYWRvcyBlbiBsYSBwYXJ0ZSAxIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8sIGNvbiBlbCBvYmpldGl2byBkZSBxdWUgbGEgb2JyYSBlbnRyZWdhZGEgc2VhIHB1YmxpY2FkYSBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHkgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGVuIGFjY2VzbyBhYmllcnRvIHBhcmEgc3UgY29uc3VsdGEgcG9yIGxvcyB1c3VhcmlvcyBkZSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSAgYSB0cmF2w6lzIGRlIGludGVybmV0LgoKCgpQQVJURSAzIEFVVE9SSVpBQ0nDk04gREUgVFJBVEFNSUVOVE8gREUgREFUT1MgUEVSU09OQUxFUy4KCkxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhLCBjb21vIHJlc3BvbnNhYmxlIGRlbCBUcmF0YW1pZW50byBkZSBEYXRvcyBQZXJzb25hbGVzLCBpbmZvcm1hIHF1ZSBsb3MgZGF0b3MgZGUgY2Fyw6FjdGVyIHBlcnNvbmFsIHJlY29sZWN0YWRvcyBtZWRpYW50ZSBlc3RlIGZvcm11bGFyaW8sIHNlIGVuY3VlbnRyYW4gYmFqbyBtZWRpZGFzIHF1ZSBnYXJhbnRpemFuIGxhIHNlZ3VyaWRhZCwgY29uZmlkZW5jaWFsaWRhZCBlIGludGVncmlkYWQgeSBzdSB0cmF0YW1pZW50byBzZSByZWFsaXphIGRlIGFjdWVyZG8gYWwgY3VtcGxpbWllbnRvIG5vcm1hdGl2byBkZSBsYSBMZXkgMTU4MSBkZSAyMDEyIHkgZGUgbGEgUG9sw610aWNhIGRlIFRyYXRhbWllbnRvIGRlIERhdG9zIFBlcnNvbmFsZXMgZGUgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEuIFB1ZWRlIGVqZXJjZXIgc3VzIGRlcmVjaG9zIGNvbW8gdGl0dWxhciBhIGNvbm9jZXIsIGFjdHVhbGl6YXIsIHJlY3RpZmljYXIgeSByZXZvY2FyIGxhcyBhdXRvcml6YWNpb25lcyBkYWRhcyBhIGxhcyBmaW5hbGlkYWRlcyBhcGxpY2FibGVzIGEgdHJhdsOpcyBkZSBsb3MgY2FuYWxlcyBkaXNwdWVzdG9zIHkgZGlzcG9uaWJsZXMgZW4gd3d3LnVuYWwuZWR1LmNvIG8gZS1tYWlsOiBwcm90ZWNkYXRvc19uYUB1bmFsLmVkdS5jbyIKClRlbmllbmRvIGVuIGN1ZW50YSBsbyBhbnRlcmlvciwgYXV0b3Jpem8gZGUgbWFuZXJhIHZvbHVudGFyaWEsIHByZXZpYSwgZXhwbMOtY2l0YSwgaW5mb3JtYWRhIGUgaW5lcXXDrXZvY2EgYSBsYSBVbml2ZXJzaWRhZCBOYWNpb25hbCBkZSBDb2xvbWJpYSBhIHRyYXRhciBsb3MgZGF0b3MgcGVyc29uYWxlcyBkZSBhY3VlcmRvIGNvbiBsYXMgZmluYWxpZGFkZXMgZXNwZWPDrWZpY2FzIHBhcmEgZWwgZGVzYXJyb2xsbyB5IGVqZXJjaWNpbyBkZSBsYXMgZnVuY2lvbmVzIG1pc2lvbmFsZXMgZGUgZG9jZW5jaWEsIGludmVzdGlnYWNpw7NuIHkgZXh0ZW5zacOzbiwgYXPDrSBjb21vIGxhcyByZWxhY2lvbmVzIGFjYWTDqW1pY2FzLCBsYWJvcmFsZXMsIGNvbnRyYWN0dWFsZXMgeSB0b2RhcyBsYXMgZGVtw6FzIHJlbGFjaW9uYWRhcyBjb24gZWwgb2JqZXRvIHNvY2lhbCBkZSBsYSBVbml2ZXJzaWRhZC4gCgo= |