Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín

In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal funct...

Full description

Autores:
Chica Osorio, Carlos Andrés
Yurgaky Valoyes, Dudley
Tipo de recurso:
Fecha de publicación:
2019
Institución:
Universidad de San Buenaventura
Repositorio:
Repositorio USB
Idioma:
spa
OAI Identifier:
oai:bibliotecadigital.usb.edu.co:10819/6827
Acceso en línea:
http://hdl.handle.net/10819/6827
Palabra clave:
Grabaciones en campo
Aprendizaje automático
Descriptores de audio
Eficiencia
Field recording
Machine Learning
Audio predictors
Accuracy
Transmisión del sonido
Fuentes de sonido
Sonido digital
Ingeniería de sonido
Fuentes acústicas
Acústica
Efectos y procesamiento de audio
Sistemas de procesamiento de audio
Producción de audio
Equipos de audio portátil
Frecuencia de audio
Audio
Rights
License
Atribución-NoComercial-SinDerivadas 2.5 Colombia
id SANBUENAV2_b92a797cbbcf48e15e2e62da00a68dbc
oai_identifier_str oai:bibliotecadigital.usb.edu.co:10819/6827
network_acronym_str SANBUENAV2
network_name_str Repositorio USB
repository_id_str
dc.title.spa.fl_str_mv Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
title Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
spellingShingle Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
Grabaciones en campo
Aprendizaje automático
Descriptores de audio
Eficiencia
Field recording
Machine Learning
Audio predictors
Accuracy
Transmisión del sonido
Fuentes de sonido
Sonido digital
Ingeniería de sonido
Fuentes acústicas
Acústica
Efectos y procesamiento de audio
Sistemas de procesamiento de audio
Producción de audio
Equipos de audio portátil
Frecuencia de audio
Audio
title_short Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
title_full Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
title_fullStr Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
title_full_unstemmed Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
title_sort Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
dc.creator.fl_str_mv Chica Osorio, Carlos Andrés
Yurgaky Valoyes, Dudley
dc.contributor.advisor.none.fl_str_mv Ochoa Villegas, Jonathan
dc.contributor.author.none.fl_str_mv Chica Osorio, Carlos Andrés
Yurgaky Valoyes, Dudley
dc.subject.spa.fl_str_mv Grabaciones en campo
Aprendizaje automático
Descriptores de audio
Eficiencia
Field recording
Machine Learning
Audio predictors
Accuracy
topic Grabaciones en campo
Aprendizaje automático
Descriptores de audio
Eficiencia
Field recording
Machine Learning
Audio predictors
Accuracy
Transmisión del sonido
Fuentes de sonido
Sonido digital
Ingeniería de sonido
Fuentes acústicas
Acústica
Efectos y procesamiento de audio
Sistemas de procesamiento de audio
Producción de audio
Equipos de audio portátil
Frecuencia de audio
Audio
dc.subject.lemb.spa.fl_str_mv Transmisión del sonido
Fuentes de sonido
Sonido digital
Ingeniería de sonido
Fuentes acústicas
Acústica
Efectos y procesamiento de audio
Sistemas de procesamiento de audio
Producción de audio
Equipos de audio portátil
Frecuencia de audio
Audio
description In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal functioning, since they do not show the user an explanatory structure of how predictions are made and that they are understandable. It is worth mentioning that the models are accurate, but they are not presented properly. There is not a sound bank of the acoustic scenes of the city, it was necessary to record these outside scenes in the field. Audio descriptors such as MFCC and Chroma Vector were used to identify the acoustic scenes together with two SVM algorithms and one Ensemble Classifier. The result was an efficiency rate of 72.22% for the cases of SVM machines (Medium Gaussian and Quadratic), which are satisfactory. On the other hand, the learning machine based on Ensemble Classifier (Boosted Tree) had an Accuracy rate of 55.55%, this being a low performance machine.
publishDate 2019
dc.date.accessioned.none.fl_str_mv 2019-01-23T15:45:07Z
dc.date.available.none.fl_str_mv 2019-01-23T15:45:07Z
dc.date.issued.none.fl_str_mv 2019
dc.date.submitted.none.fl_str_mv 2019-01-23
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.spa.spa.fl_str_mv Trabajo de Grado
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.identifier.citation.spa.fl_str_mv [1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/10819/6827
identifier_str_mv [1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019
url http://hdl.handle.net/10819/6827
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.cc.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
http://purl.org/coar/access_right/c_abf2
dc.format.spa.fl_str_mv pdf
dc.format.extent.spa.fl_str_mv 61 páginas
dc.format.medium.spa.fl_str_mv Recurso en linea
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.publisher.faculty.spa.fl_str_mv Ingenierias
dc.publisher.program.spa.fl_str_mv Ingeniería de Sonido
dc.publisher.sede.spa.fl_str_mv Medellín
institution Universidad de San Buenaventura
dc.source.bibliographicCitation.spa.fl_str_mv [1] K. Hyoung-Gook, N. Moreau y T. Sikora, MPEG-7 Audio and Beyond Audio Content Indexing and Retrieval, Primera ed., Berlín: John Wiley & Sons, Ltd, 2005.
[2] D. W. Thomas y B. R. Wilkins, "The analysis of vehicle sounds for recognition" PatternRecognition, 1 ed., vol. 4, Southampton: Elsevier, 1972, pp. 379-389.
[3] Advanced Tech Computing Group, 14 Abril 2008. [En línea]. Available: http://bit.ly/2C60wqo.
[4] P. Herrera, X. Serra y G. Peters, «Audio Descriptors and Descriptor Schemes in the Context of MPEG-7,» Proceedings Of The ICMC99.
[5] Mathworks, MATLAB, 2015.
[6] R. Loughran, J. Walker, M. O'Neill y M. O'Farrell, «"The Use of Mel Frequency Cepstral Coefficients in Musical Instrument Identification",» Limerik, 2008.
[7] P. Pertila, «Mel-frequency cepstral coefficients (MFCCs) and gammatone filter banks Introduction,» TUT, 2015.
[8] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis. A MATLAB Approach Academic Press, Primera ed., Oxford: Elsevier, 2014, pp. 59-180.
[9] D. G. Altman y J. M. Bland, 11 Junio 1994. [En línea]. Available: http://bit.ly/2QJvm0n.
[10] J. Devore, "Probabilidad y Estadística para Ingeniería y Ciencias", Séptima ed., vol. I, Ciudad de Mexico: Cengage Learning, 2008, pp. 254-281
[11] J. Salamon, C. Jacoby y J. P. Bello, «A Dataset and Taxonomy for Urban Sound Research,» Proceedings of the 2014 ACM Conference on Multimedia, vol. 3, pp. 1041-1044, 2014.
[12] AENOR, «ISO 1996-1: Descripción, medición y evaluación del ruido ambiental,» 2005.
[13] A. Mesaros, T. Heittola y T. Virtanen, «TUT database for acoustic scene classification and sound event detection,» 18th European Signal Processing Conference, pp. 1267-1271, 2016.
[14] AENOR, «UNE-ISO 1996-2: Descripción, medición y evaluación del ruido ambiental. Determinación de los niveles de ruido ambiental",» 2009
[15] Brüel & Kjaer, «Sound & Vibration Measurement A/S,» 2000.
[16] A. Das, N. Borisov y M. Caesar, «"Do You Hear What I Hear?: Finger Printing Smart Devices Through Embedded Acoustic Components",» CCS'14 Proceedings of the 2014 ACM SIGSAC Conference on Computer and Communications Security, pp. 441-452, 2016.
[17] E. Marchi , D. Tonelli, X. Xu, F. Ringeval, J. Deng , S. Squartini y B. Schuller, «Pairwise Decomposition with Deep Neural Networks and Multiscale Kernel Subspace Learning for Acoustic Scene Classification,» Budapest, 2016.
dc.source.instname.spa.fl_str_mv Universidad de San Buenaventura - Medellín
dc.source.other.spa.fl_str_mv Biblioteca USB Medellín (San Benito) CD-4985t
dc.source.reponame.spa.fl_str_mv Biblioteca Digital Universidad de San Buenaventura
bitstream.url.fl_str_mv https://bibliotecadigital.usb.edu.co/bitstreams/d1d1d151-b402-4787-a992-2958151053a8/download
https://bibliotecadigital.usb.edu.co/bitstreams/69dca467-aa20-4483-bcb3-21377fa6ecec/download
https://bibliotecadigital.usb.edu.co/bitstreams/924faed6-c0e1-44b6-b290-457152d509c0/download
https://bibliotecadigital.usb.edu.co/bitstreams/7dc17b1b-02e2-44b1-b76b-b85ff7b4bd31/download
bitstream.checksum.fl_str_mv 7b4d650253859d97182bc3b8f3edafdb
0c7b7184e7583ec671a5d9e43f0939c0
876e27abb0a8e4396d3f81b2c62ec957
2e73ceabe6fa91c8e8b2d235e34a840c
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad de San Buenaventura Colombia
repository.mail.fl_str_mv bdigital@metabiblioteca.com
_version_ 1808479231806537728
spelling Comunidad Científica y AcadémicaOchoa Villegas, Jonathane6a28864-a336-4609-a786-6f0880620fe3-1Chica Osorio, Carlos Andrésb527e901-887d-4f9c-9771-ef5827e1f8e1-1Yurgaky Valoyes, Dudley291480f3-e54b-4ef2-9065-295d3add5ef5-12019-01-23T15:45:07Z2019-01-23T15:45:07Z20192019-01-23In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal functioning, since they do not show the user an explanatory structure of how predictions are made and that they are understandable. It is worth mentioning that the models are accurate, but they are not presented properly. There is not a sound bank of the acoustic scenes of the city, it was necessary to record these outside scenes in the field. Audio descriptors such as MFCC and Chroma Vector were used to identify the acoustic scenes together with two SVM algorithms and one Ensemble Classifier. The result was an efficiency rate of 72.22% for the cases of SVM machines (Medium Gaussian and Quadratic), which are satisfactory. On the other hand, the learning machine based on Ensemble Classifier (Boosted Tree) had an Accuracy rate of 55.55%, this being a low performance machine.los últimos años, han aparecido métodos de aprendizaje automático que permiten obtener modelos para el análisis y clasificación de señales de audio (etiquetadas), como las máquinas de vectores de soporte, Ensemble Classifier, entre otros. Estos métodos presentan un problema al ser poco comprensibles en su funcionamiento interno, ya que, no muestran al usuario una estructura explicativa de como realizan las predicciones y que estas sean entendibles. Vale aclarar que los modelos son precisos, pero no son presentados adecuadamente. Debido a que no existe un banco de sonidos de las escenas acústicas de la ciudad, fue necesario realizar grabaciones en campo de dichas escenas en exteriores. Se emplearon descriptores de audio tales como MFCC y Chroma Vector, para la identificación de las escenas acústicas en conjunto con dos algoritmos SVM y uno Ensemble Classifier. El producto fue una tasa de eficiencia del 72,22% para los casos de las máquinas SVM (Medium Gaussian y Quadratic), los cuales son satisfactorios. Por otro lado, la máquina de aprendizaje basada en Ensemble Classifier (Boosted Tree) tuvo una tasa de eficiencia del 55,55%, siendo esta una máquina de bajo rendimiento.pdf61 páginasRecurso en lineaapplication/pdf[1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019http://hdl.handle.net/10819/6827spaIngenieriasIngeniería de SonidoMedellínAtribución-NoComercial-SinDerivadas 2.5 ColombiaPor medio de este formato manifiesto mi voluntad de AUTORIZAR a la Universidad de San Buenaventura, Sede Bogotá, Seccionales Medellín, Cali y Cartagena, la difusión en texto completo de manera gratuita y por tiempo indefinido en la Biblioteca Digital Universidad de San Buenaventura, el documento académico-investigativo objeto de la presente autorización, con fines estrictamente educativos, científicos y culturales, en los términos establecidos en la Ley 23 de 1982, Ley 44 de 1993, Decisión Andina 351 de 1993, Decreto 460 de 1995 y demás normas generales sobre derechos de autor. Como autor manifiesto que el presente documento académico-investigativo es original y se realiza sin violar o usurpar derechos de autor de terceros, por lo tanto, la obra es de mi exclusiva autora y poseo la titularidad sobre la misma. La Universidad de San Buenaventura no será responsable de ninguna utilización indebida del documento por parte de terceros y será exclusivamente mi responsabilidad atender personalmente cualquier reclamación que pueda presentarse a la Universidad. Autorizo a la Biblioteca Digital de la Universidad de San Buenaventura convertir el documento al formato que el repositorio lo requiera (impreso, digital, electrónico o cualquier otro conocido o por conocer) o con fines de preservación digital. Esta autorización no implica renuncia a la facultad que tengo de publicar posteriormente la obra, en forma total o parcial, por lo cual podrá, dando aviso por escrito con no menos de un mes de antelación, solicitar que el documento deje de estar disponible para el público en la Biblioteca Digital de la Universidad de San Buenaventura, así mismo, cuando se requiera por razones legales y/o reglas del editor de una revista.http://creativecommons.org/licenses/by-nc-nd/2.5/co/http://purl.org/coar/access_right/c_abf2[1] K. Hyoung-Gook, N. Moreau y T. Sikora, MPEG-7 Audio and Beyond Audio Content Indexing and Retrieval, Primera ed., Berlín: John Wiley & Sons, Ltd, 2005.[2] D. W. Thomas y B. R. Wilkins, "The analysis of vehicle sounds for recognition" PatternRecognition, 1 ed., vol. 4, Southampton: Elsevier, 1972, pp. 379-389.[3] Advanced Tech Computing Group, 14 Abril 2008. [En línea]. Available: http://bit.ly/2C60wqo.[4] P. Herrera, X. Serra y G. Peters, «Audio Descriptors and Descriptor Schemes in the Context of MPEG-7,» Proceedings Of The ICMC99.[5] Mathworks, MATLAB, 2015.[6] R. Loughran, J. Walker, M. O'Neill y M. O'Farrell, «"The Use of Mel Frequency Cepstral Coefficients in Musical Instrument Identification",» Limerik, 2008.[7] P. Pertila, «Mel-frequency cepstral coefficients (MFCCs) and gammatone filter banks Introduction,» TUT, 2015.[8] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis. A MATLAB Approach Academic Press, Primera ed., Oxford: Elsevier, 2014, pp. 59-180.[9] D. G. Altman y J. M. Bland, 11 Junio 1994. [En línea]. Available: http://bit.ly/2QJvm0n.[10] J. Devore, "Probabilidad y Estadística para Ingeniería y Ciencias", Séptima ed., vol. I, Ciudad de Mexico: Cengage Learning, 2008, pp. 254-281[11] J. Salamon, C. Jacoby y J. P. Bello, «A Dataset and Taxonomy for Urban Sound Research,» Proceedings of the 2014 ACM Conference on Multimedia, vol. 3, pp. 1041-1044, 2014.[12] AENOR, «ISO 1996-1: Descripción, medición y evaluación del ruido ambiental,» 2005.[13] A. Mesaros, T. Heittola y T. Virtanen, «TUT database for acoustic scene classification and sound event detection,» 18th European Signal Processing Conference, pp. 1267-1271, 2016.[14] AENOR, «UNE-ISO 1996-2: Descripción, medición y evaluación del ruido ambiental. Determinación de los niveles de ruido ambiental",» 2009[15] Brüel & Kjaer, «Sound & Vibration Measurement A/S,» 2000.[16] A. Das, N. Borisov y M. Caesar, «"Do You Hear What I Hear?: Finger Printing Smart Devices Through Embedded Acoustic Components",» CCS'14 Proceedings of the 2014 ACM SIGSAC Conference on Computer and Communications Security, pp. 441-452, 2016.[17] E. Marchi , D. Tonelli, X. Xu, F. Ringeval, J. Deng , S. Squartini y B. Schuller, «Pairwise Decomposition with Deep Neural Networks and Multiscale Kernel Subspace Learning for Acoustic Scene Classification,» Budapest, 2016.Universidad de San Buenaventura - MedellínBiblioteca USB Medellín (San Benito) CD-4985tBiblioteca Digital Universidad de San BuenaventuraGrabaciones en campoAprendizaje automáticoDescriptores de audioEficienciaField recordingMachine LearningAudio predictorsAccuracyTransmisión del sonidoFuentes de sonidoSonido digitalIngeniería de sonidoFuentes acústicasAcústicaEfectos y procesamiento de audioSistemas de procesamiento de audioProducción de audioEquipos de audio portátilFrecuencia de audioAudioIngeniero de SonidoClasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de MedellínTrabajo de grado - PregradoTrabajo de Gradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fPublicationORIGINALClasificacion_Escenas_Acusticas_Chica_2019.pdfClasificacion_Escenas_Acusticas_Chica_2019.pdfapplication/pdf3005565https://bibliotecadigital.usb.edu.co/bitstreams/d1d1d151-b402-4787-a992-2958151053a8/download7b4d650253859d97182bc3b8f3edafdbMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82071https://bibliotecadigital.usb.edu.co/bitstreams/69dca467-aa20-4483-bcb3-21377fa6ecec/download0c7b7184e7583ec671a5d9e43f0939c0MD52TEXTClasificacion_Escenas_Acusticas_Chica_2019.pdf.txtClasificacion_Escenas_Acusticas_Chica_2019.pdf.txtExtracted texttext/plain76426https://bibliotecadigital.usb.edu.co/bitstreams/924faed6-c0e1-44b6-b290-457152d509c0/download876e27abb0a8e4396d3f81b2c62ec957MD53THUMBNAILClasificacion_Escenas_Acusticas_Chica_2019.pdf.jpgClasificacion_Escenas_Acusticas_Chica_2019.pdf.jpgGenerated Thumbnailimage/jpeg7265https://bibliotecadigital.usb.edu.co/bitstreams/7dc17b1b-02e2-44b1-b76b-b85ff7b4bd31/download2e73ceabe6fa91c8e8b2d235e34a840cMD5410819/6827oai:bibliotecadigital.usb.edu.co:10819/68272023-02-24 11:31:34.861http://creativecommons.org/licenses/by-nc-nd/2.5/co/https://bibliotecadigital.usb.edu.coRepositorio Institucional Universidad de San Buenaventura Colombiabdigital@metabiblioteca.comPGNlbnRlcj4KPGgzPkJJQkxJT1RFQ0EgRElHSVRBTCBVTklWRVJTSURBRCBERSBTQU4gQlVFTkFWRU5UVVJBIC0gQ09MT01CSUE8L2gzPgo8cD4KVMOpcm1pbm9zIGRlIGxhIGxpY2VuY2lhIGdlbmVyYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgcmVwb3NpdG9yaW8gaW5zdGl0dWNpb25hbDwvcD48L2NlbnRlcj4KPFAgQUxJR049Y2VudGVyPgpQb3IgbWVkaW8gZGUgZXN0ZSBmb3JtYXRvIG1hbmlmaWVzdG8gbWkgdm9sdW50YWQgZGUgQVVUT1JJWkFSIGEgbGEgVW5pdmVyc2lkYWQgZGUgU2FuIEJ1ZW5hdmVudHVyYSwgU2VkZSBCb2dvdMOhIHkgPEJSPlNlY2Npb25hbGVzIE1lZGVsbMOtbiwgQ2FsaSB5IENhcnRhZ2VuYSwgbGEgZGlmdXNpw7NuIGVuIHRleHRvIGNvbXBsZXRvIGRlIG1hbmVyYSBncmF0dWl0YSB5IHBvciB0aWVtcG8gaW5kZWZpbmlkbyBlbiBsYTxCUj4gQmlibGlvdGVjYSBEaWdpdGFsIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIGVsIGRvY3VtZW50byBhY2Fkw6ltaWNvIC0gaW52ZXN0aWdhdGl2byBvYmpldG8gZGUgbGEgcHJlc2VudGUgPEJSPmF1dG9yaXphY2nDs24sIGNvbiBmaW5lcyBlc3RyaWN0YW1lbnRlIGVkdWNhdGl2b3MsIGNpZW50w63CrWZpY29zIHkgY3VsdHVyYWxlcywgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW4gbGEgTGV5IDIzIGRlIDxCUj4gMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBkZXJlY2hvczxCUj4gZGUgYXV0b3IuIDxCUj4gCiAKQ29tbyBhdXRvciBtYW5pZmllc3RvIHF1ZSBlbCBwcmVzZW50ZSBkb2N1bWVudG8gYWNhZMOpbWljbyAtIGludmVzdGlnYXRpdm8gZXMgb3JpZ2luYWwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gPEJSPiB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgbWkgZXhjbHVzaXZhIGF1dG9yw63CrWEgeSBwb3NlbyBsYSB0aXR1bGFyaWRhZCA8QlI+IHNvYnJlIGxhIG1pc21hLiBMYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIG5vIHNlcsOhIHJlc3BvbnNhYmxlIGRlIG5pbmd1bmEgdXRpbGl6YWNpw7NuIGluZGViaWRhIGRlbCBkb2N1bWVudG8gPEJSPnBvciBwYXJ0ZSBkZSB0ZXJjZXJvcyB5IHNlcsOhIGV4Y2x1c2l2YW1lbnRlIG1pIHJlc3BvbnNhYmlsaWRhZCBhdGVuZGVyIHBlcnNvbmFsbWVudGUgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBxdWUgcHVlZGE8QlI+IHByZXNlbnRhcnNlIGEgbGEgVW5pdmVyc2lkYWQuIDxCUj4KIApBdXRvcml6byBhIGxhIEJpYmxpb3RlY2EgRGlnaXRhbCBkZSBsYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIGNvbnZlcnRpciBlbCBkb2N1bWVudG8gYWwgZm9ybWF0byBxdWUgZWwgPEJSPnJlcG9zaXRvcmlvIGxvIHJlcXVpZXJhIChpbXByZXNvLCBkaWdpdGFsLCBlbGVjdHLDs25pY28gbyBjdWFscXVpZXIgb3RybyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBvIGNvbiBmaW5lcyBkZTxCUj4gcHJlc2VydmFjacOzbiBkaWdpdGFsLiA8QlI+CiAKRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGVuZ28gZGUgcHVibGljYXIgcG9zdGVyaW9ybWVudGUgbGEgb2JyYSwgZW4gZm9ybWEgdG90YWwgbyA8QlI+cGFyY2lhbCwgcG9yIGxvIGN1YWwgcG9kcsOpLCBkYW5kbyBhdmlzbyBwb3IgZXNjcml0byBjb24gbm8gbWVub3MgZGUgdW4gbWVzIGRlIGFudGVsYWNpw7NuLCBzb2xpY2l0YXIgcXVlIGVsIDxCUj5kb2N1bWVudG8gZGVqZSBkZSBlc3RhciBkaXNwb25pYmxlIHBhcmEgZWwgcMO6YmxpY28gZW4gbGEgQmlibGlvdGVjYSBEaWdpdGFsIGRlIGxhIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIDxCUj4gYXPDrcKtIG1pc21vLCBjdWFuZG8gc2UgcmVxdWllcmEgcG9yIHJhem9uZXMgbGVnYWxlcyB5L28gcmVnbGFzIGRlbCBlZGl0b3IgZGUgdW5hIHJldmlzdGEuIDxCUj48L1A+Cg==