Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín
In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal funct...
- Autores:
-
Chica Osorio, Carlos Andrés
Yurgaky Valoyes, Dudley
- Tipo de recurso:
- Fecha de publicación:
- 2019
- Institución:
- Universidad de San Buenaventura
- Repositorio:
- Repositorio USB
- Idioma:
- spa
- OAI Identifier:
- oai:bibliotecadigital.usb.edu.co:10819/6827
- Acceso en línea:
- http://hdl.handle.net/10819/6827
- Palabra clave:
- Grabaciones en campo
Aprendizaje automático
Descriptores de audio
Eficiencia
Field recording
Machine Learning
Audio predictors
Accuracy
Transmisión del sonido
Fuentes de sonido
Sonido digital
Ingeniería de sonido
Fuentes acústicas
Acústica
Efectos y procesamiento de audio
Sistemas de procesamiento de audio
Producción de audio
Equipos de audio portátil
Frecuencia de audio
Audio
- Rights
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
id |
SANBUENAV2_b92a797cbbcf48e15e2e62da00a68dbc |
---|---|
oai_identifier_str |
oai:bibliotecadigital.usb.edu.co:10819/6827 |
network_acronym_str |
SANBUENAV2 |
network_name_str |
Repositorio USB |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
title |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
spellingShingle |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín Grabaciones en campo Aprendizaje automático Descriptores de audio Eficiencia Field recording Machine Learning Audio predictors Accuracy Transmisión del sonido Fuentes de sonido Sonido digital Ingeniería de sonido Fuentes acústicas Acústica Efectos y procesamiento de audio Sistemas de procesamiento de audio Producción de audio Equipos de audio portátil Frecuencia de audio Audio |
title_short |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
title_full |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
title_fullStr |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
title_full_unstemmed |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
title_sort |
Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín |
dc.creator.fl_str_mv |
Chica Osorio, Carlos Andrés Yurgaky Valoyes, Dudley |
dc.contributor.advisor.none.fl_str_mv |
Ochoa Villegas, Jonathan |
dc.contributor.author.none.fl_str_mv |
Chica Osorio, Carlos Andrés Yurgaky Valoyes, Dudley |
dc.subject.spa.fl_str_mv |
Grabaciones en campo Aprendizaje automático Descriptores de audio Eficiencia Field recording Machine Learning Audio predictors Accuracy |
topic |
Grabaciones en campo Aprendizaje automático Descriptores de audio Eficiencia Field recording Machine Learning Audio predictors Accuracy Transmisión del sonido Fuentes de sonido Sonido digital Ingeniería de sonido Fuentes acústicas Acústica Efectos y procesamiento de audio Sistemas de procesamiento de audio Producción de audio Equipos de audio portátil Frecuencia de audio Audio |
dc.subject.lemb.spa.fl_str_mv |
Transmisión del sonido Fuentes de sonido Sonido digital Ingeniería de sonido Fuentes acústicas Acústica Efectos y procesamiento de audio Sistemas de procesamiento de audio Producción de audio Equipos de audio portátil Frecuencia de audio Audio |
description |
In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal functioning, since they do not show the user an explanatory structure of how predictions are made and that they are understandable. It is worth mentioning that the models are accurate, but they are not presented properly. There is not a sound bank of the acoustic scenes of the city, it was necessary to record these outside scenes in the field. Audio descriptors such as MFCC and Chroma Vector were used to identify the acoustic scenes together with two SVM algorithms and one Ensemble Classifier. The result was an efficiency rate of 72.22% for the cases of SVM machines (Medium Gaussian and Quadratic), which are satisfactory. On the other hand, the learning machine based on Ensemble Classifier (Boosted Tree) had an Accuracy rate of 55.55%, this being a low performance machine. |
publishDate |
2019 |
dc.date.accessioned.none.fl_str_mv |
2019-01-23T15:45:07Z |
dc.date.available.none.fl_str_mv |
2019-01-23T15:45:07Z |
dc.date.issued.none.fl_str_mv |
2019 |
dc.date.submitted.none.fl_str_mv |
2019-01-23 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.spa.spa.fl_str_mv |
Trabajo de Grado |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.identifier.citation.spa.fl_str_mv |
[1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019 |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/10819/6827 |
identifier_str_mv |
[1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019 |
url |
http://hdl.handle.net/10819/6827 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.cc.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
dc.rights.uri.spa.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ http://purl.org/coar/access_right/c_abf2 |
dc.format.spa.fl_str_mv |
pdf |
dc.format.extent.spa.fl_str_mv |
61 páginas |
dc.format.medium.spa.fl_str_mv |
Recurso en linea |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.faculty.spa.fl_str_mv |
Ingenierias |
dc.publisher.program.spa.fl_str_mv |
Ingeniería de Sonido |
dc.publisher.sede.spa.fl_str_mv |
Medellín |
institution |
Universidad de San Buenaventura |
dc.source.bibliographicCitation.spa.fl_str_mv |
[1] K. Hyoung-Gook, N. Moreau y T. Sikora, MPEG-7 Audio and Beyond Audio Content Indexing and Retrieval, Primera ed., Berlín: John Wiley & Sons, Ltd, 2005. [2] D. W. Thomas y B. R. Wilkins, "The analysis of vehicle sounds for recognition" PatternRecognition, 1 ed., vol. 4, Southampton: Elsevier, 1972, pp. 379-389. [3] Advanced Tech Computing Group, 14 Abril 2008. [En línea]. Available: http://bit.ly/2C60wqo. [4] P. Herrera, X. Serra y G. Peters, «Audio Descriptors and Descriptor Schemes in the Context of MPEG-7,» Proceedings Of The ICMC99. [5] Mathworks, MATLAB, 2015. [6] R. Loughran, J. Walker, M. O'Neill y M. O'Farrell, «"The Use of Mel Frequency Cepstral Coefficients in Musical Instrument Identification",» Limerik, 2008. [7] P. Pertila, «Mel-frequency cepstral coefficients (MFCCs) and gammatone filter banks Introduction,» TUT, 2015. [8] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis. A MATLAB Approach Academic Press, Primera ed., Oxford: Elsevier, 2014, pp. 59-180. [9] D. G. Altman y J. M. Bland, 11 Junio 1994. [En línea]. Available: http://bit.ly/2QJvm0n. [10] J. Devore, "Probabilidad y Estadística para Ingeniería y Ciencias", Séptima ed., vol. I, Ciudad de Mexico: Cengage Learning, 2008, pp. 254-281 [11] J. Salamon, C. Jacoby y J. P. Bello, «A Dataset and Taxonomy for Urban Sound Research,» Proceedings of the 2014 ACM Conference on Multimedia, vol. 3, pp. 1041-1044, 2014. [12] AENOR, «ISO 1996-1: Descripción, medición y evaluación del ruido ambiental,» 2005. [13] A. Mesaros, T. Heittola y T. Virtanen, «TUT database for acoustic scene classification and sound event detection,» 18th European Signal Processing Conference, pp. 1267-1271, 2016. [14] AENOR, «UNE-ISO 1996-2: Descripción, medición y evaluación del ruido ambiental. Determinación de los niveles de ruido ambiental",» 2009 [15] Brüel & Kjaer, «Sound & Vibration Measurement A/S,» 2000. [16] A. Das, N. Borisov y M. Caesar, «"Do You Hear What I Hear?: Finger Printing Smart Devices Through Embedded Acoustic Components",» CCS'14 Proceedings of the 2014 ACM SIGSAC Conference on Computer and Communications Security, pp. 441-452, 2016. [17] E. Marchi , D. Tonelli, X. Xu, F. Ringeval, J. Deng , S. Squartini y B. Schuller, «Pairwise Decomposition with Deep Neural Networks and Multiscale Kernel Subspace Learning for Acoustic Scene Classification,» Budapest, 2016. |
dc.source.instname.spa.fl_str_mv |
Universidad de San Buenaventura - Medellín |
dc.source.other.spa.fl_str_mv |
Biblioteca USB Medellín (San Benito) CD-4985t |
dc.source.reponame.spa.fl_str_mv |
Biblioteca Digital Universidad de San Buenaventura |
bitstream.url.fl_str_mv |
https://bibliotecadigital.usb.edu.co/bitstreams/d1d1d151-b402-4787-a992-2958151053a8/download https://bibliotecadigital.usb.edu.co/bitstreams/69dca467-aa20-4483-bcb3-21377fa6ecec/download https://bibliotecadigital.usb.edu.co/bitstreams/924faed6-c0e1-44b6-b290-457152d509c0/download https://bibliotecadigital.usb.edu.co/bitstreams/7dc17b1b-02e2-44b1-b76b-b85ff7b4bd31/download |
bitstream.checksum.fl_str_mv |
7b4d650253859d97182bc3b8f3edafdb 0c7b7184e7583ec671a5d9e43f0939c0 876e27abb0a8e4396d3f81b2c62ec957 2e73ceabe6fa91c8e8b2d235e34a840c |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad de San Buenaventura Colombia |
repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
_version_ |
1812932458585260032 |
spelling |
Comunidad Científica y AcadémicaOchoa Villegas, Jonathane6a28864-a336-4609-a786-6f0880620fe3-1Chica Osorio, Carlos Andrésb527e901-887d-4f9c-9771-ef5827e1f8e1-1Yurgaky Valoyes, Dudley291480f3-e54b-4ef2-9065-295d3add5ef5-12019-01-23T15:45:07Z2019-01-23T15:45:07Z20192019-01-23In recent years, automatic learning methods have been paired to obtain models for the analysis and classification of audio signals, such as the support vector machines, Ensemble Classifier, among others. These methods present a problem because they are not very understandable in their internal functioning, since they do not show the user an explanatory structure of how predictions are made and that they are understandable. It is worth mentioning that the models are accurate, but they are not presented properly. There is not a sound bank of the acoustic scenes of the city, it was necessary to record these outside scenes in the field. Audio descriptors such as MFCC and Chroma Vector were used to identify the acoustic scenes together with two SVM algorithms and one Ensemble Classifier. The result was an efficiency rate of 72.22% for the cases of SVM machines (Medium Gaussian and Quadratic), which are satisfactory. On the other hand, the learning machine based on Ensemble Classifier (Boosted Tree) had an Accuracy rate of 55.55%, this being a low performance machine.los últimos años, han aparecido métodos de aprendizaje automático que permiten obtener modelos para el análisis y clasificación de señales de audio (etiquetadas), como las máquinas de vectores de soporte, Ensemble Classifier, entre otros. Estos métodos presentan un problema al ser poco comprensibles en su funcionamiento interno, ya que, no muestran al usuario una estructura explicativa de como realizan las predicciones y que estas sean entendibles. Vale aclarar que los modelos son precisos, pero no son presentados adecuadamente. Debido a que no existe un banco de sonidos de las escenas acústicas de la ciudad, fue necesario realizar grabaciones en campo de dichas escenas en exteriores. Se emplearon descriptores de audio tales como MFCC y Chroma Vector, para la identificación de las escenas acústicas en conjunto con dos algoritmos SVM y uno Ensemble Classifier. El producto fue una tasa de eficiencia del 72,22% para los casos de las máquinas SVM (Medium Gaussian y Quadratic), los cuales son satisfactorios. Por otro lado, la máquina de aprendizaje basada en Ensemble Classifier (Boosted Tree) tuvo una tasa de eficiencia del 55,55%, siendo esta una máquina de bajo rendimiento.pdf61 páginasRecurso en lineaapplication/pdf[1] C. A. Chica Osorio, y D. Yurgaky Valoyes, “Clasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de Medellín”, Tesis Ingeniería de Sonido, Universidad de San Buenaventura Medellín, Facultad de Ingenierías, 2019http://hdl.handle.net/10819/6827spaIngenieriasIngeniería de SonidoMedellínAtribución-NoComercial-SinDerivadas 2.5 ColombiaPor medio de este formato manifiesto mi voluntad de AUTORIZAR a la Universidad de San Buenaventura, Sede Bogotá, Seccionales Medellín, Cali y Cartagena, la difusión en texto completo de manera gratuita y por tiempo indefinido en la Biblioteca Digital Universidad de San Buenaventura, el documento académico-investigativo objeto de la presente autorización, con fines estrictamente educativos, científicos y culturales, en los términos establecidos en la Ley 23 de 1982, Ley 44 de 1993, Decisión Andina 351 de 1993, Decreto 460 de 1995 y demás normas generales sobre derechos de autor. Como autor manifiesto que el presente documento académico-investigativo es original y se realiza sin violar o usurpar derechos de autor de terceros, por lo tanto, la obra es de mi exclusiva autora y poseo la titularidad sobre la misma. La Universidad de San Buenaventura no será responsable de ninguna utilización indebida del documento por parte de terceros y será exclusivamente mi responsabilidad atender personalmente cualquier reclamación que pueda presentarse a la Universidad. Autorizo a la Biblioteca Digital de la Universidad de San Buenaventura convertir el documento al formato que el repositorio lo requiera (impreso, digital, electrónico o cualquier otro conocido o por conocer) o con fines de preservación digital. Esta autorización no implica renuncia a la facultad que tengo de publicar posteriormente la obra, en forma total o parcial, por lo cual podrá, dando aviso por escrito con no menos de un mes de antelación, solicitar que el documento deje de estar disponible para el público en la Biblioteca Digital de la Universidad de San Buenaventura, así mismo, cuando se requiera por razones legales y/o reglas del editor de una revista.http://creativecommons.org/licenses/by-nc-nd/2.5/co/http://purl.org/coar/access_right/c_abf2[1] K. Hyoung-Gook, N. Moreau y T. Sikora, MPEG-7 Audio and Beyond Audio Content Indexing and Retrieval, Primera ed., Berlín: John Wiley & Sons, Ltd, 2005.[2] D. W. Thomas y B. R. Wilkins, "The analysis of vehicle sounds for recognition" PatternRecognition, 1 ed., vol. 4, Southampton: Elsevier, 1972, pp. 379-389.[3] Advanced Tech Computing Group, 14 Abril 2008. [En línea]. Available: http://bit.ly/2C60wqo.[4] P. Herrera, X. Serra y G. Peters, «Audio Descriptors and Descriptor Schemes in the Context of MPEG-7,» Proceedings Of The ICMC99.[5] Mathworks, MATLAB, 2015.[6] R. Loughran, J. Walker, M. O'Neill y M. O'Farrell, «"The Use of Mel Frequency Cepstral Coefficients in Musical Instrument Identification",» Limerik, 2008.[7] P. Pertila, «Mel-frequency cepstral coefficients (MFCCs) and gammatone filter banks Introduction,» TUT, 2015.[8] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis. A MATLAB Approach Academic Press, Primera ed., Oxford: Elsevier, 2014, pp. 59-180.[9] D. G. Altman y J. M. Bland, 11 Junio 1994. [En línea]. Available: http://bit.ly/2QJvm0n.[10] J. Devore, "Probabilidad y Estadística para Ingeniería y Ciencias", Séptima ed., vol. I, Ciudad de Mexico: Cengage Learning, 2008, pp. 254-281[11] J. Salamon, C. Jacoby y J. P. Bello, «A Dataset and Taxonomy for Urban Sound Research,» Proceedings of the 2014 ACM Conference on Multimedia, vol. 3, pp. 1041-1044, 2014.[12] AENOR, «ISO 1996-1: Descripción, medición y evaluación del ruido ambiental,» 2005.[13] A. Mesaros, T. Heittola y T. Virtanen, «TUT database for acoustic scene classification and sound event detection,» 18th European Signal Processing Conference, pp. 1267-1271, 2016.[14] AENOR, «UNE-ISO 1996-2: Descripción, medición y evaluación del ruido ambiental. Determinación de los niveles de ruido ambiental",» 2009[15] Brüel & Kjaer, «Sound & Vibration Measurement A/S,» 2000.[16] A. Das, N. Borisov y M. Caesar, «"Do You Hear What I Hear?: Finger Printing Smart Devices Through Embedded Acoustic Components",» CCS'14 Proceedings of the 2014 ACM SIGSAC Conference on Computer and Communications Security, pp. 441-452, 2016.[17] E. Marchi , D. Tonelli, X. Xu, F. Ringeval, J. Deng , S. Squartini y B. Schuller, «Pairwise Decomposition with Deep Neural Networks and Multiscale Kernel Subspace Learning for Acoustic Scene Classification,» Budapest, 2016.Universidad de San Buenaventura - MedellínBiblioteca USB Medellín (San Benito) CD-4985tBiblioteca Digital Universidad de San BuenaventuraGrabaciones en campoAprendizaje automáticoDescriptores de audioEficienciaField recordingMachine LearningAudio predictorsAccuracyTransmisión del sonidoFuentes de sonidoSonido digitalIngeniería de sonidoFuentes acústicasAcústicaEfectos y procesamiento de audioSistemas de procesamiento de audioProducción de audioEquipos de audio portátilFrecuencia de audioAudioIngeniero de SonidoClasificación de escenas acústicas a través de descriptores de audio y máquinas de aprendizaje. Aplicación en escenas de MedellínTrabajo de grado - PregradoTrabajo de Gradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fPublicationORIGINALClasificacion_Escenas_Acusticas_Chica_2019.pdfClasificacion_Escenas_Acusticas_Chica_2019.pdfapplication/pdf3005565https://bibliotecadigital.usb.edu.co/bitstreams/d1d1d151-b402-4787-a992-2958151053a8/download7b4d650253859d97182bc3b8f3edafdbMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82071https://bibliotecadigital.usb.edu.co/bitstreams/69dca467-aa20-4483-bcb3-21377fa6ecec/download0c7b7184e7583ec671a5d9e43f0939c0MD52TEXTClasificacion_Escenas_Acusticas_Chica_2019.pdf.txtClasificacion_Escenas_Acusticas_Chica_2019.pdf.txtExtracted texttext/plain76426https://bibliotecadigital.usb.edu.co/bitstreams/924faed6-c0e1-44b6-b290-457152d509c0/download876e27abb0a8e4396d3f81b2c62ec957MD53THUMBNAILClasificacion_Escenas_Acusticas_Chica_2019.pdf.jpgClasificacion_Escenas_Acusticas_Chica_2019.pdf.jpgGenerated Thumbnailimage/jpeg7265https://bibliotecadigital.usb.edu.co/bitstreams/7dc17b1b-02e2-44b1-b76b-b85ff7b4bd31/download2e73ceabe6fa91c8e8b2d235e34a840cMD5410819/6827oai:bibliotecadigital.usb.edu.co:10819/68272023-02-24 11:31:34.861http://creativecommons.org/licenses/by-nc-nd/2.5/co/https://bibliotecadigital.usb.edu.coRepositorio Institucional Universidad de San Buenaventura Colombiabdigital@metabiblioteca.comPGNlbnRlcj4KPGgzPkJJQkxJT1RFQ0EgRElHSVRBTCBVTklWRVJTSURBRCBERSBTQU4gQlVFTkFWRU5UVVJBIC0gQ09MT01CSUE8L2gzPgo8cD4KVMOpcm1pbm9zIGRlIGxhIGxpY2VuY2lhIGdlbmVyYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgcmVwb3NpdG9yaW8gaW5zdGl0dWNpb25hbDwvcD48L2NlbnRlcj4KPFAgQUxJR049Y2VudGVyPgpQb3IgbWVkaW8gZGUgZXN0ZSBmb3JtYXRvIG1hbmlmaWVzdG8gbWkgdm9sdW50YWQgZGUgQVVUT1JJWkFSIGEgbGEgVW5pdmVyc2lkYWQgZGUgU2FuIEJ1ZW5hdmVudHVyYSwgU2VkZSBCb2dvdMOhIHkgPEJSPlNlY2Npb25hbGVzIE1lZGVsbMOtbiwgQ2FsaSB5IENhcnRhZ2VuYSwgbGEgZGlmdXNpw7NuIGVuIHRleHRvIGNvbXBsZXRvIGRlIG1hbmVyYSBncmF0dWl0YSB5IHBvciB0aWVtcG8gaW5kZWZpbmlkbyBlbiBsYTxCUj4gQmlibGlvdGVjYSBEaWdpdGFsIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIGVsIGRvY3VtZW50byBhY2Fkw6ltaWNvIC0gaW52ZXN0aWdhdGl2byBvYmpldG8gZGUgbGEgcHJlc2VudGUgPEJSPmF1dG9yaXphY2nDs24sIGNvbiBmaW5lcyBlc3RyaWN0YW1lbnRlIGVkdWNhdGl2b3MsIGNpZW50w63CrWZpY29zIHkgY3VsdHVyYWxlcywgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW4gbGEgTGV5IDIzIGRlIDxCUj4gMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBkZXJlY2hvczxCUj4gZGUgYXV0b3IuIDxCUj4gCiAKQ29tbyBhdXRvciBtYW5pZmllc3RvIHF1ZSBlbCBwcmVzZW50ZSBkb2N1bWVudG8gYWNhZMOpbWljbyAtIGludmVzdGlnYXRpdm8gZXMgb3JpZ2luYWwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gPEJSPiB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgbWkgZXhjbHVzaXZhIGF1dG9yw63CrWEgeSBwb3NlbyBsYSB0aXR1bGFyaWRhZCA8QlI+IHNvYnJlIGxhIG1pc21hLiBMYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIG5vIHNlcsOhIHJlc3BvbnNhYmxlIGRlIG5pbmd1bmEgdXRpbGl6YWNpw7NuIGluZGViaWRhIGRlbCBkb2N1bWVudG8gPEJSPnBvciBwYXJ0ZSBkZSB0ZXJjZXJvcyB5IHNlcsOhIGV4Y2x1c2l2YW1lbnRlIG1pIHJlc3BvbnNhYmlsaWRhZCBhdGVuZGVyIHBlcnNvbmFsbWVudGUgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBxdWUgcHVlZGE8QlI+IHByZXNlbnRhcnNlIGEgbGEgVW5pdmVyc2lkYWQuIDxCUj4KIApBdXRvcml6byBhIGxhIEJpYmxpb3RlY2EgRGlnaXRhbCBkZSBsYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIGNvbnZlcnRpciBlbCBkb2N1bWVudG8gYWwgZm9ybWF0byBxdWUgZWwgPEJSPnJlcG9zaXRvcmlvIGxvIHJlcXVpZXJhIChpbXByZXNvLCBkaWdpdGFsLCBlbGVjdHLDs25pY28gbyBjdWFscXVpZXIgb3RybyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBvIGNvbiBmaW5lcyBkZTxCUj4gcHJlc2VydmFjacOzbiBkaWdpdGFsLiA8QlI+CiAKRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGVuZ28gZGUgcHVibGljYXIgcG9zdGVyaW9ybWVudGUgbGEgb2JyYSwgZW4gZm9ybWEgdG90YWwgbyA8QlI+cGFyY2lhbCwgcG9yIGxvIGN1YWwgcG9kcsOpLCBkYW5kbyBhdmlzbyBwb3IgZXNjcml0byBjb24gbm8gbWVub3MgZGUgdW4gbWVzIGRlIGFudGVsYWNpw7NuLCBzb2xpY2l0YXIgcXVlIGVsIDxCUj5kb2N1bWVudG8gZGVqZSBkZSBlc3RhciBkaXNwb25pYmxlIHBhcmEgZWwgcMO6YmxpY28gZW4gbGEgQmlibGlvdGVjYSBEaWdpdGFsIGRlIGxhIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIDxCUj4gYXPDrcKtIG1pc21vLCBjdWFuZG8gc2UgcmVxdWllcmEgcG9yIHJhem9uZXMgbGVnYWxlcyB5L28gcmVnbGFzIGRlbCBlZGl0b3IgZGUgdW5hIHJldmlzdGEuIDxCUj48L1A+Cg== |