Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v

The voice is fundamental element of human communication, through it people transmit their feelings, emotions and ideas. In this context, different branches of medicine and engineering have opened upto the study of this phenomenon to explain in a way or other as it originates and the possible alterat...

Full description

Autores:
Rivera Marín, María Alejandra
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2020
Institución:
Universidad Antonio Nariño
Repositorio:
Repositorio UAN
Idioma:
spa
OAI Identifier:
oai:repositorio.uan.edu.co:123456789/2486
Acceso en línea:
http://repositorio.uan.edu.co/handle/123456789/2486
Palabra clave:
Evaluación perceptual de la voz
Dataset
Regresión
Soplosidad
Perceptual voice note
data set
regression
soplocity
Rights
openAccess
License
Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)
id UAntonioN2_b11ec0078691448394daf1ff5e7e8cd8
oai_identifier_str oai:repositorio.uan.edu.co:123456789/2486
network_acronym_str UAntonioN2
network_name_str Repositorio UAN
repository_id_str
dc.title.es_ES.fl_str_mv Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
title Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
spellingShingle Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
Evaluación perceptual de la voz
Dataset
Regresión
Soplosidad
Perceptual voice note
data set
regression
soplocity
title_short Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
title_full Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
title_fullStr Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
title_full_unstemmed Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
title_sort Estimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-v
dc.creator.fl_str_mv Rivera Marín, María Alejandra
dc.contributor.advisor.spa.fl_str_mv Ramírez Medina, Jesús David
dc.contributor.author.spa.fl_str_mv Rivera Marín, María Alejandra
dc.subject.es_ES.fl_str_mv Evaluación perceptual de la voz
Dataset
Regresión
Soplosidad
topic Evaluación perceptual de la voz
Dataset
Regresión
Soplosidad
Perceptual voice note
data set
regression
soplocity
dc.subject.keyword.es_ES.fl_str_mv Perceptual voice note
data set
regression
soplocity
description The voice is fundamental element of human communication, through it people transmit their feelings, emotions and ideas. In this context, different branches of medicine and engineering have opened upto the study of this phenomenon to explain in a way or other as it originates and the possible alterations, to detect these disorders of the voice the functional evaluation is used, To carry out this evaluation, the speech pathologist must apply different tests and procedures in order to assess each of the elements that intervene in the production of the spoken and sung voice. These elements are evaluated largely through auditory perceptual evaluation, palpation and visual observation, which makes this examination subjective, and with this that the result depends on the experience of the professional I evaluated. There are different scales that seek to standardize the perceptual assessment of the voice, such as GRABS and CAPE-V, but these still have a high level of subjectivity. Several studies have been developed to reduce professional subjectivity in this test, but most are developed around the GRABS scale, which has certain disadvantages. With the purpose of reducing the exam time and the subjectivity of the test, the development of an app that allows predicting the breathiness parameter within the CAPE-V perceptual evaluation method is proposed, through digital processing of acoustic signals and machine learning. To arrive at the final development of the App, a synthetic voice bank was created, which was used to create a dataset, which was implemented in attribute selection and regression models, in the Matlab and Weka softwares, obtaining with this the most optimal regression model for the prediction of soplocity.
publishDate 2020
dc.date.issued.spa.fl_str_mv 2020-06-05
dc.date.accessioned.none.fl_str_mv 2021-03-03T17:05:47Z
dc.date.available.none.fl_str_mv 2021-03-03T17:05:47Z
dc.type.spa.fl_str_mv Trabajo de grado (Pregrado y/o Especialización)
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.coarversion.none.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://repositorio.uan.edu.co/handle/123456789/2486
dc.identifier.bibliographicCitation.spa.fl_str_mv Batalla, D. F. (2015). sociedad española de otorrinolaringologia y cirugia de cabeza y cuello. Obtenido de seorl.net: https://seorl.net/wp-content/uploads/2015/09/CURSO-DE-VOZ.pdf
Botero Tobón, L. M. (2008). Caracterización de los indicadores acústicos. caldas: El artista.
Brockmann, M. (2011). Improving jitter and shimmer measurements in normal voices. reino unido: Newcastle University.
Carla Oliveira, C. L. (2013). Vocal Acoustic Analysis - Jitter, Shimmer and HNR Parameters. ELSEVIER, 1112-1122.
Cobeta, I., Núñez, F., & Fernández, S. (2013). Clasificación de las enfermedades neurodegenerativas. En p. d. voz. Barcelona: ICG Marge, SL.
Fang-Ling Lu, S. M. (2014). Tareas del habla y confiabilidad entre evaluadores en la evaluación perceptiva de la voz. Journal of Voice. Elsevier.28(6),, 725-732.
fermino, m. a. (2017). Clasificación de trastornos vocales utilizando redes neurales artificiales. Cornélio Procópio, brasil.
Ford, C., & Bless, D. (1986). Clinical experience with injectable collagen for vocal fold augmentation. Laryngoscope. En C. Ford, & D. Bless.
Galan, M. M. (julio de 2014). Análisis perceptual de la disfonía: adaptación y validación del método CAPE-V al español. oviedo.
García Mario Alejandro, R. A. (2016). Red neuronal profunda para analisis acustico. Red neuronal profunda para analisis acustico. Universidad Tecnológica Nacional Facultad Regional Córdoba.
García Mario Alejandro, R. A. (s.f.). Extracción de Características en Audio con Redes Neuronales convolucionales. Cordoba: Universidad Tecnológica Nacional Facultad Regional Córdoba (UTN FRC).
Gerardo Gutiérrez Gutiérrez, A. R. (2015). centro de ciencias de la computación . Obtenido de Instituto Tecnológico Metropolitano: http://c3.itm.edu.co/~gerardo.gutierrez/machinelearning/Introducci%C3%B3n%20Aprendizaje%20de%20M%C3%A1quina.pdf
Higor E. Pavoni, M. A. (2016). Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Cornélio procopio, Brasil.
Ignacio Cobeta, f. n. (2013). patologia de la voz. Marge medica books.
Jaume de Montserrat, A. O. (s.f.). El uso profesional. catalunya: Reversible SCP.
Kreiman, J. &. (2010). Perceptual assessment of voice quality: past,. Perspectives on Voice and Voice Disorders.
Martinez, J. F. (2011). Estimación espectral.
mateos, c. (18 de abril de 2017). sociedad española de otorrinolaringologia. Obtenido de https://seorl.net/wp-content/uploads/2016/05/NP_Dia-Mundial-de-la-Voz.pdf
Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. Londres, Inglaterra: Massachusetts Institute of Technology.
N., M. G. (2016). evaluación funcional de la voz. Artículo de divulgación científica en el área vocal. chile.
Nicolas Viancha, C. M. (2018). studocu. Obtenido de https://www.studocu.com/co/document/universidad-antonio-narino/electronica-analoga/practica/lab-espectro-senalesfinalizadob/4874733/view
Pericas, F. J. (1993). TECNICAS DE PROCESADO Y REPRESENTACION DE LA SEÑAL DE VOZ PARA EL RECONOCIMIENTO DEL HABLA EN AMBIENTES RUIDOSOS. Barcelona.
Polo, N. (2015). sottovoce. Obtenido de https://sottovoce.hypotheses.org/tag/voz-area
Preparadores de Oposiciones para la Enseñanza. (s.f.). Obtenido de La voz humana y su fisiología: https://www.preparadores.eu/secundaria/Musica/Musica-Tema.pdf
R.I. Zraick, G. K. (2011). Establishing validity of the Consensus Auditory-. Journal, 14-22.
Santos, J. f. (2017). Reconocimiento de patrones en medidas acústicas para identificar patologías laríngeas. Curitiba, brasil.
Teixeira, J. P., Oliveira, C., & Lopes, C. (2013). Analisis acustico vocal- Parametros de Jitter, Shimmer y HNR. Conferencia sobre sistemas y tecnologias de la informacion en salud y asistencia social, (págs. 1-2). braganca.
Trinite, B. (2017). Epidemiology of Voice Disorders in Latvian School Teachers. Elsevier , 508.e1-508.e9.
universidad de alcala. (s.f.). Obtenido de departamento de cirugia.
Williamson, G. (1 de 02 de 2014). Evaluación perceptiva de la voz. Obtenido de SLTinfo: https://www.sltinfo.com/perceptual-assessment-of-voice/
dc.identifier.instname.spa.fl_str_mv instname:Universidad Antonio Nariño
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional UAN
dc.identifier.repourl.spa.fl_str_mv repourl:https://repositorio.uan.edu.co/
url http://repositorio.uan.edu.co/handle/123456789/2486
identifier_str_mv Batalla, D. F. (2015). sociedad española de otorrinolaringologia y cirugia de cabeza y cuello. Obtenido de seorl.net: https://seorl.net/wp-content/uploads/2015/09/CURSO-DE-VOZ.pdf
Botero Tobón, L. M. (2008). Caracterización de los indicadores acústicos. caldas: El artista.
Brockmann, M. (2011). Improving jitter and shimmer measurements in normal voices. reino unido: Newcastle University.
Carla Oliveira, C. L. (2013). Vocal Acoustic Analysis - Jitter, Shimmer and HNR Parameters. ELSEVIER, 1112-1122.
Cobeta, I., Núñez, F., & Fernández, S. (2013). Clasificación de las enfermedades neurodegenerativas. En p. d. voz. Barcelona: ICG Marge, SL.
Fang-Ling Lu, S. M. (2014). Tareas del habla y confiabilidad entre evaluadores en la evaluación perceptiva de la voz. Journal of Voice. Elsevier.28(6),, 725-732.
fermino, m. a. (2017). Clasificación de trastornos vocales utilizando redes neurales artificiales. Cornélio Procópio, brasil.
Ford, C., & Bless, D. (1986). Clinical experience with injectable collagen for vocal fold augmentation. Laryngoscope. En C. Ford, & D. Bless.
Galan, M. M. (julio de 2014). Análisis perceptual de la disfonía: adaptación y validación del método CAPE-V al español. oviedo.
García Mario Alejandro, R. A. (2016). Red neuronal profunda para analisis acustico. Red neuronal profunda para analisis acustico. Universidad Tecnológica Nacional Facultad Regional Córdoba.
García Mario Alejandro, R. A. (s.f.). Extracción de Características en Audio con Redes Neuronales convolucionales. Cordoba: Universidad Tecnológica Nacional Facultad Regional Córdoba (UTN FRC).
Gerardo Gutiérrez Gutiérrez, A. R. (2015). centro de ciencias de la computación . Obtenido de Instituto Tecnológico Metropolitano: http://c3.itm.edu.co/~gerardo.gutierrez/machinelearning/Introducci%C3%B3n%20Aprendizaje%20de%20M%C3%A1quina.pdf
Higor E. Pavoni, M. A. (2016). Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Cornélio procopio, Brasil.
Ignacio Cobeta, f. n. (2013). patologia de la voz. Marge medica books.
Jaume de Montserrat, A. O. (s.f.). El uso profesional. catalunya: Reversible SCP.
Kreiman, J. &. (2010). Perceptual assessment of voice quality: past,. Perspectives on Voice and Voice Disorders.
Martinez, J. F. (2011). Estimación espectral.
mateos, c. (18 de abril de 2017). sociedad española de otorrinolaringologia. Obtenido de https://seorl.net/wp-content/uploads/2016/05/NP_Dia-Mundial-de-la-Voz.pdf
Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. Londres, Inglaterra: Massachusetts Institute of Technology.
N., M. G. (2016). evaluación funcional de la voz. Artículo de divulgación científica en el área vocal. chile.
Nicolas Viancha, C. M. (2018). studocu. Obtenido de https://www.studocu.com/co/document/universidad-antonio-narino/electronica-analoga/practica/lab-espectro-senalesfinalizadob/4874733/view
Pericas, F. J. (1993). TECNICAS DE PROCESADO Y REPRESENTACION DE LA SEÑAL DE VOZ PARA EL RECONOCIMIENTO DEL HABLA EN AMBIENTES RUIDOSOS. Barcelona.
Polo, N. (2015). sottovoce. Obtenido de https://sottovoce.hypotheses.org/tag/voz-area
Preparadores de Oposiciones para la Enseñanza. (s.f.). Obtenido de La voz humana y su fisiología: https://www.preparadores.eu/secundaria/Musica/Musica-Tema.pdf
R.I. Zraick, G. K. (2011). Establishing validity of the Consensus Auditory-. Journal, 14-22.
Santos, J. f. (2017). Reconocimiento de patrones en medidas acústicas para identificar patologías laríngeas. Curitiba, brasil.
Teixeira, J. P., Oliveira, C., & Lopes, C. (2013). Analisis acustico vocal- Parametros de Jitter, Shimmer y HNR. Conferencia sobre sistemas y tecnologias de la informacion en salud y asistencia social, (págs. 1-2). braganca.
Trinite, B. (2017). Epidemiology of Voice Disorders in Latvian School Teachers. Elsevier , 508.e1-508.e9.
universidad de alcala. (s.f.). Obtenido de departamento de cirugia.
Williamson, G. (1 de 02 de 2014). Evaluación perceptiva de la voz. Obtenido de SLTinfo: https://www.sltinfo.com/perceptual-assessment-of-voice/
instname:Universidad Antonio Nariño
reponame:Repositorio Institucional UAN
repourl:https://repositorio.uan.edu.co/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv Acceso abierto
dc.rights.license.spa.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)
Acceso abierto
https://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.publisher.spa.fl_str_mv Universidad Antonio Nariño
dc.publisher.program.spa.fl_str_mv Ingeniería Biomédica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería Mecánica, Electrónica y Biomédica
dc.publisher.campus.spa.fl_str_mv Popayán - Alto Cauca
institution Universidad Antonio Nariño
bitstream.url.fl_str_mv https://repositorio.uan.edu.co/bitstreams/dd9f38ff-7f29-42c2-abbd-b12fbd151c77/download
https://repositorio.uan.edu.co/bitstreams/c41bf371-49cb-45a4-8f97-64c106a22250/download
https://repositorio.uan.edu.co/bitstreams/e8294450-dd17-44db-ad42-eb3909f0cab6/download
https://repositorio.uan.edu.co/bitstreams/ccf0b11d-c9f0-4160-af30-48587308c0de/download
bitstream.checksum.fl_str_mv b9d8bb5349d9fe0db8e47bfa053494be
6b0eb704bf906cd1d32b198ad257b2a3
9868ccc48a14c8d591352b6eaf7f6239
2e388663398085f69421c9e4c5fcf235
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UAN
repository.mail.fl_str_mv alertas.repositorio@uan.edu.co
_version_ 1812928323640098816
spelling Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)Acceso abiertohttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Ramírez Medina, Jesús DavidRivera Marín, María Alejandra2021-03-03T17:05:47Z2021-03-03T17:05:47Z2020-06-05http://repositorio.uan.edu.co/handle/123456789/2486Batalla, D. F. (2015). sociedad española de otorrinolaringologia y cirugia de cabeza y cuello. Obtenido de seorl.net: https://seorl.net/wp-content/uploads/2015/09/CURSO-DE-VOZ.pdfBotero Tobón, L. M. (2008). Caracterización de los indicadores acústicos. caldas: El artista.Brockmann, M. (2011). Improving jitter and shimmer measurements in normal voices. reino unido: Newcastle University.Carla Oliveira, C. L. (2013). Vocal Acoustic Analysis - Jitter, Shimmer and HNR Parameters. ELSEVIER, 1112-1122.Cobeta, I., Núñez, F., & Fernández, S. (2013). Clasificación de las enfermedades neurodegenerativas. En p. d. voz. Barcelona: ICG Marge, SL.Fang-Ling Lu, S. M. (2014). Tareas del habla y confiabilidad entre evaluadores en la evaluación perceptiva de la voz. Journal of Voice. Elsevier.28(6),, 725-732.fermino, m. a. (2017). Clasificación de trastornos vocales utilizando redes neurales artificiales. Cornélio Procópio, brasil.Ford, C., & Bless, D. (1986). Clinical experience with injectable collagen for vocal fold augmentation. Laryngoscope. En C. Ford, & D. Bless.Galan, M. M. (julio de 2014). Análisis perceptual de la disfonía: adaptación y validación del método CAPE-V al español. oviedo.García Mario Alejandro, R. A. (2016). Red neuronal profunda para analisis acustico. Red neuronal profunda para analisis acustico. Universidad Tecnológica Nacional Facultad Regional Córdoba.García Mario Alejandro, R. A. (s.f.). Extracción de Características en Audio con Redes Neuronales convolucionales. Cordoba: Universidad Tecnológica Nacional Facultad Regional Córdoba (UTN FRC).Gerardo Gutiérrez Gutiérrez, A. R. (2015). centro de ciencias de la computación . Obtenido de Instituto Tecnológico Metropolitano: http://c3.itm.edu.co/~gerardo.gutierrez/machinelearning/Introducci%C3%B3n%20Aprendizaje%20de%20M%C3%A1quina.pdfHigor E. Pavoni, M. A. (2016). Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Identificación de parámetros subjetivos de voz utilizando redes neuronales artificiales. Cornélio procopio, Brasil.Ignacio Cobeta, f. n. (2013). patologia de la voz. Marge medica books.Jaume de Montserrat, A. O. (s.f.). El uso profesional. catalunya: Reversible SCP.Kreiman, J. &. (2010). Perceptual assessment of voice quality: past,. Perspectives on Voice and Voice Disorders.Martinez, J. F. (2011). Estimación espectral.mateos, c. (18 de abril de 2017). sociedad española de otorrinolaringologia. Obtenido de https://seorl.net/wp-content/uploads/2016/05/NP_Dia-Mundial-de-la-Voz.pdfMurphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. Londres, Inglaterra: Massachusetts Institute of Technology.N., M. G. (2016). evaluación funcional de la voz. Artículo de divulgación científica en el área vocal. chile.Nicolas Viancha, C. M. (2018). studocu. Obtenido de https://www.studocu.com/co/document/universidad-antonio-narino/electronica-analoga/practica/lab-espectro-senalesfinalizadob/4874733/viewPericas, F. J. (1993). TECNICAS DE PROCESADO Y REPRESENTACION DE LA SEÑAL DE VOZ PARA EL RECONOCIMIENTO DEL HABLA EN AMBIENTES RUIDOSOS. Barcelona.Polo, N. (2015). sottovoce. Obtenido de https://sottovoce.hypotheses.org/tag/voz-areaPreparadores de Oposiciones para la Enseñanza. (s.f.). Obtenido de La voz humana y su fisiología: https://www.preparadores.eu/secundaria/Musica/Musica-Tema.pdfR.I. Zraick, G. K. (2011). Establishing validity of the Consensus Auditory-. Journal, 14-22.Santos, J. f. (2017). Reconocimiento de patrones en medidas acústicas para identificar patologías laríngeas. Curitiba, brasil.Teixeira, J. P., Oliveira, C., & Lopes, C. (2013). Analisis acustico vocal- Parametros de Jitter, Shimmer y HNR. Conferencia sobre sistemas y tecnologias de la informacion en salud y asistencia social, (págs. 1-2). braganca.Trinite, B. (2017). Epidemiology of Voice Disorders in Latvian School Teachers. Elsevier , 508.e1-508.e9.universidad de alcala. (s.f.). Obtenido de departamento de cirugia.Williamson, G. (1 de 02 de 2014). Evaluación perceptiva de la voz. Obtenido de SLTinfo: https://www.sltinfo.com/perceptual-assessment-of-voice/instname:Universidad Antonio Nariñoreponame:Repositorio Institucional UANrepourl:https://repositorio.uan.edu.co/The voice is fundamental element of human communication, through it people transmit their feelings, emotions and ideas. In this context, different branches of medicine and engineering have opened upto the study of this phenomenon to explain in a way or other as it originates and the possible alterations, to detect these disorders of the voice the functional evaluation is used, To carry out this evaluation, the speech pathologist must apply different tests and procedures in order to assess each of the elements that intervene in the production of the spoken and sung voice. These elements are evaluated largely through auditory perceptual evaluation, palpation and visual observation, which makes this examination subjective, and with this that the result depends on the experience of the professional I evaluated. There are different scales that seek to standardize the perceptual assessment of the voice, such as GRABS and CAPE-V, but these still have a high level of subjectivity. Several studies have been developed to reduce professional subjectivity in this test, but most are developed around the GRABS scale, which has certain disadvantages. With the purpose of reducing the exam time and the subjectivity of the test, the development of an app that allows predicting the breathiness parameter within the CAPE-V perceptual evaluation method is proposed, through digital processing of acoustic signals and machine learning. To arrive at the final development of the App, a synthetic voice bank was created, which was used to create a dataset, which was implemented in attribute selection and regression models, in the Matlab and Weka softwares, obtaining with this the most optimal regression model for the prediction of soplocity.La voz es el elemento fundamental de la comunicación humana, a través de ella las personas transmiten sus sentimientos, emociones e ideas, en este contexto, diferentes ramas de la medicina y la ingeniería se han abierto al estudio de este fenómeno para explicar de un modo u otro cómo se origina y las posibles alteraciones (nódulos, quistes, pólipos, entre otras lesiones patológicas) que se interponen a su producción. Para evaluar la voz y analizar las diferentes patologías vocales, se realiza una evaluación en la que se tiene en cuenta todos los aspectos de la voz, en todo el proceso de producción, este examen es realizado por el fonoaudiólogo y se hace a través de exámenes y pruebas que en su mayoría son perceptuales. Se le pide al paciente realizar diferentes tareas vocales para así poder evaluar todos los aspectos de la voz cuando se habla o se canta, el diagnostico o resultado se da por el fonoaudiólogo en base a su experiencia y conocimientos previos. Existen diferentes escalas que buscan estandarizar la valoración perceptual de la voz, como lo son GRBAS y CAPE-V, pero estas siguen teniendo alto nivel de subjetividad. Diversos estudios se han desarrollado para reducir la subjetividad por parte del profesional en esta prueba, pero la mayoría son desarrollados en torno a la escala GRABS, la cual presenta ciertas desventajas. Con el propósito de reducir el tiempo de examen y la subjetividad de la prueba se plantea el desarrollo, de una app que permite estimar soplosidad dentro del método de evaluación perceptual CAPE-V, mediante procesamiento digital de señales acústicas y aprendizaje de máquina. Para llegar al desarrollo final de la App, se creó un banco de voces sintético, el cual se utilizó para crear un dataset, que se implementó en modelos de selección de atributos y de regresión, en los softwares Matlab y Weka, obteniendo con esto el modelo de regresión más óptimo para la predicción de la soplosidad. En el transcurso del texto se irá proporcionando información detallada sobre el proceso de diseño, implementación y puesta en marcha de la app, observando cómo este aporte puede llegar a ser favorable para el mundo de la salud y la ingeniería.OtroIngeniero(a) Biomédico(a)Pregrado$13.220.000 (de acuerdo a lo reportado en el anteproyecto): $11.020.000 (Propios) $2.200.000 (UAN)PresencialspaUniversidad Antonio NariñoIngeniería BiomédicaFacultad de Ingeniería Mecánica, Electrónica y BiomédicaPopayán - Alto CaucaEvaluación perceptual de la vozDatasetRegresiónSoplosidadPerceptual voice notedata setregressionsoplocityEstimación del parámetro soplosidad dentro del método de análisis perceptual de la voz cape-vTrabajo de grado (Pregrado y/o Especialización)http://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85ORIGINAL2020_MariaRivera2020_MariaRivera2020MariaAlejandraRiveraMarin.pdfapplication/pdf5037738https://repositorio.uan.edu.co/bitstreams/dd9f38ff-7f29-42c2-abbd-b12fbd151c77/downloadb9d8bb5349d9fe0db8e47bfa053494beMD522020_MariaRivera_Autorización2020_MariaRivera_Autorización2020AutorizacióndeAutores.pdfapplication/pdf797686https://repositorio.uan.edu.co/bitstreams/c41bf371-49cb-45a4-8f97-64c106a22250/download6b0eb704bf906cd1d32b198ad257b2a3MD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repositorio.uan.edu.co/bitstreams/e8294450-dd17-44db-ad42-eb3909f0cab6/download9868ccc48a14c8d591352b6eaf7f6239MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-82710https://repositorio.uan.edu.co/bitstreams/ccf0b11d-c9f0-4160-af30-48587308c0de/download2e388663398085f69421c9e4c5fcf235MD55123456789/2486oai:repositorio.uan.edu.co:123456789/24862024-10-09 22:50:12.491https://creativecommons.org/licenses/by-nc-nd/4.0/Acceso abiertoopen.accesshttps://repositorio.uan.edu.coRepositorio Institucional UANalertas.repositorio@uan.edu.coQWwgaW5jbHVpciBpbmZvcm1hY2nDs24gZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSAgVU5JVkVSU0lEQUQgQU5UT05JTyBOQVJJw5FPLCBlbCBhdXRvcihlcykgYXV0b3JpemEgYWwgU2lzdGVtYSBOYWNpb25hbCBkZSBCaWJsaW90ZWNhcyBwYXJhIGFsbWFjZW5hciB5IG1hbnRlbmVyIGxhIGluZm9ybWFjacOzbiAsIGNvbiBmaW5lcyBhY2Fkw6ltaWNvcyB5IGRlIG1hbmVyYSBncmF0dWl0YSwgIHBvbmdhIGEgZGlzcG9zaWNpw7NuIGRlIGxhIGNvbXVuaWRhZCBzdXMgY29udGVuaWRvcyBkw6FuZG9sZSB2aXNpYmlsaWRhZCBhIGxvcyBtaXNtb3MsIHNlIGVudGllbmRlIHF1ZSBlbChsb3MpIGF1dG9yKGVzKSBhY2VwdGEobik6IAoKMS4JUXVlIGxvcyB1c3VhcmlvcyBpbnRlcm5vcyB5IGV4dGVybm9zIGRlIGxhIEluc3RpdHVjacOzbiBwdWVkYW4gY29uc3VsdGFyIGVsIGNvbnRlbmlkbyBkZSBlc3RlIHRyYWJham8gZW4gbG9zIHNpdGlvcyB3ZWIgcXVlIGFkbWluaXN0cmEgbGEgVW5pdmVyc2lkYWQgQW50b25pbyBOYXJpw7FvLCBlbiBCYXNlIGRlIERhdG9zLCBlbiBvdHJvcyBDYXTDoWxvZ29zIHkgZW4gb3Ryb3Mgc2l0aW9zIFdlYiwgUmVkZXMgeSBTaXN0ZW1hcyBkZSBJbmZvcm1hY2nDs24gbmFjaW9uYWxlcyBlIGludGVybmFjaW9uYWxlcyDigJxPcGVuIEFjY2Vzc+KAnSB5IGVuIGxhcyByZWRlcyBkZSBpbmZvcm1hY2nDs24gZGVsIHBhw61zIHkgZGVsIGV4dGVyaW9yLCBjb24gbGFzIGN1YWxlcyB0ZW5nYSBjb252ZW5pbyBsYSBVbml2ZXJzaWRhZCBBbnRvbmlvIE5hcmnDsW8uCgoyLglRdWUgc2UgcGVybWl0ZSBsYSBjb25zdWx0YSBhIGxvcyB1c3VhcmlvcyBpbnRlcmVzYWRvcyBlbiBlbCBjb250ZW5pZG8gZGUgZXN0ZSB0cmFiYWpvLCBjb24gZmluYWxpZGFkIGFjYWTDqW1pY2EsIG51bmNhIHBhcmEgdXNvcyBjb21lcmNpYWxlcywgc2llbXByZSB5IGN1YW5kbyBtZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyB5IGEgc3UgYXV0b3IuIEVzdG8gaW5jbHV5ZSBjdWFscXVpZXIgZm9ybWF0byBkaXNwb25pYmxlIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuCgozLglRdWUgbG9zIGRlcmVjaG9zIHNvYnJlIGxvcyBkb2N1bWVudG9zIHNvbiBwcm9waWVkYWQgZGVsIGF1dG9yIG8gZGUgbG9zIGF1dG9yZXMgeSB0aWVuZW4gc29icmUgc3Ugb2JyYSwgZW50cmUgb3Ryb3MsIGxvcyBkZXJlY2hvcyBtb3JhbGVzIGEgcXVlIGhhY2VuIHJlZmVyZW5jaWEgY29uc2VydmFuZG8gbG9zIGNvcnJlc3BvbmRpZW50ZXMgZGVyZWNob3Mgc2luIG1vZGlmaWNhY2nDs24gbyByZXN0cmljY2nDs24gYWxndW5hIHB1ZXN0byBxdWUsIGRlIGFjdWVyZG8gY29uIGxhIGxlZ2lzbGFjacOzbiBjb2xvbWJpYW5hIGFwbGljYWJsZSwgZWwgcHJlc2VudGUgZXMgdW5hIGF1dG9yaXphY2nDs24gcXVlIGVuIG5pbmfDum4gY2FzbyBjb25sbGV2YSBsYSBlbmFqZW5hY2nDs24gZGVsIGRlcmVjaG8gZGUgYXV0b3IgeSBzdXMgY29uZXhvcy4KCjQuCVF1ZSBlbCBTaXN0ZW1hIE5hY2lvbmFsIGRlIEJpYmxpb3RlY2FzIGRlIGxhIFVuaXZlcnNpZGFkIEFudG9uaW8gTmFyacOxbyBwdWVkYSBjb252ZXJ0aXIgZWwgZG9jdW1lbnRvIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBwYXJhIHByb3DDs3NpdG9zIGRlIHByZXNlcnZhY2nDs24gZGlnaXRhbC4gRGUgY29uZm9ybWlkYWQgY29uIGxvIGVzdGFibGVjaWRvIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgeSB1c2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiBkZSBsYSBpbmZvcm1hY2nDs24gaW5jbHVpZGEgZW4gZXN0ZSByZXBvc2l0b3Jpby4KCjUuCVF1ZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIGVzIG9yaWdpbmFsIHkgbGEgcmVhbGl6w7Mgc2luIHZpb2xhciBvIHVzdXJwYXIgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHBvciBsbyB0YW50byBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgVW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZTsgYXPDrSBtaXNtbyBlbCBhY8OhIGZpcm1hbnRlIGRlamFyw6EgaW5kZW1uZSBhIGxhIFVuaXZlcnNpZGFkIGRlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBwZXJqdWljaW8uCg==