Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos

Las redes neuronales artificiales son una herramienta computacional que permite realizar aplicaciones de manera automática que de momento solo podían ser realizadas por humanos. Esta tecnología lidera el campo de la visión por computadora y los procesos de automatización. En este trabajo de grado se...

Full description

Autores:
Gómez Réndon, Mario Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/11785
Acceso en línea:
http://red.uao.edu.co//handle/10614/11785
Palabra clave:
Ingeniería Biomédica
Redes neurales (Computadores)
Angiografía reticular
Neural networks (Computer science)
Angiography
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_2efe94de4989875fe4ef806f6bfe8a80
oai_identifier_str oai:red.uao.edu.co:10614/11785
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
title Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
spellingShingle Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
Ingeniería Biomédica
Redes neurales (Computadores)
Angiografía reticular
Neural networks (Computer science)
Angiography
title_short Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
title_full Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
title_fullStr Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
title_full_unstemmed Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
title_sort Herramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y Sordos
dc.creator.fl_str_mv Gómez Réndon, Mario Andrés
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
González Vargas, Andrés Mauricio
dc.contributor.author.spa.fl_str_mv Gómez Réndon, Mario Andrés
dc.subject.spa.fl_str_mv Ingeniería Biomédica
Redes neurales (Computadores)
Angiografía reticular
topic Ingeniería Biomédica
Redes neurales (Computadores)
Angiografía reticular
Neural networks (Computer science)
Angiography
dc.subject.eng.fl_str_mv Neural networks (Computer science)
Angiography
description Las redes neuronales artificiales son una herramienta computacional que permite realizar aplicaciones de manera automática que de momento solo podían ser realizadas por humanos. Esta tecnología lidera el campo de la visión por computadora y los procesos de automatización. En este trabajo de grado se busca la implementación de una red neuronal para resolver un problema de clasificación logística, la cual se puede entender como la probabilidad de que una entrada pertenezca a una clase en particular, esto, con el fin de suplir una necesidad identificada por el autor en una institución sin ánimo de lucro. En la institución se realizan exámenes de angiografía reticular de manera diaria y el acumulo de resultados se vuelve un trabajo tedioso para los médicos y a su vez el tiempo de esperar para la entrega de los resultados es considerable. Así pues, se propuso el diseño de una herramienta de ayuda diagnóstica que permite clasificar las angiografías reticulares con base a la probabilidad de ser patológica o no patológica; con el fin de entregar a los médicos en orden de mayor probabilidad patológica y tratar de disminuir el tiempo de intervención a los pacientes con alta probabilidad de patología. Para el desarrollo de la herramienta se usó el lenguaje de programación Python y la librería de redes neuronales Tensorflow y Keras. Fue necesario la creación de una base de datos con las imágenes angiográfica proporcionadas por la institución para el proceso de entrenamiento de la red neuronal. Posteriormente, se propusieron tres alternativas viables de redes neuronales artificiales que tuviesen la capacidad de procesar la información angiográfica; lo siguiente fue entrenar y validar cada uno de los modelos y comparar su desempeño en datos no vistos por medio de la construcción de una matriz de confusión. Finalmente, se eligió el modelo como mejor resultado en la matriz de confusión y se realizó el deployment del modelo por medio de una GUI que permite la interacción con el usuario y la herramienta de ayuda diagnóstica
publishDate 2019
dc.date.issued.spa.fl_str_mv 2019-08-14
dc.date.accessioned.spa.fl_str_mv 2020-01-13T21:20:57Z
dc.date.available.spa.fl_str_mv 2020-01-13T21:20:57Z
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/11785
url http://red.uao.edu.co//handle/10614/11785
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nd/4.0/
Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 86 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Biomédica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv [1] Verdejo, D. L. (2014). Angiografía con fluoresceína. SOCV Sociedad Oftalmológica de La Comunidad Valenciana. Recuperado de: http://www.socv.org/angiografia-con-fluoresceina/ [2] E. Hosseini-Asl, Hosseini-Asl, E., Keynto, R., & El-Baz, A. (2016). Alzheimer’s Disease Diagnostics by Adaptation of 3D Convolutional Network, (Icip). https://doi.org/10.1109/ICIP.2016.7532332, 1st ed. Luoisville, 2016. [3] C. Gonzales, propósitos y metodología de la sistematización, 1st ed. Facultad Nacional De Salud Pública, 2015.[En línea]. Disponible en: http://www.udea.edu.co/wps/wcm/connect/udea/2e43da6b-2db8-43f5-95faa3026ade8d77/PROP%C3%93SITOS+Y+METODOLOG%C3%8DA+DE+LA+SIS TEMATIZACI%C3%93N.pdf?MOD=AJPERES [4] Lahiri, A., Roy, A. G., Sheet, D., & Biswas, P. K. (2016). Deep neural ensemble for retinal vessel segmentation in fundus images towards achieving label-free angiography. In Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS (Vol. 2016–October, pp. 1340– 1343). Institute of Electrical and Electronics Engineers Inc. https://doi.org/10.1109/EMBC.2016.7590955 [5] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet Classification with Deep Convolutional Neural Networks. Advances In Neural Information Processing Systems, 1–9. https://doi.org/http://dx.doi.org/10.1016/j.protcy.2014.09.007 [6] Nasr-Esfahani, E., Samavi, S., Karimi, N., Soroushmehr, S. M. R., Ward, K., Jafari, M. H., … Najarian, K. (2016). Vessel extraction in X-ray angiograms using deep learning. In Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS (Vol. 2016–October, pp. 643– 646). Institute of Electrical and Electronics Engineers Inc. https://doi.org/10.1109/EMBC.2016.7590784 84 [7] Degeneración, L., & Relacionada, M. (n.d.). La Degeneración Macular Relacionada con la Edad Lo que debe saber.[En línea]. Disponible en: https://nei.nih.gov/sites/default/files/health-pdfs/AMDlayoutSPAN2.pdf [8] Gómez-Ulla, F., Abraldes, M. J., Basauri, E., Fernández, M., García-Layana, A., Gili, P., … Cervera, E. (2010). Guías de práctica clínica de la SERV: Manejo de las oclusiones venosas de la retina. Archivos de La Sociedad Espanola de Oftalmologia, 85(9), 294–309. https://doi.org/10.1016/j.oftal.2010.10.002 [9] I. Sagina, "Why go large with Data for Deep Learning?", Towards Data Science, 2019. [En línea]. Disponible en: https://towardsdatascience.com/why-go-large-withdata-for-deep-learning-12eee16f708. [Accedido: 12- Jun- 2019]. [10] "Want to know how Deep Learning works? Here’s a quick guide for everyone.", freeCodeCamp.org News, 2019. [En línea]. Disponible en: https://www.freecodecamp.org/news/want-to-know-how-deep-learning-worksheres-a-quick-guide-for-everyone-1aedeca88076/. [Accedido: 12- Jun- 2019]. [11] "Estudio detallado del AA: Entrenamiento y pérdida | Curso intensivo de aprendizaje automático | Google Developers", Google Developers, 2019[En línea]. Disponible en: https://developers.google.com/machine-learning/crashcourse/descending-into-ml/training-and-loss?hl=es-419. [Accedido: 12- Jun- 2019]. [12] J. Brownlee, "Gentle Introduction to the Adam Optimization Algorithm for Deep Learning", Machine Learning Mastery, 2019. [En línea]. Disponible en: https://machinelearningmastery.com/adam-optimization-algorithm-for-deeplearning/. [Accedido: 12- Jun- 2019]. [13]T. Juan, Actualización de la guía clínica de retinopatía diabética, 1st ed. Consejo Internacional ICO: PAAO, 2016. [En línea]. Disponible en: https://paao.org/wpcontent/uploads/2016/05/guiaclinicaretinopatiadiabetica2016.pdf [14] Gómez, M. (2015). Angiografía fluoresceínica en la retinopatía diabética, (January 2014). [En línea]. Disponible en: https://www.researchgate.net/publication/280568062_Angiografia_fluoresceinica_e n_la_retinopatia_diabetica 85 [15] A. Geron, Hands-on Machine Learning with Scikit-Learn, Keras and Tensorflow., 2nd ed. 2019 [ebook] [En línea]. Disponible en: https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/ [16] F. Chollet, Deep Learning with Python, 1st ed. 2017. [ebook] [En línea]. Disponible en: http://faculty.neu.edu.cn/yury/AAI/Textbook/Deep%20Learning%20with%20Python. pdf [17] A. Sweigart, Automate the Boring Stuff with Python. 2015. [ebook] [En línea]. Disponible en: https://studentportalen.uu.se/uuspwebapp/auth/webwork/filearea/download.action?nodeId=2053259&toolAttachmentI d=475830&uusp.userId=guest [18] William K. Pratt, Digital Image Processing, Fourth Edi., vol. 6, no. 2. Los altos, California: John Wiley and Sons, 2007 [19] C. Nwankpa, W. Ijomah, A. Gachagan, and S. Marshall, “Activation Functions: Comparison of trends in Practice and Research for Deep Learning,” pp. 1–20, 2018. [En línea]. Disponible en: https://arxiv.org/abs/1811.03378 [20] A. Zhang, Z. C. Lipton, M. Li, and A. J. Smola, “Dive into Deep Learning,” p. 639, 2018. [En línea]. Disponible en: https://en.d2l.ai/d2l-en.pdf [21] Torrey, L. (2017). Transfer Learning. 1st ed. [ebook] [En línea]. Disponible en: http://ftp://ftp.cs.wisc.edu/machine-learning/.../torrey.handbook09.pdf [Accedido 30 Jul. 2019].
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/ec0388aa-a7fe-4927-abdc-fe419864608a/download
https://red.uao.edu.co/bitstreams/38ec86e1-3c9c-4293-86b6-360dd24c4020/download
https://red.uao.edu.co/bitstreams/2334ba2e-6542-4e1c-9a9b-fcb98b495726/download
https://red.uao.edu.co/bitstreams/358eae71-b77f-494c-aa00-fb1920281703/download
https://red.uao.edu.co/bitstreams/41c294c4-4b4f-4dcb-aa3f-565216b8fb12/download
https://red.uao.edu.co/bitstreams/57f27d16-df7b-4b71-b648-4feb7a12b7a6/download
https://red.uao.edu.co/bitstreams/14597e7b-2414-42a2-8afb-0cb8abb94c24/download
https://red.uao.edu.co/bitstreams/f733ec5b-5b44-428a-86b1-37abaf9b4ca2/download
https://red.uao.edu.co/bitstreams/e938f56a-d9bc-484a-9457-68b6015a560e/download
bitstream.checksum.fl_str_mv e5b88b99b02236cdaaa51e14fc5b7284
e1c06d85ae7b8b032bef47e42e4c08f9
d73672d711bdde2e03a446333558c016
f10514058892e19ec4a6369974189475
f7d494f61e544413a13e6ba1da2089cd
20b5ba22b1117f71589c7318baa2c560
2249c872cb8d7bd084547dadcf325f67
0b85956696fc118948ffa5523f5d8552
d25c6e38ecdffda8230875bdd85d3f18
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260029876862976
spelling López Sotelo, Jesús Alfonsovirtual::2960-1González Vargas, Andrés Mauriciovirtual::2187-1Gómez Réndon, Mario Andrésdc07efb66a48864760bb75314f04b337-1Ingeniero BiomédicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-01-13T21:20:57Z2020-01-13T21:20:57Z2019-08-14http://red.uao.edu.co//handle/10614/11785Las redes neuronales artificiales son una herramienta computacional que permite realizar aplicaciones de manera automática que de momento solo podían ser realizadas por humanos. Esta tecnología lidera el campo de la visión por computadora y los procesos de automatización. En este trabajo de grado se busca la implementación de una red neuronal para resolver un problema de clasificación logística, la cual se puede entender como la probabilidad de que una entrada pertenezca a una clase en particular, esto, con el fin de suplir una necesidad identificada por el autor en una institución sin ánimo de lucro. En la institución se realizan exámenes de angiografía reticular de manera diaria y el acumulo de resultados se vuelve un trabajo tedioso para los médicos y a su vez el tiempo de esperar para la entrega de los resultados es considerable. Así pues, se propuso el diseño de una herramienta de ayuda diagnóstica que permite clasificar las angiografías reticulares con base a la probabilidad de ser patológica o no patológica; con el fin de entregar a los médicos en orden de mayor probabilidad patológica y tratar de disminuir el tiempo de intervención a los pacientes con alta probabilidad de patología. Para el desarrollo de la herramienta se usó el lenguaje de programación Python y la librería de redes neuronales Tensorflow y Keras. Fue necesario la creación de una base de datos con las imágenes angiográfica proporcionadas por la institución para el proceso de entrenamiento de la red neuronal. Posteriormente, se propusieron tres alternativas viables de redes neuronales artificiales que tuviesen la capacidad de procesar la información angiográfica; lo siguiente fue entrenar y validar cada uno de los modelos y comparar su desempeño en datos no vistos por medio de la construcción de una matriz de confusión. Finalmente, se eligió el modelo como mejor resultado en la matriz de confusión y se realizó el deployment del modelo por medio de una GUI que permite la interacción con el usuario y la herramienta de ayuda diagnósticaArtificial neural networks are a great tool enabling activities automatically that currently only could be done by humans, this technology leads the field of computer vision and processes of automation. This worked grade seeks to implement a neural network for solving a problem of logistics classification in an institution without profit. In the institution are carried out examinations of reticular angiography on a daily basis and the accumulation of results becomes a tedious job for doctors and the time of waiting for the delivery of results is considerable. So, the design of a tool to help diagnose that allows sorting the reticular angiography based on the probability of being pathological or not pathological; in order to give to doctors in order of most likely to be pathological and try to reduce the speaking time to patients with high probability of pathology. The development of the tool used Python programming language and the library of neural networks Tensorflow and Keras. It was necessary to create a database with images angiographic provided by the institution for the training of the neural network process. Subsequently, it was proposed three alternatives of artificial neural networks that have the capacity to process angiographic information; the next thing was to train and validate the models and compare their performance in not seen data through the construction of a confusion matrix. Finally, it was chosen the model as a best result in the confusion matrix and realized the deployment of the model by means of a GUI which connects to the tool with the userPasantia comunitaria (Ingeniero Biomédico)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Biomédico(a)application/pdf86 páginasspaUniversidad Autónoma de OccidenteIngeniería BiomédicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nd/4.0/info:eu-repo/semantics/openAccessAtribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] Verdejo, D. L. (2014). Angiografía con fluoresceína. SOCV Sociedad Oftalmológica de La Comunidad Valenciana. Recuperado de: http://www.socv.org/angiografia-con-fluoresceina/ [2] E. Hosseini-Asl, Hosseini-Asl, E., Keynto, R., & El-Baz, A. (2016). Alzheimer’s Disease Diagnostics by Adaptation of 3D Convolutional Network, (Icip). https://doi.org/10.1109/ICIP.2016.7532332, 1st ed. Luoisville, 2016. [3] C. Gonzales, propósitos y metodología de la sistematización, 1st ed. Facultad Nacional De Salud Pública, 2015.[En línea]. Disponible en: http://www.udea.edu.co/wps/wcm/connect/udea/2e43da6b-2db8-43f5-95faa3026ade8d77/PROP%C3%93SITOS+Y+METODOLOG%C3%8DA+DE+LA+SIS TEMATIZACI%C3%93N.pdf?MOD=AJPERES [4] Lahiri, A., Roy, A. G., Sheet, D., & Biswas, P. K. (2016). Deep neural ensemble for retinal vessel segmentation in fundus images towards achieving label-free angiography. In Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS (Vol. 2016–October, pp. 1340– 1343). Institute of Electrical and Electronics Engineers Inc. https://doi.org/10.1109/EMBC.2016.7590955 [5] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet Classification with Deep Convolutional Neural Networks. Advances In Neural Information Processing Systems, 1–9. https://doi.org/http://dx.doi.org/10.1016/j.protcy.2014.09.007 [6] Nasr-Esfahani, E., Samavi, S., Karimi, N., Soroushmehr, S. M. R., Ward, K., Jafari, M. H., … Najarian, K. (2016). Vessel extraction in X-ray angiograms using deep learning. In Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS (Vol. 2016–October, pp. 643– 646). Institute of Electrical and Electronics Engineers Inc. https://doi.org/10.1109/EMBC.2016.7590784 84 [7] Degeneración, L., & Relacionada, M. (n.d.). La Degeneración Macular Relacionada con la Edad Lo que debe saber.[En línea]. Disponible en: https://nei.nih.gov/sites/default/files/health-pdfs/AMDlayoutSPAN2.pdf [8] Gómez-Ulla, F., Abraldes, M. J., Basauri, E., Fernández, M., García-Layana, A., Gili, P., … Cervera, E. (2010). Guías de práctica clínica de la SERV: Manejo de las oclusiones venosas de la retina. Archivos de La Sociedad Espanola de Oftalmologia, 85(9), 294–309. https://doi.org/10.1016/j.oftal.2010.10.002 [9] I. Sagina, "Why go large with Data for Deep Learning?", Towards Data Science, 2019. [En línea]. Disponible en: https://towardsdatascience.com/why-go-large-withdata-for-deep-learning-12eee16f708. [Accedido: 12- Jun- 2019]. [10] "Want to know how Deep Learning works? Here’s a quick guide for everyone.", freeCodeCamp.org News, 2019. [En línea]. Disponible en: https://www.freecodecamp.org/news/want-to-know-how-deep-learning-worksheres-a-quick-guide-for-everyone-1aedeca88076/. [Accedido: 12- Jun- 2019]. [11] "Estudio detallado del AA: Entrenamiento y pérdida | Curso intensivo de aprendizaje automático | Google Developers", Google Developers, 2019[En línea]. Disponible en: https://developers.google.com/machine-learning/crashcourse/descending-into-ml/training-and-loss?hl=es-419. [Accedido: 12- Jun- 2019]. [12] J. Brownlee, "Gentle Introduction to the Adam Optimization Algorithm for Deep Learning", Machine Learning Mastery, 2019. [En línea]. Disponible en: https://machinelearningmastery.com/adam-optimization-algorithm-for-deeplearning/. [Accedido: 12- Jun- 2019]. [13]T. Juan, Actualización de la guía clínica de retinopatía diabética, 1st ed. Consejo Internacional ICO: PAAO, 2016. [En línea]. Disponible en: https://paao.org/wpcontent/uploads/2016/05/guiaclinicaretinopatiadiabetica2016.pdf [14] Gómez, M. (2015). Angiografía fluoresceínica en la retinopatía diabética, (January 2014). [En línea]. Disponible en: https://www.researchgate.net/publication/280568062_Angiografia_fluoresceinica_e n_la_retinopatia_diabetica 85 [15] A. Geron, Hands-on Machine Learning with Scikit-Learn, Keras and Tensorflow., 2nd ed. 2019 [ebook] [En línea]. Disponible en: https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/ [16] F. Chollet, Deep Learning with Python, 1st ed. 2017. [ebook] [En línea]. Disponible en: http://faculty.neu.edu.cn/yury/AAI/Textbook/Deep%20Learning%20with%20Python. pdf [17] A. Sweigart, Automate the Boring Stuff with Python. 2015. [ebook] [En línea]. Disponible en: https://studentportalen.uu.se/uuspwebapp/auth/webwork/filearea/download.action?nodeId=2053259&toolAttachmentI d=475830&uusp.userId=guest [18] William K. Pratt, Digital Image Processing, Fourth Edi., vol. 6, no. 2. Los altos, California: John Wiley and Sons, 2007 [19] C. Nwankpa, W. Ijomah, A. Gachagan, and S. Marshall, “Activation Functions: Comparison of trends in Practice and Research for Deep Learning,” pp. 1–20, 2018. [En línea]. Disponible en: https://arxiv.org/abs/1811.03378 [20] A. Zhang, Z. C. Lipton, M. Li, and A. J. Smola, “Dive into Deep Learning,” p. 639, 2018. [En línea]. Disponible en: https://en.d2l.ai/d2l-en.pdf [21] Torrey, L. (2017). Transfer Learning. 1st ed. [ebook] [En línea]. Disponible en: http://ftp://ftp.cs.wisc.edu/machine-learning/.../torrey.handbook09.pdf [Accedido 30 Jul. 2019].Ingeniería BiomédicaRedes neurales (Computadores)Angiografía reticularNeural networks (Computer science)AngiographyHerramienta de ayuda diagnóstica basada en redes neuronales para analizar angiogramas reticulares implementada en el Instituto para Niños Ciegos y SordosTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2960-1https://scholar.google.com.co/citations?user=oj5Tle8AAAAJ&hl=esvirtual::2187-10000-0002-9731-8458virtual::2960-10000-0001-6393-7130virtual::2187-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2960-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001345355virtual::2187-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2960-16053e64e-a34d-4652-8fa2-6c0440556f15virtual::2187-16053e64e-a34d-4652-8fa2-6c0440556f15virtual::2187-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2960-1TEXTT08793.pdf.txtT08793.pdf.txtExtracted texttext/plain119015https://red.uao.edu.co/bitstreams/ec0388aa-a7fe-4927-abdc-fe419864608a/downloade5b88b99b02236cdaaa51e14fc5b7284MD59TA8793.pdf.txtTA8793.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/38ec86e1-3c9c-4293-86b6-360dd24c4020/downloade1c06d85ae7b8b032bef47e42e4c08f9MD511THUMBNAILT08793.pdf.jpgT08793.pdf.jpgGenerated Thumbnailimage/jpeg6766https://red.uao.edu.co/bitstreams/2334ba2e-6542-4e1c-9a9b-fcb98b495726/downloadd73672d711bdde2e03a446333558c016MD510TA8793.pdf.jpgTA8793.pdf.jpgGenerated Thumbnailimage/jpeg14877https://red.uao.edu.co/bitstreams/358eae71-b77f-494c-aa00-fb1920281703/downloadf10514058892e19ec4a6369974189475MD512CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8799https://red.uao.edu.co/bitstreams/41c294c4-4b4f-4dcb-aa3f-565216b8fb12/downloadf7d494f61e544413a13e6ba1da2089cdMD54LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/57f27d16-df7b-4b71-b648-4feb7a12b7a6/download20b5ba22b1117f71589c7318baa2c560MD55ORIGINALT08793.pdfT08793.pdfapplication/pdf1967681https://red.uao.edu.co/bitstreams/14597e7b-2414-42a2-8afb-0cb8abb94c24/download2249c872cb8d7bd084547dadcf325f67MD56T8793A.pubT8793A.pubapplication/octet-stream7284224https://red.uao.edu.co/bitstreams/f733ec5b-5b44-428a-86b1-37abaf9b4ca2/download0b85956696fc118948ffa5523f5d8552MD57TA8793.pdfTA8793.pdfapplication/pdf571410https://red.uao.edu.co/bitstreams/e938f56a-d9bc-484a-9457-68b6015a560e/downloadd25c6e38ecdffda8230875bdd85d3f18MD5810614/11785oai:red.uao.edu.co:10614/117852024-03-08 09:55:48.71https://creativecommons.org/licenses/by-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K