Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas

Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo...

Full description

Autores:
Vélez Caicedo, Juan David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/11794
Acceso en línea:
http://red.uao.edu.co//handle/10614/11794
Palabra clave:
Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_4f49084b2050c597868ee3bebab73305
oai_identifier_str oai:red.uao.edu.co:10614/11794
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
title Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
spellingShingle Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
title_short Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
title_full Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
title_fullStr Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
title_full_unstemmed Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
title_sort Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
dc.creator.fl_str_mv Vélez Caicedo, Juan David
dc.contributor.advisor.none.fl_str_mv Ramírez Moreno, David Fernando
dc.contributor.author.spa.fl_str_mv Vélez Caicedo, Juan David
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
topic Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
dc.subject.eng.fl_str_mv Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
description Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo un fichero de texto que posteriormente es procesado para reproducirlo en audio, estos dos desarrollos se unen mediante una aplicación móvil y un dispositivo físico que se encarga de capturar la imagen del texto. El dispositivo de lectura de textos se desarrolló en 4 fases, la primera encargada de capturar la imagen del texto por medio de un dispositivo externo que cuenta con una cámara incorporada, esta etapa se realizó mediante la utilización de una placa Raspberry Pi Zero W junto con su módulo de cámara Rev. 1.3, en la cual se crea un punto de acceso local WiFi NAT y un servidor, por medio de un socket se envía la imagen capturada a la aplicación móvil; la segunda etapa permite hacer la extracción del texto alojado en la imagen previamente capturada por el dispositivo físico, esta etapa se realiza mediante librerías de reconocimiento de textos incluidas en el entorno de programación Android Studio; la tercera etapa realiza la reproducción por medio de audio del texto extraído, la cual se realiza por medio de la librerías internas incluidas en el entorno de programación Android Studio que permite la reproducción por audio de un texto ‘Text to Speech’ y la cuarta etapa une estos desarrollos por medio de una aplicación móvil que permite la comunicación con el dispositivo físico de captura de imágenes por medio del protocolo de comunicación TCP. La evaluación del sistema muestra que el dispositivo es capaz de realizar la extracción y reproducción por audio del texto de forma satisfactoria, con una exactitud del 98 % sobre 400 palabras
publishDate 2019
dc.date.issued.spa.fl_str_mv 2019-11-28
dc.date.accessioned.spa.fl_str_mv 2020-01-14T17:04:09Z
dc.date.available.spa.fl_str_mv 2020-01-14T17:04:09Z
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/11794
url http://red.uao.edu.co//handle/10614/11794
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nd/4.0/
Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 106 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv [1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.md
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/e21502a7-3354-4f33-8782-c478d4b3ef7f/download
https://red.uao.edu.co/bitstreams/0a44da5e-17b7-42e8-b44a-2090bacaf672/download
https://red.uao.edu.co/bitstreams/91412ea2-4fa4-4033-ac72-3dcaf0688ed6/download
https://red.uao.edu.co/bitstreams/26712774-5858-4d22-b3b0-cfc24f1999f5/download
https://red.uao.edu.co/bitstreams/6526aee3-cc8c-4bd8-9878-d399af337eb1/download
https://red.uao.edu.co/bitstreams/aa9b04c0-f139-43dc-b79f-ea57ecb831d7/download
https://red.uao.edu.co/bitstreams/b38d38b9-daa8-42db-9a4b-3923efeb7c80/download
https://red.uao.edu.co/bitstreams/c9f3ed40-30ca-4490-b44f-4ed963c3a498/download
bitstream.checksum.fl_str_mv ceff943a72f1400fe5a4056e868fd0eb
e1c06d85ae7b8b032bef47e42e4c08f9
969994c222f73638d0f5fb6019e9ed30
b0d8faf1c4460de4dc90d4a929e76b98
f7d494f61e544413a13e6ba1da2089cd
20b5ba22b1117f71589c7318baa2c560
f9b3388f5151f81f6eff4b26e019a449
c0a5ef394c94c9f9063482dffdb978b3
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260099381723136
spelling Ramírez Moreno, David Fernandovirtual::4293-1Vélez Caicedo, Juan David744daac3fe4e07c094903767aa355f00-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-01-14T17:04:09Z2020-01-14T17:04:09Z2019-11-28http://red.uao.edu.co//handle/10614/11794Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo un fichero de texto que posteriormente es procesado para reproducirlo en audio, estos dos desarrollos se unen mediante una aplicación móvil y un dispositivo físico que se encarga de capturar la imagen del texto. El dispositivo de lectura de textos se desarrolló en 4 fases, la primera encargada de capturar la imagen del texto por medio de un dispositivo externo que cuenta con una cámara incorporada, esta etapa se realizó mediante la utilización de una placa Raspberry Pi Zero W junto con su módulo de cámara Rev. 1.3, en la cual se crea un punto de acceso local WiFi NAT y un servidor, por medio de un socket se envía la imagen capturada a la aplicación móvil; la segunda etapa permite hacer la extracción del texto alojado en la imagen previamente capturada por el dispositivo físico, esta etapa se realiza mediante librerías de reconocimiento de textos incluidas en el entorno de programación Android Studio; la tercera etapa realiza la reproducción por medio de audio del texto extraído, la cual se realiza por medio de la librerías internas incluidas en el entorno de programación Android Studio que permite la reproducción por audio de un texto ‘Text to Speech’ y la cuarta etapa une estos desarrollos por medio de una aplicación móvil que permite la comunicación con el dispositivo físico de captura de imágenes por medio del protocolo de comunicación TCP. La evaluación del sistema muestra que el dispositivo es capaz de realizar la extracción y reproducción por audio del texto de forma satisfactoria, con una exactitud del 98 % sobre 400 palabrasThis document presents the design and development of a text reading device for people with partial or total visual impairment, based on deep neural networks. It was made using the optical character recognition technique, which as a result produced a text file that is then processed to reproduce it in audio, these two developments are joined by a mobile application and a physical device that is responsible for capturing the image of the text. The text reading device was developed in 4 phases, the first one in charge of capturing the image of the text by means of an external device that has an incorporated camera, this stage was carried out by means of the use of a Raspberry Pi Zero W plate together with its camera module Rev. 1.3, in which a local WiFi NAT access point and a server are created, by means of a socket the captured image is sent to the mobile application; the second stage allows the extraction of the text housed in the image previously captured by the physical device; this stage is carried out through text recognition libraries included in the Android Studio programming environment; the third stage performs the audio reproduction of the extracted text, which is done through the internal libraries included in the Android Studio programming environment that allows the audio reproduction of a text 'Text to Speech' and the fourth stage unites these developments through a mobile application that allows communication with the physical device of image capture through the TCP communication protocol. The evaluation of the system shows that the device is able to perform the extraction and audio reproduction of the text satisfactorily, with an accuracy of 98% over 400 wordsProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf106 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nd/4.0/info:eu-repo/semantics/openAccessAtribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.mdIngeniería MecatrónicaRedes neurales (Computadores)Dispositivos de reconocimiento óptico de caracteresPersonas con discapacidades visualesAplicaciones móvilesNeural networks (Computer science)Optical character recognition devicesPeople with visual disabilitiesMobile appsDiseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundasTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com/citations?user=RTce1fkAAAAJ&hl=esvirtual::4293-10000-0003-2372-3554virtual::4293-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000353744virtual::4293-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4293-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4293-1TEXTT08990.pdf.txtT08990.pdf.txtExtracted texttext/plain122671https://red.uao.edu.co/bitstreams/e21502a7-3354-4f33-8782-c478d4b3ef7f/downloadceff943a72f1400fe5a4056e868fd0ebMD57TA8990.pdf.txtTA8990.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/0a44da5e-17b7-42e8-b44a-2090bacaf672/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08990.pdf.jpgT08990.pdf.jpgGenerated Thumbnailimage/jpeg6104https://red.uao.edu.co/bitstreams/91412ea2-4fa4-4033-ac72-3dcaf0688ed6/download969994c222f73638d0f5fb6019e9ed30MD58TA8990.pdf.jpgTA8990.pdf.jpgGenerated Thumbnailimage/jpeg11975https://red.uao.edu.co/bitstreams/26712774-5858-4d22-b3b0-cfc24f1999f5/downloadb0d8faf1c4460de4dc90d4a929e76b98MD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8799https://red.uao.edu.co/bitstreams/6526aee3-cc8c-4bd8-9878-d399af337eb1/downloadf7d494f61e544413a13e6ba1da2089cdMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/aa9b04c0-f139-43dc-b79f-ea57ecb831d7/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08990.pdfT08990.pdfapplication/pdf2510831https://red.uao.edu.co/bitstreams/b38d38b9-daa8-42db-9a4b-3923efeb7c80/downloadf9b3388f5151f81f6eff4b26e019a449MD55TA8990.pdfTA8990.pdfapplication/pdf330320https://red.uao.edu.co/bitstreams/c9f3ed40-30ca-4490-b44f-4ed963c3a498/downloadc0a5ef394c94c9f9063482dffdb978b3MD5610614/11794oai:red.uao.edu.co:10614/117942024-03-14 11:17:51.408https://creativecommons.org/licenses/by-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K