Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo...
- Autores:
-
Vélez Caicedo, Juan David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/11794
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/11794
- Palabra clave:
- Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
id |
REPOUAO2_4f49084b2050c597868ee3bebab73305 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/11794 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
title |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
spellingShingle |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas Ingeniería Mecatrónica Redes neurales (Computadores) Dispositivos de reconocimiento óptico de caracteres Personas con discapacidades visuales Aplicaciones móviles Neural networks (Computer science) Optical character recognition devices People with visual disabilities Mobile apps |
title_short |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
title_full |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
title_fullStr |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
title_full_unstemmed |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
title_sort |
Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas |
dc.creator.fl_str_mv |
Vélez Caicedo, Juan David |
dc.contributor.advisor.none.fl_str_mv |
Ramírez Moreno, David Fernando |
dc.contributor.author.spa.fl_str_mv |
Vélez Caicedo, Juan David |
dc.subject.spa.fl_str_mv |
Ingeniería Mecatrónica Redes neurales (Computadores) Dispositivos de reconocimiento óptico de caracteres Personas con discapacidades visuales Aplicaciones móviles |
topic |
Ingeniería Mecatrónica Redes neurales (Computadores) Dispositivos de reconocimiento óptico de caracteres Personas con discapacidades visuales Aplicaciones móviles Neural networks (Computer science) Optical character recognition devices People with visual disabilities Mobile apps |
dc.subject.eng.fl_str_mv |
Neural networks (Computer science) Optical character recognition devices People with visual disabilities Mobile apps |
description |
Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo un fichero de texto que posteriormente es procesado para reproducirlo en audio, estos dos desarrollos se unen mediante una aplicación móvil y un dispositivo físico que se encarga de capturar la imagen del texto. El dispositivo de lectura de textos se desarrolló en 4 fases, la primera encargada de capturar la imagen del texto por medio de un dispositivo externo que cuenta con una cámara incorporada, esta etapa se realizó mediante la utilización de una placa Raspberry Pi Zero W junto con su módulo de cámara Rev. 1.3, en la cual se crea un punto de acceso local WiFi NAT y un servidor, por medio de un socket se envía la imagen capturada a la aplicación móvil; la segunda etapa permite hacer la extracción del texto alojado en la imagen previamente capturada por el dispositivo físico, esta etapa se realiza mediante librerías de reconocimiento de textos incluidas en el entorno de programación Android Studio; la tercera etapa realiza la reproducción por medio de audio del texto extraído, la cual se realiza por medio de la librerías internas incluidas en el entorno de programación Android Studio que permite la reproducción por audio de un texto ‘Text to Speech’ y la cuarta etapa une estos desarrollos por medio de una aplicación móvil que permite la comunicación con el dispositivo físico de captura de imágenes por medio del protocolo de comunicación TCP. La evaluación del sistema muestra que el dispositivo es capaz de realizar la extracción y reproducción por audio del texto de forma satisfactoria, con una exactitud del 98 % sobre 400 palabras |
publishDate |
2019 |
dc.date.issued.spa.fl_str_mv |
2019-11-28 |
dc.date.accessioned.spa.fl_str_mv |
2020-01-14T17:04:09Z |
dc.date.available.spa.fl_str_mv |
2020-01-14T17:04:09Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.uri.spa.fl_str_mv |
http://red.uao.edu.co//handle/10614/11794 |
url |
http://red.uao.edu.co//handle/10614/11794 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nd/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0) |
rights_invalid_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente https://creativecommons.org/licenses/by-nd/4.0/ Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.spa.fl_str_mv |
application/pdf |
dc.format.extent.spa.fl_str_mv |
106 páginas |
dc.coverage.spatial.spa.fl_str_mv |
Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.source.spa.fl_str_mv |
instname:Universidad Autónoma de Occidente reponame:Repositorio Institucional UAO |
instname_str |
Universidad Autónoma de Occidente |
institution |
Universidad Autónoma de Occidente |
reponame_str |
Repositorio Institucional UAO |
collection |
Repositorio Institucional UAO |
dc.source.bibliographiccitation.spa.fl_str_mv |
[1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.md |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/e21502a7-3354-4f33-8782-c478d4b3ef7f/download https://red.uao.edu.co/bitstreams/0a44da5e-17b7-42e8-b44a-2090bacaf672/download https://red.uao.edu.co/bitstreams/91412ea2-4fa4-4033-ac72-3dcaf0688ed6/download https://red.uao.edu.co/bitstreams/26712774-5858-4d22-b3b0-cfc24f1999f5/download https://red.uao.edu.co/bitstreams/6526aee3-cc8c-4bd8-9878-d399af337eb1/download https://red.uao.edu.co/bitstreams/aa9b04c0-f139-43dc-b79f-ea57ecb831d7/download https://red.uao.edu.co/bitstreams/b38d38b9-daa8-42db-9a4b-3923efeb7c80/download https://red.uao.edu.co/bitstreams/c9f3ed40-30ca-4490-b44f-4ed963c3a498/download |
bitstream.checksum.fl_str_mv |
ceff943a72f1400fe5a4056e868fd0eb e1c06d85ae7b8b032bef47e42e4c08f9 969994c222f73638d0f5fb6019e9ed30 b0d8faf1c4460de4dc90d4a929e76b98 f7d494f61e544413a13e6ba1da2089cd 20b5ba22b1117f71589c7318baa2c560 f9b3388f5151f81f6eff4b26e019a449 c0a5ef394c94c9f9063482dffdb978b3 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260099381723136 |
spelling |
Ramírez Moreno, David Fernandovirtual::4293-1Vélez Caicedo, Juan David744daac3fe4e07c094903767aa355f00-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-01-14T17:04:09Z2020-01-14T17:04:09Z2019-11-28http://red.uao.edu.co//handle/10614/11794Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo un fichero de texto que posteriormente es procesado para reproducirlo en audio, estos dos desarrollos se unen mediante una aplicación móvil y un dispositivo físico que se encarga de capturar la imagen del texto. El dispositivo de lectura de textos se desarrolló en 4 fases, la primera encargada de capturar la imagen del texto por medio de un dispositivo externo que cuenta con una cámara incorporada, esta etapa se realizó mediante la utilización de una placa Raspberry Pi Zero W junto con su módulo de cámara Rev. 1.3, en la cual se crea un punto de acceso local WiFi NAT y un servidor, por medio de un socket se envía la imagen capturada a la aplicación móvil; la segunda etapa permite hacer la extracción del texto alojado en la imagen previamente capturada por el dispositivo físico, esta etapa se realiza mediante librerías de reconocimiento de textos incluidas en el entorno de programación Android Studio; la tercera etapa realiza la reproducción por medio de audio del texto extraído, la cual se realiza por medio de la librerías internas incluidas en el entorno de programación Android Studio que permite la reproducción por audio de un texto ‘Text to Speech’ y la cuarta etapa une estos desarrollos por medio de una aplicación móvil que permite la comunicación con el dispositivo físico de captura de imágenes por medio del protocolo de comunicación TCP. La evaluación del sistema muestra que el dispositivo es capaz de realizar la extracción y reproducción por audio del texto de forma satisfactoria, con una exactitud del 98 % sobre 400 palabrasThis document presents the design and development of a text reading device for people with partial or total visual impairment, based on deep neural networks. It was made using the optical character recognition technique, which as a result produced a text file that is then processed to reproduce it in audio, these two developments are joined by a mobile application and a physical device that is responsible for capturing the image of the text. The text reading device was developed in 4 phases, the first one in charge of capturing the image of the text by means of an external device that has an incorporated camera, this stage was carried out by means of the use of a Raspberry Pi Zero W plate together with its camera module Rev. 1.3, in which a local WiFi NAT access point and a server are created, by means of a socket the captured image is sent to the mobile application; the second stage allows the extraction of the text housed in the image previously captured by the physical device; this stage is carried out through text recognition libraries included in the Android Studio programming environment; the third stage performs the audio reproduction of the extracted text, which is done through the internal libraries included in the Android Studio programming environment that allows the audio reproduction of a text 'Text to Speech' and the fourth stage unites these developments through a mobile application that allows communication with the physical device of image capture through the TCP communication protocol. The evaluation of the system shows that the device is able to perform the extraction and audio reproduction of the text satisfactorily, with an accuracy of 98% over 400 wordsProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf106 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nd/4.0/info:eu-repo/semantics/openAccessAtribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.mdIngeniería MecatrónicaRedes neurales (Computadores)Dispositivos de reconocimiento óptico de caracteresPersonas con discapacidades visualesAplicaciones móvilesNeural networks (Computer science)Optical character recognition devicesPeople with visual disabilitiesMobile appsDiseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundasTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com/citations?user=RTce1fkAAAAJ&hl=esvirtual::4293-10000-0003-2372-3554virtual::4293-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000353744virtual::4293-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4293-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4293-1TEXTT08990.pdf.txtT08990.pdf.txtExtracted texttext/plain122671https://red.uao.edu.co/bitstreams/e21502a7-3354-4f33-8782-c478d4b3ef7f/downloadceff943a72f1400fe5a4056e868fd0ebMD57TA8990.pdf.txtTA8990.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/0a44da5e-17b7-42e8-b44a-2090bacaf672/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08990.pdf.jpgT08990.pdf.jpgGenerated Thumbnailimage/jpeg6104https://red.uao.edu.co/bitstreams/91412ea2-4fa4-4033-ac72-3dcaf0688ed6/download969994c222f73638d0f5fb6019e9ed30MD58TA8990.pdf.jpgTA8990.pdf.jpgGenerated Thumbnailimage/jpeg11975https://red.uao.edu.co/bitstreams/26712774-5858-4d22-b3b0-cfc24f1999f5/downloadb0d8faf1c4460de4dc90d4a929e76b98MD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8799https://red.uao.edu.co/bitstreams/6526aee3-cc8c-4bd8-9878-d399af337eb1/downloadf7d494f61e544413a13e6ba1da2089cdMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/aa9b04c0-f139-43dc-b79f-ea57ecb831d7/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08990.pdfT08990.pdfapplication/pdf2510831https://red.uao.edu.co/bitstreams/b38d38b9-daa8-42db-9a4b-3923efeb7c80/downloadf9b3388f5151f81f6eff4b26e019a449MD55TA8990.pdfTA8990.pdfapplication/pdf330320https://red.uao.edu.co/bitstreams/c9f3ed40-30ca-4490-b44f-4ed963c3a498/downloadc0a5ef394c94c9f9063482dffdb978b3MD5610614/11794oai:red.uao.edu.co:10614/117942024-03-14 11:17:51.408https://creativecommons.org/licenses/by-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |