Diseño y desarrollo de dispositivo de lectura de textos para personas en situación de discapacidad visual, basado en redes neuronales profundas
Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo...
- Autores:
-
Vélez Caicedo, Juan David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/11794
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/11794
- Palabra clave:
- Ingeniería Mecatrónica
Redes neurales (Computadores)
Dispositivos de reconocimiento óptico de caracteres
Personas con discapacidades visuales
Aplicaciones móviles
Neural networks (Computer science)
Optical character recognition devices
People with visual disabilities
Mobile apps
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
Summary: | Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimiento óptico de caracteres, la cual como resultado arrojo un fichero de texto que posteriormente es procesado para reproducirlo en audio, estos dos desarrollos se unen mediante una aplicación móvil y un dispositivo físico que se encarga de capturar la imagen del texto. El dispositivo de lectura de textos se desarrolló en 4 fases, la primera encargada de capturar la imagen del texto por medio de un dispositivo externo que cuenta con una cámara incorporada, esta etapa se realizó mediante la utilización de una placa Raspberry Pi Zero W junto con su módulo de cámara Rev. 1.3, en la cual se crea un punto de acceso local WiFi NAT y un servidor, por medio de un socket se envía la imagen capturada a la aplicación móvil; la segunda etapa permite hacer la extracción del texto alojado en la imagen previamente capturada por el dispositivo físico, esta etapa se realiza mediante librerías de reconocimiento de textos incluidas en el entorno de programación Android Studio; la tercera etapa realiza la reproducción por medio de audio del texto extraído, la cual se realiza por medio de la librerías internas incluidas en el entorno de programación Android Studio que permite la reproducción por audio de un texto ‘Text to Speech’ y la cuarta etapa une estos desarrollos por medio de una aplicación móvil que permite la comunicación con el dispositivo físico de captura de imágenes por medio del protocolo de comunicación TCP. La evaluación del sistema muestra que el dispositivo es capaz de realizar la extracción y reproducción por audio del texto de forma satisfactoria, con una exactitud del 98 % sobre 400 palabras |
---|