Descripción de escenas por medio de aprendizaje profundo

This document contains information related with the Project developed for the reproduction of results of image captioning or image description, this previous Works were realized by experts in the field The work was done on the free software platform Python using the TensorFlow library, which ended w...

Full description

Autores:
Rincón Núñez, Adalberto
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2018
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/10557
Acceso en línea:
http://hdl.handle.net/10614/10557
Palabra clave:
Ingeniería Mecatrónica
Redes neurales (Computadores)
Descripción de imágenes
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_05d04fc853640b56da856d1fdb75907d
oai_identifier_str oai:red.uao.edu.co:10614/10557
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Descripción de escenas por medio de aprendizaje profundo
title Descripción de escenas por medio de aprendizaje profundo
spellingShingle Descripción de escenas por medio de aprendizaje profundo
Ingeniería Mecatrónica
Redes neurales (Computadores)
Descripción de imágenes
title_short Descripción de escenas por medio de aprendizaje profundo
title_full Descripción de escenas por medio de aprendizaje profundo
title_fullStr Descripción de escenas por medio de aprendizaje profundo
title_full_unstemmed Descripción de escenas por medio de aprendizaje profundo
title_sort Descripción de escenas por medio de aprendizaje profundo
dc.creator.fl_str_mv Rincón Núñez, Adalberto
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
dc.contributor.author.spa.fl_str_mv Rincón Núñez, Adalberto
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Redes neurales (Computadores)
Descripción de imágenes
topic Ingeniería Mecatrónica
Redes neurales (Computadores)
Descripción de imágenes
description This document contains information related with the Project developed for the reproduction of results of image captioning or image description, this previous Works were realized by experts in the field The work was done on the free software platform Python using the TensorFlow library, which ended with the training of a recurrent neural network whose function is to receive images as input and output an image file equal to the input with a written description of what you see in the image. For the training, two different types of data sets were required, the first one covering a wide range of images and the second one providing the description of them; for this, the available data sets were taken on the COCO platform (Common Objects in Context), which is a broad database for detection, segmentation and description. The databases used were those provided for the "COCO captioning challenge" a contest held in 2015. These datasets are pre-processed, which for the images is the proper extraction of characteristics of the images, this process is performed by means of a convolutional neural network (CNN), in this case the Inception network was used, the characteristics were subsequently stored in a file that was used for the training of the RNN. The document also shows information about the process realized in the Project that allows the use of the codes to train a red wich one describe images in spanish; following that, the Project conclude with the training of a red that can describes selected enviroments, with the condition of creating new data sets. At the end, tests were carried out on the several networks, where satisfactory results were found as descriptions were provided according to what was supplied, and also in some of the test the description show fails, like the gender of the person or the color of objects that the picture contains
publishDate 2018
dc.date.accessioned.spa.fl_str_mv 2018-12-06T16:22:26Z
dc.date.available.spa.fl_str_mv 2018-12-06T16:22:26Z
dc.date.issued.spa.fl_str_mv 2018-09-28
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://hdl.handle.net/10614/10557
url http://hdl.handle.net/10614/10557
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nc/4.0/
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 95 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv An open source machine learning library for research and production [en línea]. Tensorflow. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://www.tensorflow.org/. ASUS Zenbook NX500JK-XH72T 15.6" 4K Touchscreen Notebook Computer [en línea]. B&H. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://goo.gl/Z58FuU. BAHRAMPOUR, Soheil, et al. Comparative Study of Deep Learning Software Frameworks. En: Cornell University Library [en linea]. CoRR: abs/1511.06435. 2015. 9 p. [Consultado: 7 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1511.06435. BAIR. Caffe [en linea]. Caffe Deep learning framework. 2014. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://caffe.berkeleyvision.org/. COCO-Common Objects in Context. Dataset [en línea]. Cocodataset.org. [Consultado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#download. --------. Home [en linea]. Cocodataset.org. [Consulado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#home. --------. Task [en linea]. Cocodataset.org. [Consultado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#captions-challenge2015. FANG, Hao, et all. From captions to visual concepts and back. En: Berkeley EECS [en linea]. IEEE – Institute of Electrical and Electronics Engineers. 2015. [Consultado: 17 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://people.eecs.berkeley.edu/~sgupta/pdf/captions.pdf. FRANCOIS, Chollet. Xception: Deep Learning with Depthwise Separable Convolutions. En: Cornell University Library [en linea]. CoRR: abs/1610.02357. (4 de abril de 2017). 8 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1610.02357.GOODFELLOW, Ian; BENGIO, Yoshua y COURVILLE, Aaron. Deep learning: Introduction. En: Deep Learning: An MIT Press book [en linea]. MIT Press. 2016. 781 p. [Consultado: 17 de marzo de 2017]. Disponible en Internet: http://www.deeplearningbook.org/contents/intro.html. KARPATHY, Andrej. The unreasonable effectiveness of recurrent neural networks [en línea]. Andrej Karpathy Blog. (21 de mayo de 2015). [Consultado: 20 de marzo de 2018]. Disponible en Internet: http://karpathy.github.io/2015/05/21/rnn-effectiveness/. Keras: The Python Deep Learning Library [en línea]. Keras documentation. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://keras.io/. LIN, Tsung-Yi, et all. Microsoft COCO: Common Objects in Context. En: Cornell University Library [en linea]. CoRR: abs/1405.0312. 2014. 15 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1405.0312. Matlab [en línea]. MathWorks. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://la.mathworks.com/products/matlab.html. MEJIA, Juan Arturo. Sistema de detección de intrusos en redes de comunicación utilizando redes neuronales [en línea]. Licenciatura en Ingeniería en Electrónica y Computadoras. Puebla. Universidad de las Americas Puebla. Departamento de Ingeniería Electrónica. 2004. 97 p. [Consultado: 20 de marzo de 2018]. Disponible en Internet: http://catarina.udlap.mx/u_dl_a/tales/documentos/lep/mejia_s_ja/capitulo3.pdf. OLAH, Christopher. Understanding LSTM Networks [en línea]. Colah´s blog. (27 de agosto de 2015). [Consultado: 19 de julio de 2018]. Disponible en Internet: http://colah.github.io/posts/2015-08-Understanding-LSTMs/. Python: About [en línea]. Python. [Consulado: 7 de marzo de 2018]. Disponible en Internet: https://www.python.org/about. SIMONYAN, Karen y ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. En: Cornell University Library [en linea]. CoRR: abs/1409.1556. (4 de septiembre de 2014). 14 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1409.1556.SOCHER, Richard, et all. Convolutional-Recursive deep learning for 3D object classification. En: Neural Information Processing Systems Foundation, Inc. Advances in Neural Information Processing Systems 25 [en linea]. F. Pereira, C. J. C. Burges, L. Bottou, K. Q. Weinberger. 2012. 9 p. [Consultado: 22 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://papers.nips.cc/paper/4773-convolutional-recursive-deep-learning-for-3d-object-classification.pdf. SZEGEDY, Christian, et al. Rethinking the Inception Architecture for Computer Vision. En: Cornell University Library [en linea]. CoRR: abs/1512.00567. (2 de diciembre de 2015). 10 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1512.00567. THEANO. Welcome [en línea]. theano 1.0 documentation. 2016. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://deeplearning.net/software/theano/index.html. Torch. A Scientific computing for Luajit [en linea]. Torch. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://torch.ch/. VINYALS, Oriol, et all. A picture is worth a thousand (coherent) words: building a natural description of images [en línea]. Google Research Blog. (17 de noviembre de 2014). [Consultado: 17 de marzo de 2017]. Disponible en Internet: https://research.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html. --------. Show and tell: Lessons learned from the 2015 MSCOCO image captioning challenge. En: Cornell University Library [en linea]. CoRR: abs/1609.06647. 2016. [Consultado: 17 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1609.06647.pdf. WANG, Weimin. Using TensorFlow to build image to text application [en linea]. Weimin Wang. (20 de marzo de 2017). [Consultado: 15 de marzo de 2018]. Disponible en Internet: https://weiminwang.blog/2017/03/20/using-tensorflow-to-build-image-to-text-deep-learning-application/. YEGNANARAYANA, Bayya. Artificial neural networks [en línea]. PHI Learning, 2009. 476 p. [Consultado: 20 de marzo de 2018]. Disponible en Internet: Google libros, Ebook. ISBN 9788120312531.
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/e8c69bdc-560e-418c-8d43-69c33e490326/download
https://red.uao.edu.co/bitstreams/7361aaf1-988c-41cf-8568-a36539120986/download
https://red.uao.edu.co/bitstreams/b497fb7f-d110-41c8-b3f8-bd14e0b21869/download
https://red.uao.edu.co/bitstreams/fc7429b9-b3fc-4d3a-9d86-19d90ccf6602/download
https://red.uao.edu.co/bitstreams/3c496493-7e17-4b68-8c79-f3fe9a57477e/download
https://red.uao.edu.co/bitstreams/9e9ff8a9-a7af-43a5-b241-6a8bf046f798/download
https://red.uao.edu.co/bitstreams/8f9ec6d9-0e88-4b55-9098-fcde0ee3fd1d/download
https://red.uao.edu.co/bitstreams/03b208d2-cb43-47e5-b6ae-020130ca2111/download
bitstream.checksum.fl_str_mv 4bbf8738416b122a3c88710ecc5a5ba1
e0d72e1e883767a30d76c0b71f044e99
4901f168590f1988148c2adf7cb13b47
610300e56b4bceab8f78b17f288d4522
24013099e9e6abb1575dc6ce0855efd5
20b5ba22b1117f71589c7318baa2c560
ab975022b8f918630d870e8b16aef5cb
d83373eb7c45fcbba8f33269b33e900f
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1808478824966389760
spelling López Sotelo, Jesús Alfonsovirtual::2938-1Rincón Núñez, Adalberto7b0530bf559d082aa0c4e0958fe75dfc-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2018-12-06T16:22:26Z2018-12-06T16:22:26Z2018-09-28http://hdl.handle.net/10614/10557This document contains information related with the Project developed for the reproduction of results of image captioning or image description, this previous Works were realized by experts in the field The work was done on the free software platform Python using the TensorFlow library, which ended with the training of a recurrent neural network whose function is to receive images as input and output an image file equal to the input with a written description of what you see in the image. For the training, two different types of data sets were required, the first one covering a wide range of images and the second one providing the description of them; for this, the available data sets were taken on the COCO platform (Common Objects in Context), which is a broad database for detection, segmentation and description. The databases used were those provided for the "COCO captioning challenge" a contest held in 2015. These datasets are pre-processed, which for the images is the proper extraction of characteristics of the images, this process is performed by means of a convolutional neural network (CNN), in this case the Inception network was used, the characteristics were subsequently stored in a file that was used for the training of the RNN. The document also shows information about the process realized in the Project that allows the use of the codes to train a red wich one describe images in spanish; following that, the Project conclude with the training of a red that can describes selected enviroments, with the condition of creating new data sets. At the end, tests were carried out on the several networks, where satisfactory results were found as descriptions were provided according to what was supplied, and also in some of the test the description show fails, like the gender of the person or the color of objects that the picture containsEl presente documento contiene información relacionada al trabajo desarrollado para la reproducción de resultados en image captioning o descripción de imágenes, llevados a cabo por expertos en el área. El trabajo se realizó en la plataforma de software libre Python empleando la librería de TensorFlow, la cual finalizo con el entrenamiento de una red neuronal recurrente cuya función es recibir como dato de entrada imágenes y entregar como salida un archivo de imagen igual al de la entrada con una descripción escrita de lo que se ve en la imagen. Para el entrenamiento se requirieron de dos tipos de data set distintos, el primero que abarque un amplio rango de imágenes y un segundo que aportase la descripción de las mismas; para ello se tomaron los data sets disponibles en la plataforma COCO (Common Objects in Context), la cual es una amplia base de datos para detección, segmentación y descripción. Las bases de datos usadas fueron las proporcionadas para el “COCO captioning challenge” un concurso realizado en el año 2015. A estos datasets se les realiza un preprocesamiento, el cual para las imágenes es la debida extracción de características de las imágenes, este proceso es realizado por medio de una red neuronal convolucional (CNN), en este caso se empleó la red Inception, las características posteriormente se guardaron en un archivo que fue empleado para el entrenamiento de la RNN. El documento también muestra información acerca de los procesos llevados a cabo que permitieron emplear los códigos trabajados para realizar el entrenamiento de una red que describa en español, terminando con el entrenamiento de una red que describa ambientes propios mediante la creación de data set. Al finalizar se procedió a realizar pruebas a las diferentes redes, donde se encontraron resultados satisfactorios ya que se proporcionaban descripciones acordes a lo suministrado, así como también descripciones con fallos como lo son el género del individuo en la imagen o color de objetosProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2018PregradoIngeniero(a) Mecatrónico(a)application/pdf95 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAOAn open source machine learning library for research and production [en línea]. Tensorflow. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://www.tensorflow.org/. ASUS Zenbook NX500JK-XH72T 15.6" 4K Touchscreen Notebook Computer [en línea]. B&H. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://goo.gl/Z58FuU. BAHRAMPOUR, Soheil, et al. Comparative Study of Deep Learning Software Frameworks. En: Cornell University Library [en linea]. CoRR: abs/1511.06435. 2015. 9 p. [Consultado: 7 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1511.06435. BAIR. Caffe [en linea]. Caffe Deep learning framework. 2014. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://caffe.berkeleyvision.org/. COCO-Common Objects in Context. Dataset [en línea]. Cocodataset.org. [Consultado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#download. --------. Home [en linea]. Cocodataset.org. [Consulado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#home. --------. Task [en linea]. Cocodataset.org. [Consultado: 10 de marzo de 2018]. Disponible en Internet: http://cocodataset.org/#captions-challenge2015. FANG, Hao, et all. From captions to visual concepts and back. En: Berkeley EECS [en linea]. IEEE – Institute of Electrical and Electronics Engineers. 2015. [Consultado: 17 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://people.eecs.berkeley.edu/~sgupta/pdf/captions.pdf. FRANCOIS, Chollet. Xception: Deep Learning with Depthwise Separable Convolutions. En: Cornell University Library [en linea]. CoRR: abs/1610.02357. (4 de abril de 2017). 8 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1610.02357.GOODFELLOW, Ian; BENGIO, Yoshua y COURVILLE, Aaron. Deep learning: Introduction. En: Deep Learning: An MIT Press book [en linea]. MIT Press. 2016. 781 p. [Consultado: 17 de marzo de 2017]. Disponible en Internet: http://www.deeplearningbook.org/contents/intro.html. KARPATHY, Andrej. The unreasonable effectiveness of recurrent neural networks [en línea]. Andrej Karpathy Blog. (21 de mayo de 2015). [Consultado: 20 de marzo de 2018]. Disponible en Internet: http://karpathy.github.io/2015/05/21/rnn-effectiveness/. Keras: The Python Deep Learning Library [en línea]. Keras documentation. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://keras.io/. LIN, Tsung-Yi, et all. Microsoft COCO: Common Objects in Context. En: Cornell University Library [en linea]. CoRR: abs/1405.0312. 2014. 15 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1405.0312. Matlab [en línea]. MathWorks. [Consultado: 7 de marzo de 2018]. Disponible en Internet: https://la.mathworks.com/products/matlab.html. MEJIA, Juan Arturo. Sistema de detección de intrusos en redes de comunicación utilizando redes neuronales [en línea]. Licenciatura en Ingeniería en Electrónica y Computadoras. Puebla. Universidad de las Americas Puebla. Departamento de Ingeniería Electrónica. 2004. 97 p. [Consultado: 20 de marzo de 2018]. Disponible en Internet: http://catarina.udlap.mx/u_dl_a/tales/documentos/lep/mejia_s_ja/capitulo3.pdf. OLAH, Christopher. Understanding LSTM Networks [en línea]. Colah´s blog. (27 de agosto de 2015). [Consultado: 19 de julio de 2018]. Disponible en Internet: http://colah.github.io/posts/2015-08-Understanding-LSTMs/. Python: About [en línea]. Python. [Consulado: 7 de marzo de 2018]. Disponible en Internet: https://www.python.org/about. SIMONYAN, Karen y ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. En: Cornell University Library [en linea]. CoRR: abs/1409.1556. (4 de septiembre de 2014). 14 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1409.1556.SOCHER, Richard, et all. Convolutional-Recursive deep learning for 3D object classification. En: Neural Information Processing Systems Foundation, Inc. Advances in Neural Information Processing Systems 25 [en linea]. F. Pereira, C. J. C. Burges, L. Bottou, K. Q. Weinberger. 2012. 9 p. [Consultado: 22 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://papers.nips.cc/paper/4773-convolutional-recursive-deep-learning-for-3d-object-classification.pdf. SZEGEDY, Christian, et al. Rethinking the Inception Architecture for Computer Vision. En: Cornell University Library [en linea]. CoRR: abs/1512.00567. (2 de diciembre de 2015). 10 p. [Consultado: 10 de marzo de 2018]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1512.00567. THEANO. Welcome [en línea]. theano 1.0 documentation. 2016. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://deeplearning.net/software/theano/index.html. Torch. A Scientific computing for Luajit [en linea]. Torch. [Consultado: 7 de marzo de 2018]. Disponible en Internet: http://torch.ch/. VINYALS, Oriol, et all. A picture is worth a thousand (coherent) words: building a natural description of images [en línea]. Google Research Blog. (17 de noviembre de 2014). [Consultado: 17 de marzo de 2017]. Disponible en Internet: https://research.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html. --------. Show and tell: Lessons learned from the 2015 MSCOCO image captioning challenge. En: Cornell University Library [en linea]. CoRR: abs/1609.06647. 2016. [Consultado: 17 de marzo de 2017]. Archivo pdf. Disponible en Internet: https://arxiv.org/pdf/1609.06647.pdf. WANG, Weimin. Using TensorFlow to build image to text application [en linea]. Weimin Wang. (20 de marzo de 2017). [Consultado: 15 de marzo de 2018]. Disponible en Internet: https://weiminwang.blog/2017/03/20/using-tensorflow-to-build-image-to-text-deep-learning-application/. YEGNANARAYANA, Bayya. Artificial neural networks [en línea]. PHI Learning, 2009. 476 p. [Consultado: 20 de marzo de 2018]. Disponible en Internet: Google libros, Ebook. ISBN 9788120312531.Ingeniería MecatrónicaRedes neurales (Computadores)Descripción de imágenesDescripción de escenas por medio de aprendizaje profundoTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2938-10000-0002-9731-8458virtual::2938-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2938-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2938-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2938-1TEXTT08228.pdf.txtT08228.pdf.txtExtracted texttext/plain123221https://red.uao.edu.co/bitstreams/e8c69bdc-560e-418c-8d43-69c33e490326/download4bbf8738416b122a3c88710ecc5a5ba1MD57TA8228.pdf.txtTA8228.pdf.txtExtracted texttext/plain4102https://red.uao.edu.co/bitstreams/7361aaf1-988c-41cf-8568-a36539120986/downloade0d72e1e883767a30d76c0b71f044e99MD59THUMBNAILT08228.pdf.jpgT08228.pdf.jpgGenerated Thumbnailimage/jpeg6628https://red.uao.edu.co/bitstreams/b497fb7f-d110-41c8-b3f8-bd14e0b21869/download4901f168590f1988148c2adf7cb13b47MD58TA8228.pdf.jpgTA8228.pdf.jpgGenerated Thumbnailimage/jpeg14230https://red.uao.edu.co/bitstreams/fc7429b9-b3fc-4d3a-9d86-19d90ccf6602/download610300e56b4bceab8f78b17f288d4522MD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8914https://red.uao.edu.co/bitstreams/3c496493-7e17-4b68-8c79-f3fe9a57477e/download24013099e9e6abb1575dc6ce0855efd5MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/9e9ff8a9-a7af-43a5-b241-6a8bf046f798/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08228.pdfT08228.pdfapplication/pdf2939604https://red.uao.edu.co/bitstreams/8f9ec6d9-0e88-4b55-9098-fcde0ee3fd1d/downloadab975022b8f918630d870e8b16aef5cbMD55TA8228.pdfTA8228.pdfapplication/pdf1519270https://red.uao.edu.co/bitstreams/03b208d2-cb43-47e5-b6ae-020130ca2111/downloadd83373eb7c45fcbba8f33269b33e900fMD5610614/10557oai:red.uao.edu.co:10614/105572024-03-07 16:51:04.641https://creativecommons.org/licenses/by-nc/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K