Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional

La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde...

Full description

Autores:
Muñoz Moreno, Javier Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/11796
Acceso en línea:
http://red.uao.edu.co//handle/10614/11796
Palabra clave:
Ingeniería Mecatrónica
Redes neurales (Computadores)
Aprendizaje profundo
Neural networks (Computer science)
Transfer learning
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_42d9618390480c54a14083598a77b257
oai_identifier_str oai:red.uao.edu.co:10614/11796
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
title Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
spellingShingle Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
Ingeniería Mecatrónica
Redes neurales (Computadores)
Aprendizaje profundo
Neural networks (Computer science)
Transfer learning
title_short Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
title_full Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
title_fullStr Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
title_full_unstemmed Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
title_sort Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
dc.creator.fl_str_mv Muñoz Moreno, Javier Andrés
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
dc.contributor.author.spa.fl_str_mv Muñoz Moreno, Javier Andrés
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Redes neurales (Computadores)
Aprendizaje profundo
topic Ingeniería Mecatrónica
Redes neurales (Computadores)
Aprendizaje profundo
Neural networks (Computer science)
Transfer learning
dc.subject.eng.fl_str_mv Neural networks (Computer science)
Transfer learning
description La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde cero con más de 20.000 imágenes de 18 categorías diferentes gracias a la técnica de Data Augmentation. El desarrollo del código se realizó en Python dentro de la plataforma de Google Colab y la aplicación fue creada en Android Studio, donde se cargó la red neuronal convolucional Mobilenet para el Transfer Learning. Posteriormente se obtuvieron las representaciones de las imágenes procesadas por la red, se entrenó una capa clasificadora de tipo Multi Layer Perceptron con función de activación Softmax para producir las nuevas predicciones. Finalmente, se realizaron pruebas en tiempo real utilizando la aplicación en un dispositivo de sistema operativo Android por las diferentes estaciones del campus, logrando una precisión del 96%
publishDate 2019
dc.date.issued.spa.fl_str_mv 2019-08-28
dc.date.accessioned.spa.fl_str_mv 2020-01-14T18:44:02Z
dc.date.available.spa.fl_str_mv 2020-01-14T18:44:02Z
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/11796
url http://red.uao.edu.co//handle/10614/11796
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 86 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv [1] S. Das, “CNN Architectures: LeNet, AlexNet, VGG, GoogLeNet, ResNet and more …” (2017). [Internet]. Disponible en https://bit.ly/2mWCUw1 [2] C. Gomilla, “AiPoly vision: al servicio de personas invidentes o con visibilidad reducida,” el Periódico. [En Línea]. Disponible en https://bit.ly/2DR5jiw [3] Aipoly Vision o cuando la tecnología es una excelente herramienta de inclusión social (2017). [Internet]. Disponible en https://bit.ly/2INvFBh [4] TensorFlow For Poets. [En Línea]. Disponible en https://bit.ly/2eLe28v. Consultado en: oct. 16, 2018. [5] SimpleCV (s.f.). “Computer Vision plataform using Python”. [Internet]. Disponible en http://simplecv.org/ [6] MathWorks (s.f.). “Image Processing and Computer Vision” ¿Qué es el reconocimiento de objetos? [Internet]. Disponible en https://bit.ly/2H6fjpA [7] N. Singh (s.f.). “Log Analytics With Deep Learning And Machine Lerarning”. [Internet]. Disponible en https://bit.ly/2BZBlUo [8] MathWorks (s.f.). “Image Processing and Computer Vision”. [Internet]. Disponible en https://bit.ly/2H6fjpA [9] Neural-network (s.f.). "¿Cuál es la diferencia entre las redes neuronales recurrentes y convolucionales?". [Internet]. Disponible en https://bit.ly/2IL9PhV [10] Fresh Plaza, Desarrollan una clasificadora de pepinos con la ayuda de Google, Stevinweg, [Internet]. Disponible en https://bit.ly/2YX0MEo [11] Vida Actual, Usan inteligencia artificial para detectar enfermedades oculares y neumonía, Montevideo, [Internet]. Disponible en https://bit.ly/31vBtHf 83 [12] R. ME Sabbatini, (2003, feb. 23). “Neuronas y sinapsis: la historia de su descubrimiento”. [Internet]. Disponible en https://bit.ly/2uNeQzd [13] N. Piedra, (2007, ago. 31). “Elementos básicos de una red neuronal artificial”. [Internet]. Disponible en https://bit.ly/2PNu97v [14] J. P. Ordoñez, (2008, ago. 6). “Introducción a las redes neuronales artificiales”. [Internet]. Disponible en https://bit.ly/2SXtmzH [15] V. Yepes, (2017, ene. 7). “¿Qué es y para qué sirve una red neuronal artificial?”. [Internet]. Disponible en https://bit.ly/2HDvCpR [16] A. Ballesteros (s.f.). “Las redes neuronales multicapa”. [Internet]. Disponible en https://bit.ly/2MeXUKh [17] K. Fukushima, (1980). “Neocognitron: A self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Pasition,” Biological Cybernetics, Kinuta, Setagaya, Tokyo, Japan. [En línea]. Disponible en https://bit.ly/1peXHo8 [18] A. Jiménez, (2016, oct.). “Clasificación automática de coberturas del suelo en las imágenes satelitales utilizando redes neuronales convolucionales: un caso aplicado en Parques Nacionales Naturales de Colombia”. [Internet]. Disponible en https://bit.ly/2FdQvv6 [19] R. E. López, (2016, ago. 2). “Redes neuronales convolucionales con TensorFlow”. [Internet]. Disponible en https://bit.ly/2JQKPWs [20] C. Pérez, “Emotions Recognition using Depp Lerarning,” Trabajo de máster, Dpto. Sistemas informáticos de computación, Univ. Politécnica de Valencia., España, 2016. PDF. Disponible en https://bit.ly/2Qx1OzJ [21] Adriá, (2018, jun. 30). “Neural network from scratch: multilayer perceptron (parte 7)”. [Internet]. Disponible en https://bit.ly/2OBgLii [22] Mx – pooling / Pooling (2018). [Internet]. Disponible en https://bit.ly/2OzVjdB 84 [23] W. Sarle, (2014, mar. 27). “What is a Softmax activation function”. [Internet]. Disponible en https://bit.ly/2MOkj5m [24] J. Brownlee, (2017, dic. 20). “A Gentle Introduction to Transfer Learning for Deep Learning”. [Internet]. Disponible en https://bit.ly/2SyjaNm [25] B. Curry, (2018, jul. 26). "An Introduction to Transfer Learning in Machine Learning”. [Internet]. Disponible en https://bit.ly/2zjF3bX [26] MathWorks, (2019.). “Transfer Learning Using”. [Internet]. Disponible en https://bit.ly/2ME9brw [27] K. Simonyan y A. Zisserman, (2014, oct. 8). "Very Deep Convolutional Networks for Large-Scale Visual Recognition". [Internet]. Disponible en https://bit.ly/2EcYnIb [28] J. Shlens, (2019, ene. 11). "Inception in TensorFlow". [Internet]. Disponible en https://bit.ly/2OO8Jrt [29 K. Él, X. Yu Zhang, S. Ren, S. Jian, (2016, jul. 29). “Deep Residual Networks”. [Internet]. Disponible en https://bit.ly/1mfVWuh [30] M. Montaigu, (2019). “How to build a tailormade product recognition model using TensorFlow”. [Internet]. Disponible en https://bit.ly/2AsMM8A [31] Android Studio (2019). [Internet]. Disponible en https://bit.ly/2zEXghK [32] D. Bellot, (2016, oct. 25). “Java Add ServiceStack Reference”. [Internet]. Disponible en https://bit.ly/2WwqoTf [33] D. Gershgorn, (2018, jun. 18). “The inside story of how Al got good enough to dominate Silicon Valley”. [Internet]. Disponible en https://bit.ly/2M05ZkS [34] Sik – Ho Tsang, (2018, sep. 10). “Review: Inception – V3 – 1st Runner Up (Image Classification) in ILSVRC 2015”. [Internet]. Disponible en https://bit.ly/2MKWI5k 85 [35] A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W.Wang, T. Weyand, M. Andreetto, H. Adam. (Apr, 2017). “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications.” Google Inc. Disponible en: https://arxiv.org/pdf/1704.04861.pdf [36] Jupyter, (2019, abr. 12). "Project Jupyter exists to develop open-source software, open-standards, and services for interactive computing across dozens of programming languages". [Internet]. Disponible en https://bit.ly/2RB9cOY [37] Google Colab, (2019). Flowers_tf_life.ipynb. [En línea]. Disponible en http://cort.as/-JRHr. Consultado en: may. 20, 2019. [38] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li and L. Fei-Fei. “ImageNet: A Large-Scale Hierarchical Image Database”. IEEE. Computer Vision and Pattern Recognition (CVPR), 2009. [Internet]. Disponible en https://bit.ly/31Hxf0c
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/6f6ca0dc-6ed7-48f1-a49a-1c9b3c2ae5d2/download
https://red.uao.edu.co/bitstreams/d48f6eb7-2100-4e17-b164-73359fe218fa/download
https://red.uao.edu.co/bitstreams/6cf39c16-b481-4499-87f0-8e227a492ecf/download
https://red.uao.edu.co/bitstreams/03e5a5a0-b724-4c45-bd0d-69574ea5a080/download
https://red.uao.edu.co/bitstreams/043fc2af-3104-45ed-bdfb-c411d12a311a/download
https://red.uao.edu.co/bitstreams/54c31df6-ea93-46a6-a4bb-f27d29cd21d0/download
https://red.uao.edu.co/bitstreams/8d6949be-cb3a-4759-b208-fab6b7002475/download
https://red.uao.edu.co/bitstreams/29059d8c-4572-4fe1-9d8c-db8bfb254520/download
bitstream.checksum.fl_str_mv 5d5672b85b50472b14ad0886cc61c0ff
e1c06d85ae7b8b032bef47e42e4c08f9
472d9f527045f960026f0c882d47aba0
7e2cf78291b6bb114f52d62c9ece07db
4460e5956bc1d1639be9ae6146a50347
20b5ba22b1117f71589c7318baa2c560
24e73d0f63df7f6307ab7f43685ac9c3
ad921472c71d78ae65cfe29e9f528ae8
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814259852947488768
spelling López Sotelo, Jesús Alfonsovirtual::2959-1Muñoz Moreno, Javier Andrés1238c3b0017a1f2adeeb5e6023e4e89d-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-01-14T18:44:02Z2020-01-14T18:44:02Z2019-08-28http://red.uao.edu.co//handle/10614/11796La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde cero con más de 20.000 imágenes de 18 categorías diferentes gracias a la técnica de Data Augmentation. El desarrollo del código se realizó en Python dentro de la plataforma de Google Colab y la aplicación fue creada en Android Studio, donde se cargó la red neuronal convolucional Mobilenet para el Transfer Learning. Posteriormente se obtuvieron las representaciones de las imágenes procesadas por la red, se entrenó una capa clasificadora de tipo Multi Layer Perceptron con función de activación Softmax para producir las nuevas predicciones. Finalmente, se realizaron pruebas en tiempo real utilizando la aplicación en un dispositivo de sistema operativo Android por las diferentes estaciones del campus, logrando una precisión del 96%This thesis presents the development of a deep learning application, which allows to identify places or stations in the Universidad Autónoma de Occidente using the tool of Transfer Learning. In the development of the project, a Dataset was created from scratch with more than 20,000 images from 18 different categories using the Data Augmentation technique. The development of the code was done in Python within the Google Colab platform and the application was created in Android Studio, where the Mobilenet convolutional neuronal network was loaded for the Transfer Learning. Subsequently, the representations of the images processed by the network were obtained, a sorting layer of Multi Layer Perceptron type was trained with a Softmax activation function to produce the new predictions. Finally real-time tests were carried out using the application in an Android operating system device by the different stations of the campus, achieving an accuracy of 96%Proyecto de grado (Ingeniero Mecatrónicol)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf86 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] S. Das, “CNN Architectures: LeNet, AlexNet, VGG, GoogLeNet, ResNet and more …” (2017). [Internet]. Disponible en https://bit.ly/2mWCUw1 [2] C. Gomilla, “AiPoly vision: al servicio de personas invidentes o con visibilidad reducida,” el Periódico. [En Línea]. Disponible en https://bit.ly/2DR5jiw [3] Aipoly Vision o cuando la tecnología es una excelente herramienta de inclusión social (2017). [Internet]. Disponible en https://bit.ly/2INvFBh [4] TensorFlow For Poets. [En Línea]. Disponible en https://bit.ly/2eLe28v. Consultado en: oct. 16, 2018. [5] SimpleCV (s.f.). “Computer Vision plataform using Python”. [Internet]. Disponible en http://simplecv.org/ [6] MathWorks (s.f.). “Image Processing and Computer Vision” ¿Qué es el reconocimiento de objetos? [Internet]. Disponible en https://bit.ly/2H6fjpA [7] N. Singh (s.f.). “Log Analytics With Deep Learning And Machine Lerarning”. [Internet]. Disponible en https://bit.ly/2BZBlUo [8] MathWorks (s.f.). “Image Processing and Computer Vision”. [Internet]. Disponible en https://bit.ly/2H6fjpA [9] Neural-network (s.f.). "¿Cuál es la diferencia entre las redes neuronales recurrentes y convolucionales?". [Internet]. Disponible en https://bit.ly/2IL9PhV [10] Fresh Plaza, Desarrollan una clasificadora de pepinos con la ayuda de Google, Stevinweg, [Internet]. Disponible en https://bit.ly/2YX0MEo [11] Vida Actual, Usan inteligencia artificial para detectar enfermedades oculares y neumonía, Montevideo, [Internet]. Disponible en https://bit.ly/31vBtHf 83 [12] R. ME Sabbatini, (2003, feb. 23). “Neuronas y sinapsis: la historia de su descubrimiento”. [Internet]. Disponible en https://bit.ly/2uNeQzd [13] N. Piedra, (2007, ago. 31). “Elementos básicos de una red neuronal artificial”. [Internet]. Disponible en https://bit.ly/2PNu97v [14] J. P. Ordoñez, (2008, ago. 6). “Introducción a las redes neuronales artificiales”. [Internet]. Disponible en https://bit.ly/2SXtmzH [15] V. Yepes, (2017, ene. 7). “¿Qué es y para qué sirve una red neuronal artificial?”. [Internet]. Disponible en https://bit.ly/2HDvCpR [16] A. Ballesteros (s.f.). “Las redes neuronales multicapa”. [Internet]. Disponible en https://bit.ly/2MeXUKh [17] K. Fukushima, (1980). “Neocognitron: A self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Pasition,” Biological Cybernetics, Kinuta, Setagaya, Tokyo, Japan. [En línea]. Disponible en https://bit.ly/1peXHo8 [18] A. Jiménez, (2016, oct.). “Clasificación automática de coberturas del suelo en las imágenes satelitales utilizando redes neuronales convolucionales: un caso aplicado en Parques Nacionales Naturales de Colombia”. [Internet]. Disponible en https://bit.ly/2FdQvv6 [19] R. E. López, (2016, ago. 2). “Redes neuronales convolucionales con TensorFlow”. [Internet]. Disponible en https://bit.ly/2JQKPWs [20] C. Pérez, “Emotions Recognition using Depp Lerarning,” Trabajo de máster, Dpto. Sistemas informáticos de computación, Univ. Politécnica de Valencia., España, 2016. PDF. Disponible en https://bit.ly/2Qx1OzJ [21] Adriá, (2018, jun. 30). “Neural network from scratch: multilayer perceptron (parte 7)”. [Internet]. Disponible en https://bit.ly/2OBgLii [22] Mx – pooling / Pooling (2018). [Internet]. Disponible en https://bit.ly/2OzVjdB 84 [23] W. Sarle, (2014, mar. 27). “What is a Softmax activation function”. [Internet]. Disponible en https://bit.ly/2MOkj5m [24] J. Brownlee, (2017, dic. 20). “A Gentle Introduction to Transfer Learning for Deep Learning”. [Internet]. Disponible en https://bit.ly/2SyjaNm [25] B. Curry, (2018, jul. 26). "An Introduction to Transfer Learning in Machine Learning”. [Internet]. Disponible en https://bit.ly/2zjF3bX [26] MathWorks, (2019.). “Transfer Learning Using”. [Internet]. Disponible en https://bit.ly/2ME9brw [27] K. Simonyan y A. Zisserman, (2014, oct. 8). "Very Deep Convolutional Networks for Large-Scale Visual Recognition". [Internet]. Disponible en https://bit.ly/2EcYnIb [28] J. Shlens, (2019, ene. 11). "Inception in TensorFlow". [Internet]. Disponible en https://bit.ly/2OO8Jrt [29 K. Él, X. Yu Zhang, S. Ren, S. Jian, (2016, jul. 29). “Deep Residual Networks”. [Internet]. Disponible en https://bit.ly/1mfVWuh [30] M. Montaigu, (2019). “How to build a tailormade product recognition model using TensorFlow”. [Internet]. Disponible en https://bit.ly/2AsMM8A [31] Android Studio (2019). [Internet]. Disponible en https://bit.ly/2zEXghK [32] D. Bellot, (2016, oct. 25). “Java Add ServiceStack Reference”. [Internet]. Disponible en https://bit.ly/2WwqoTf [33] D. Gershgorn, (2018, jun. 18). “The inside story of how Al got good enough to dominate Silicon Valley”. [Internet]. Disponible en https://bit.ly/2M05ZkS [34] Sik – Ho Tsang, (2018, sep. 10). “Review: Inception – V3 – 1st Runner Up (Image Classification) in ILSVRC 2015”. [Internet]. Disponible en https://bit.ly/2MKWI5k 85 [35] A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W.Wang, T. Weyand, M. Andreetto, H. Adam. (Apr, 2017). “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications.” Google Inc. Disponible en: https://arxiv.org/pdf/1704.04861.pdf [36] Jupyter, (2019, abr. 12). "Project Jupyter exists to develop open-source software, open-standards, and services for interactive computing across dozens of programming languages". [Internet]. Disponible en https://bit.ly/2RB9cOY [37] Google Colab, (2019). Flowers_tf_life.ipynb. [En línea]. Disponible en http://cort.as/-JRHr. Consultado en: may. 20, 2019. [38] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li and L. Fei-Fei. “ImageNet: A Large-Scale Hierarchical Image Database”. IEEE. Computer Vision and Pattern Recognition (CVPR), 2009. [Internet]. Disponible en https://bit.ly/31Hxf0cIngeniería MecatrónicaRedes neurales (Computadores)Aprendizaje profundoNeural networks (Computer science)Transfer learningHerramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucionalTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2959-10000-0002-9731-8458virtual::2959-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2959-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2959-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2959-1TEXTT08860.pdf.txtT08860.pdf.txtExtracted texttext/plain95363https://red.uao.edu.co/bitstreams/6f6ca0dc-6ed7-48f1-a49a-1c9b3c2ae5d2/download5d5672b85b50472b14ad0886cc61c0ffMD57TA8860.pdf.txtTA8860.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/d48f6eb7-2100-4e17-b164-73359fe218fa/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08860.pdf.jpgT08860.pdf.jpgGenerated Thumbnailimage/jpeg6412https://red.uao.edu.co/bitstreams/6cf39c16-b481-4499-87f0-8e227a492ecf/download472d9f527045f960026f0c882d47aba0MD58TA8860.pdf.jpgTA8860.pdf.jpgGenerated Thumbnailimage/jpeg16988https://red.uao.edu.co/bitstreams/03e5a5a0-b724-4c45-bd0d-69574ea5a080/download7e2cf78291b6bb114f52d62c9ece07dbMD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://red.uao.edu.co/bitstreams/043fc2af-3104-45ed-bdfb-c411d12a311a/download4460e5956bc1d1639be9ae6146a50347MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/54c31df6-ea93-46a6-a4bb-f27d29cd21d0/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08860.pdfT08860.pdfapplication/pdf1841020https://red.uao.edu.co/bitstreams/8d6949be-cb3a-4759-b208-fab6b7002475/download24e73d0f63df7f6307ab7f43685ac9c3MD55TA8860.pdfTA8860.pdfapplication/pdf56526https://red.uao.edu.co/bitstreams/29059d8c-4572-4fe1-9d8c-db8bfb254520/downloadad921472c71d78ae65cfe29e9f528ae8MD5610614/11796oai:red.uao.edu.co:10614/117962024-03-08 09:56:22.737https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K