Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional
La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde...
- Autores:
-
Muñoz Moreno, Javier Andrés
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/11796
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/11796
- Palabra clave:
- Ingeniería Mecatrónica
Redes neurales (Computadores)
Aprendizaje profundo
Neural networks (Computer science)
Transfer learning
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
id |
REPOUAO2_42d9618390480c54a14083598a77b257 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/11796 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
title |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
spellingShingle |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional Ingeniería Mecatrónica Redes neurales (Computadores) Aprendizaje profundo Neural networks (Computer science) Transfer learning |
title_short |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
title_full |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
title_fullStr |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
title_full_unstemmed |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
title_sort |
Herramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucional |
dc.creator.fl_str_mv |
Muñoz Moreno, Javier Andrés |
dc.contributor.advisor.none.fl_str_mv |
López Sotelo, Jesús Alfonso |
dc.contributor.author.spa.fl_str_mv |
Muñoz Moreno, Javier Andrés |
dc.subject.spa.fl_str_mv |
Ingeniería Mecatrónica Redes neurales (Computadores) Aprendizaje profundo |
topic |
Ingeniería Mecatrónica Redes neurales (Computadores) Aprendizaje profundo Neural networks (Computer science) Transfer learning |
dc.subject.eng.fl_str_mv |
Neural networks (Computer science) Transfer learning |
description |
La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde cero con más de 20.000 imágenes de 18 categorías diferentes gracias a la técnica de Data Augmentation. El desarrollo del código se realizó en Python dentro de la plataforma de Google Colab y la aplicación fue creada en Android Studio, donde se cargó la red neuronal convolucional Mobilenet para el Transfer Learning. Posteriormente se obtuvieron las representaciones de las imágenes procesadas por la red, se entrenó una capa clasificadora de tipo Multi Layer Perceptron con función de activación Softmax para producir las nuevas predicciones. Finalmente, se realizaron pruebas en tiempo real utilizando la aplicación en un dispositivo de sistema operativo Android por las diferentes estaciones del campus, logrando una precisión del 96% |
publishDate |
2019 |
dc.date.issued.spa.fl_str_mv |
2019-08-28 |
dc.date.accessioned.spa.fl_str_mv |
2020-01-14T18:44:02Z |
dc.date.available.spa.fl_str_mv |
2020-01-14T18:44:02Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.uri.spa.fl_str_mv |
http://red.uao.edu.co//handle/10614/11796 |
url |
http://red.uao.edu.co//handle/10614/11796 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.spa.fl_str_mv |
application/pdf |
dc.format.extent.spa.fl_str_mv |
86 páginas |
dc.coverage.spatial.spa.fl_str_mv |
Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.source.spa.fl_str_mv |
instname:Universidad Autónoma de Occidente reponame:Repositorio Institucional UAO |
instname_str |
Universidad Autónoma de Occidente |
institution |
Universidad Autónoma de Occidente |
reponame_str |
Repositorio Institucional UAO |
collection |
Repositorio Institucional UAO |
dc.source.bibliographiccitation.spa.fl_str_mv |
[1] S. Das, “CNN Architectures: LeNet, AlexNet, VGG, GoogLeNet, ResNet and more …” (2017). [Internet]. Disponible en https://bit.ly/2mWCUw1 [2] C. Gomilla, “AiPoly vision: al servicio de personas invidentes o con visibilidad reducida,” el Periódico. [En Línea]. Disponible en https://bit.ly/2DR5jiw [3] Aipoly Vision o cuando la tecnología es una excelente herramienta de inclusión social (2017). [Internet]. Disponible en https://bit.ly/2INvFBh [4] TensorFlow For Poets. [En Línea]. Disponible en https://bit.ly/2eLe28v. Consultado en: oct. 16, 2018. [5] SimpleCV (s.f.). “Computer Vision plataform using Python”. [Internet]. Disponible en http://simplecv.org/ [6] MathWorks (s.f.). “Image Processing and Computer Vision” ¿Qué es el reconocimiento de objetos? [Internet]. Disponible en https://bit.ly/2H6fjpA [7] N. Singh (s.f.). “Log Analytics With Deep Learning And Machine Lerarning”. [Internet]. Disponible en https://bit.ly/2BZBlUo [8] MathWorks (s.f.). “Image Processing and Computer Vision”. [Internet]. Disponible en https://bit.ly/2H6fjpA [9] Neural-network (s.f.). "¿Cuál es la diferencia entre las redes neuronales recurrentes y convolucionales?". [Internet]. Disponible en https://bit.ly/2IL9PhV [10] Fresh Plaza, Desarrollan una clasificadora de pepinos con la ayuda de Google, Stevinweg, [Internet]. Disponible en https://bit.ly/2YX0MEo [11] Vida Actual, Usan inteligencia artificial para detectar enfermedades oculares y neumonía, Montevideo, [Internet]. Disponible en https://bit.ly/31vBtHf 83 [12] R. ME Sabbatini, (2003, feb. 23). “Neuronas y sinapsis: la historia de su descubrimiento”. [Internet]. Disponible en https://bit.ly/2uNeQzd [13] N. Piedra, (2007, ago. 31). “Elementos básicos de una red neuronal artificial”. [Internet]. Disponible en https://bit.ly/2PNu97v [14] J. P. Ordoñez, (2008, ago. 6). “Introducción a las redes neuronales artificiales”. [Internet]. Disponible en https://bit.ly/2SXtmzH [15] V. Yepes, (2017, ene. 7). “¿Qué es y para qué sirve una red neuronal artificial?”. [Internet]. Disponible en https://bit.ly/2HDvCpR [16] A. Ballesteros (s.f.). “Las redes neuronales multicapa”. [Internet]. Disponible en https://bit.ly/2MeXUKh [17] K. Fukushima, (1980). “Neocognitron: A self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Pasition,” Biological Cybernetics, Kinuta, Setagaya, Tokyo, Japan. [En línea]. Disponible en https://bit.ly/1peXHo8 [18] A. Jiménez, (2016, oct.). “Clasificación automática de coberturas del suelo en las imágenes satelitales utilizando redes neuronales convolucionales: un caso aplicado en Parques Nacionales Naturales de Colombia”. [Internet]. Disponible en https://bit.ly/2FdQvv6 [19] R. E. López, (2016, ago. 2). “Redes neuronales convolucionales con TensorFlow”. [Internet]. Disponible en https://bit.ly/2JQKPWs [20] C. Pérez, “Emotions Recognition using Depp Lerarning,” Trabajo de máster, Dpto. Sistemas informáticos de computación, Univ. Politécnica de Valencia., España, 2016. PDF. Disponible en https://bit.ly/2Qx1OzJ [21] Adriá, (2018, jun. 30). “Neural network from scratch: multilayer perceptron (parte 7)”. [Internet]. Disponible en https://bit.ly/2OBgLii [22] Mx – pooling / Pooling (2018). [Internet]. Disponible en https://bit.ly/2OzVjdB 84 [23] W. Sarle, (2014, mar. 27). “What is a Softmax activation function”. [Internet]. Disponible en https://bit.ly/2MOkj5m [24] J. Brownlee, (2017, dic. 20). “A Gentle Introduction to Transfer Learning for Deep Learning”. [Internet]. Disponible en https://bit.ly/2SyjaNm [25] B. Curry, (2018, jul. 26). "An Introduction to Transfer Learning in Machine Learning”. [Internet]. Disponible en https://bit.ly/2zjF3bX [26] MathWorks, (2019.). “Transfer Learning Using”. [Internet]. Disponible en https://bit.ly/2ME9brw [27] K. Simonyan y A. Zisserman, (2014, oct. 8). "Very Deep Convolutional Networks for Large-Scale Visual Recognition". [Internet]. Disponible en https://bit.ly/2EcYnIb [28] J. Shlens, (2019, ene. 11). "Inception in TensorFlow". [Internet]. Disponible en https://bit.ly/2OO8Jrt [29 K. Él, X. Yu Zhang, S. Ren, S. Jian, (2016, jul. 29). “Deep Residual Networks”. [Internet]. Disponible en https://bit.ly/1mfVWuh [30] M. Montaigu, (2019). “How to build a tailormade product recognition model using TensorFlow”. [Internet]. Disponible en https://bit.ly/2AsMM8A [31] Android Studio (2019). [Internet]. Disponible en https://bit.ly/2zEXghK [32] D. Bellot, (2016, oct. 25). “Java Add ServiceStack Reference”. [Internet]. Disponible en https://bit.ly/2WwqoTf [33] D. Gershgorn, (2018, jun. 18). “The inside story of how Al got good enough to dominate Silicon Valley”. [Internet]. Disponible en https://bit.ly/2M05ZkS [34] Sik – Ho Tsang, (2018, sep. 10). “Review: Inception – V3 – 1st Runner Up (Image Classification) in ILSVRC 2015”. [Internet]. Disponible en https://bit.ly/2MKWI5k 85 [35] A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W.Wang, T. Weyand, M. Andreetto, H. Adam. (Apr, 2017). “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications.” Google Inc. Disponible en: https://arxiv.org/pdf/1704.04861.pdf [36] Jupyter, (2019, abr. 12). "Project Jupyter exists to develop open-source software, open-standards, and services for interactive computing across dozens of programming languages". [Internet]. Disponible en https://bit.ly/2RB9cOY [37] Google Colab, (2019). Flowers_tf_life.ipynb. [En línea]. Disponible en http://cort.as/-JRHr. Consultado en: may. 20, 2019. [38] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li and L. Fei-Fei. “ImageNet: A Large-Scale Hierarchical Image Database”. IEEE. Computer Vision and Pattern Recognition (CVPR), 2009. [Internet]. Disponible en https://bit.ly/31Hxf0c |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/6f6ca0dc-6ed7-48f1-a49a-1c9b3c2ae5d2/download https://red.uao.edu.co/bitstreams/d48f6eb7-2100-4e17-b164-73359fe218fa/download https://red.uao.edu.co/bitstreams/6cf39c16-b481-4499-87f0-8e227a492ecf/download https://red.uao.edu.co/bitstreams/03e5a5a0-b724-4c45-bd0d-69574ea5a080/download https://red.uao.edu.co/bitstreams/043fc2af-3104-45ed-bdfb-c411d12a311a/download https://red.uao.edu.co/bitstreams/54c31df6-ea93-46a6-a4bb-f27d29cd21d0/download https://red.uao.edu.co/bitstreams/8d6949be-cb3a-4759-b208-fab6b7002475/download https://red.uao.edu.co/bitstreams/29059d8c-4572-4fe1-9d8c-db8bfb254520/download |
bitstream.checksum.fl_str_mv |
5d5672b85b50472b14ad0886cc61c0ff e1c06d85ae7b8b032bef47e42e4c08f9 472d9f527045f960026f0c882d47aba0 7e2cf78291b6bb114f52d62c9ece07db 4460e5956bc1d1639be9ae6146a50347 20b5ba22b1117f71589c7318baa2c560 24e73d0f63df7f6307ab7f43685ac9c3 ad921472c71d78ae65cfe29e9f528ae8 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814259852947488768 |
spelling |
López Sotelo, Jesús Alfonsovirtual::2959-1Muñoz Moreno, Javier Andrés1238c3b0017a1f2adeeb5e6023e4e89d-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-01-14T18:44:02Z2020-01-14T18:44:02Z2019-08-28http://red.uao.edu.co//handle/10614/11796La presente tesis presenta el desarrollo de una aplicación de aprendizaje profundo, la cual permite identificar lugares o también llamadas estaciones dentro de la Universidad Autónoma de Occidente utilizando la herramienta de Transfer Learning. En el desarrollo del proyecto se creó un Dataset desde cero con más de 20.000 imágenes de 18 categorías diferentes gracias a la técnica de Data Augmentation. El desarrollo del código se realizó en Python dentro de la plataforma de Google Colab y la aplicación fue creada en Android Studio, donde se cargó la red neuronal convolucional Mobilenet para el Transfer Learning. Posteriormente se obtuvieron las representaciones de las imágenes procesadas por la red, se entrenó una capa clasificadora de tipo Multi Layer Perceptron con función de activación Softmax para producir las nuevas predicciones. Finalmente, se realizaron pruebas en tiempo real utilizando la aplicación en un dispositivo de sistema operativo Android por las diferentes estaciones del campus, logrando una precisión del 96%This thesis presents the development of a deep learning application, which allows to identify places or stations in the Universidad Autónoma de Occidente using the tool of Transfer Learning. In the development of the project, a Dataset was created from scratch with more than 20,000 images from 18 different categories using the Data Augmentation technique. The development of the code was done in Python within the Google Colab platform and the application was created in Android Studio, where the Mobilenet convolutional neuronal network was loaded for the Transfer Learning. Subsequently, the representations of the images processed by the network were obtained, a sorting layer of Multi Layer Perceptron type was trained with a Softmax activation function to produce the new predictions. Finally real-time tests were carried out using the application in an Android operating system device by the different stations of the campus, achieving an accuracy of 96%Proyecto de grado (Ingeniero Mecatrónicol)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf86 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] S. Das, “CNN Architectures: LeNet, AlexNet, VGG, GoogLeNet, ResNet and more …” (2017). [Internet]. Disponible en https://bit.ly/2mWCUw1 [2] C. Gomilla, “AiPoly vision: al servicio de personas invidentes o con visibilidad reducida,” el Periódico. [En Línea]. Disponible en https://bit.ly/2DR5jiw [3] Aipoly Vision o cuando la tecnología es una excelente herramienta de inclusión social (2017). [Internet]. Disponible en https://bit.ly/2INvFBh [4] TensorFlow For Poets. [En Línea]. Disponible en https://bit.ly/2eLe28v. Consultado en: oct. 16, 2018. [5] SimpleCV (s.f.). “Computer Vision plataform using Python”. [Internet]. Disponible en http://simplecv.org/ [6] MathWorks (s.f.). “Image Processing and Computer Vision” ¿Qué es el reconocimiento de objetos? [Internet]. Disponible en https://bit.ly/2H6fjpA [7] N. Singh (s.f.). “Log Analytics With Deep Learning And Machine Lerarning”. [Internet]. Disponible en https://bit.ly/2BZBlUo [8] MathWorks (s.f.). “Image Processing and Computer Vision”. [Internet]. Disponible en https://bit.ly/2H6fjpA [9] Neural-network (s.f.). "¿Cuál es la diferencia entre las redes neuronales recurrentes y convolucionales?". [Internet]. Disponible en https://bit.ly/2IL9PhV [10] Fresh Plaza, Desarrollan una clasificadora de pepinos con la ayuda de Google, Stevinweg, [Internet]. Disponible en https://bit.ly/2YX0MEo [11] Vida Actual, Usan inteligencia artificial para detectar enfermedades oculares y neumonía, Montevideo, [Internet]. Disponible en https://bit.ly/31vBtHf 83 [12] R. ME Sabbatini, (2003, feb. 23). “Neuronas y sinapsis: la historia de su descubrimiento”. [Internet]. Disponible en https://bit.ly/2uNeQzd [13] N. Piedra, (2007, ago. 31). “Elementos básicos de una red neuronal artificial”. [Internet]. Disponible en https://bit.ly/2PNu97v [14] J. P. Ordoñez, (2008, ago. 6). “Introducción a las redes neuronales artificiales”. [Internet]. Disponible en https://bit.ly/2SXtmzH [15] V. Yepes, (2017, ene. 7). “¿Qué es y para qué sirve una red neuronal artificial?”. [Internet]. Disponible en https://bit.ly/2HDvCpR [16] A. Ballesteros (s.f.). “Las redes neuronales multicapa”. [Internet]. Disponible en https://bit.ly/2MeXUKh [17] K. Fukushima, (1980). “Neocognitron: A self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Pasition,” Biological Cybernetics, Kinuta, Setagaya, Tokyo, Japan. [En línea]. Disponible en https://bit.ly/1peXHo8 [18] A. Jiménez, (2016, oct.). “Clasificación automática de coberturas del suelo en las imágenes satelitales utilizando redes neuronales convolucionales: un caso aplicado en Parques Nacionales Naturales de Colombia”. [Internet]. Disponible en https://bit.ly/2FdQvv6 [19] R. E. López, (2016, ago. 2). “Redes neuronales convolucionales con TensorFlow”. [Internet]. Disponible en https://bit.ly/2JQKPWs [20] C. Pérez, “Emotions Recognition using Depp Lerarning,” Trabajo de máster, Dpto. Sistemas informáticos de computación, Univ. Politécnica de Valencia., España, 2016. PDF. Disponible en https://bit.ly/2Qx1OzJ [21] Adriá, (2018, jun. 30). “Neural network from scratch: multilayer perceptron (parte 7)”. [Internet]. Disponible en https://bit.ly/2OBgLii [22] Mx – pooling / Pooling (2018). [Internet]. Disponible en https://bit.ly/2OzVjdB 84 [23] W. Sarle, (2014, mar. 27). “What is a Softmax activation function”. [Internet]. Disponible en https://bit.ly/2MOkj5m [24] J. Brownlee, (2017, dic. 20). “A Gentle Introduction to Transfer Learning for Deep Learning”. [Internet]. Disponible en https://bit.ly/2SyjaNm [25] B. Curry, (2018, jul. 26). "An Introduction to Transfer Learning in Machine Learning”. [Internet]. Disponible en https://bit.ly/2zjF3bX [26] MathWorks, (2019.). “Transfer Learning Using”. [Internet]. Disponible en https://bit.ly/2ME9brw [27] K. Simonyan y A. Zisserman, (2014, oct. 8). "Very Deep Convolutional Networks for Large-Scale Visual Recognition". [Internet]. Disponible en https://bit.ly/2EcYnIb [28] J. Shlens, (2019, ene. 11). "Inception in TensorFlow". [Internet]. Disponible en https://bit.ly/2OO8Jrt [29 K. Él, X. Yu Zhang, S. Ren, S. Jian, (2016, jul. 29). “Deep Residual Networks”. [Internet]. Disponible en https://bit.ly/1mfVWuh [30] M. Montaigu, (2019). “How to build a tailormade product recognition model using TensorFlow”. [Internet]. Disponible en https://bit.ly/2AsMM8A [31] Android Studio (2019). [Internet]. Disponible en https://bit.ly/2zEXghK [32] D. Bellot, (2016, oct. 25). “Java Add ServiceStack Reference”. [Internet]. Disponible en https://bit.ly/2WwqoTf [33] D. Gershgorn, (2018, jun. 18). “The inside story of how Al got good enough to dominate Silicon Valley”. [Internet]. Disponible en https://bit.ly/2M05ZkS [34] Sik – Ho Tsang, (2018, sep. 10). “Review: Inception – V3 – 1st Runner Up (Image Classification) in ILSVRC 2015”. [Internet]. Disponible en https://bit.ly/2MKWI5k 85 [35] A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W.Wang, T. Weyand, M. Andreetto, H. Adam. (Apr, 2017). “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications.” Google Inc. Disponible en: https://arxiv.org/pdf/1704.04861.pdf [36] Jupyter, (2019, abr. 12). "Project Jupyter exists to develop open-source software, open-standards, and services for interactive computing across dozens of programming languages". [Internet]. Disponible en https://bit.ly/2RB9cOY [37] Google Colab, (2019). Flowers_tf_life.ipynb. [En línea]. Disponible en http://cort.as/-JRHr. Consultado en: may. 20, 2019. [38] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li and L. Fei-Fei. “ImageNet: A Large-Scale Hierarchical Image Database”. IEEE. Computer Vision and Pattern Recognition (CVPR), 2009. [Internet]. Disponible en https://bit.ly/31Hxf0cIngeniería MecatrónicaRedes neurales (Computadores)Aprendizaje profundoNeural networks (Computer science)Transfer learningHerramienta software para reconocimiento de objetos como ayuda a los procesos de mercadeo institucionalTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Publicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2959-10000-0002-9731-8458virtual::2959-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2959-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2959-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2959-1TEXTT08860.pdf.txtT08860.pdf.txtExtracted texttext/plain95363https://red.uao.edu.co/bitstreams/6f6ca0dc-6ed7-48f1-a49a-1c9b3c2ae5d2/download5d5672b85b50472b14ad0886cc61c0ffMD57TA8860.pdf.txtTA8860.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/d48f6eb7-2100-4e17-b164-73359fe218fa/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08860.pdf.jpgT08860.pdf.jpgGenerated Thumbnailimage/jpeg6412https://red.uao.edu.co/bitstreams/6cf39c16-b481-4499-87f0-8e227a492ecf/download472d9f527045f960026f0c882d47aba0MD58TA8860.pdf.jpgTA8860.pdf.jpgGenerated Thumbnailimage/jpeg16988https://red.uao.edu.co/bitstreams/03e5a5a0-b724-4c45-bd0d-69574ea5a080/download7e2cf78291b6bb114f52d62c9ece07dbMD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://red.uao.edu.co/bitstreams/043fc2af-3104-45ed-bdfb-c411d12a311a/download4460e5956bc1d1639be9ae6146a50347MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/54c31df6-ea93-46a6-a4bb-f27d29cd21d0/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08860.pdfT08860.pdfapplication/pdf1841020https://red.uao.edu.co/bitstreams/8d6949be-cb3a-4759-b208-fab6b7002475/download24e73d0f63df7f6307ab7f43685ac9c3MD55TA8860.pdfTA8860.pdfapplication/pdf56526https://red.uao.edu.co/bitstreams/29059d8c-4572-4fe1-9d8c-db8bfb254520/downloadad921472c71d78ae65cfe29e9f528ae8MD5610614/11796oai:red.uao.edu.co:10614/117962024-03-08 09:56:22.737https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |