Comparacion de métodos de compresión de redes neuronales
Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos comput...
- Autores:
-
García Hernández, Juan David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2020
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/48823
- Acceso en línea:
- http://hdl.handle.net/1992/48823
- Palabra clave:
- Redes neurales (Computadores)
Aprendizaje automático (Inteligencia artificial)
Ingeniería
- Rights
- openAccess
- License
- https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
id |
UNIANDES2_ed952945058778d62e957e1c9d393391 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/48823 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.es_CO.fl_str_mv |
Comparacion de métodos de compresión de redes neuronales |
title |
Comparacion de métodos de compresión de redes neuronales |
spellingShingle |
Comparacion de métodos de compresión de redes neuronales Redes neurales (Computadores) Aprendizaje automático (Inteligencia artificial) Ingeniería |
title_short |
Comparacion de métodos de compresión de redes neuronales |
title_full |
Comparacion de métodos de compresión de redes neuronales |
title_fullStr |
Comparacion de métodos de compresión de redes neuronales |
title_full_unstemmed |
Comparacion de métodos de compresión de redes neuronales |
title_sort |
Comparacion de métodos de compresión de redes neuronales |
dc.creator.fl_str_mv |
García Hernández, Juan David |
dc.contributor.advisor.none.fl_str_mv |
Lozano Martínez, Fernando Enrique |
dc.contributor.author.none.fl_str_mv |
García Hernández, Juan David |
dc.subject.armarc.es_CO.fl_str_mv |
Redes neurales (Computadores) Aprendizaje automático (Inteligencia artificial) |
topic |
Redes neurales (Computadores) Aprendizaje automático (Inteligencia artificial) Ingeniería |
dc.subject.themes.none.fl_str_mv |
Ingeniería |
description |
Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos computacionales, hacer el despliegue correspondiente en plataformas de bajos recursos se vuelve complicado, más aun cuando se necesita una respuesta en tiempo real. Recientemente se han realizado estudios buscando maneras de comprimir estos modelos: cuantización, pruning, destilación, entre otros. Se realiza una comparación del efecto de compresión de un método de pruning [1] y uno de destilación [2] en redes profundas con la arquitectura ResNet [3] en el dataset CIFAR10 [4]. La comparación se hace con base en el porcentaje de compresión alcanzado, el cual está definido por la razón entre el número de parámetros de la red inicial y la red resultante de aplicar cada proceso, y la diferencia de acierto entre estas dos redes en el set de validación. Los resultados muestran que destilación alcanza porcentajes de compresión más altos con menor disminución en el porcentaje de acierto. Si bien el método de destilación muestra mejores resultados en la compresión, depende de la existencia de un modelo del tamaño de la compresión que se busca. En contraste, pruning ofrece mayor flexibilidad en la arquitectura buscada. La exigencia computacional de cada técnica resulta similar cuando se entrena la red podada desde ceros, pues se entrenan un modelo grande y profundo y luego una red más pequeña. Sin embargo, si se afina la red podada, el número total de épocas es menor, reduciendo ligeramente la exigencia computacional |
publishDate |
2020 |
dc.date.issued.none.fl_str_mv |
2020 |
dc.date.accessioned.none.fl_str_mv |
2021-02-18T12:34:20Z |
dc.date.available.none.fl_str_mv |
2021-02-18T12:34:20Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/1992/48823 |
dc.identifier.pdf.none.fl_str_mv |
u833440.pdf |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
http://hdl.handle.net/1992/48823 |
identifier_str_mv |
u833440.pdf instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.es_CO.fl_str_mv |
spa |
language |
spa |
dc.rights.uri.*.fl_str_mv |
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.es_CO.fl_str_mv |
12 hojas |
dc.format.mimetype.es_CO.fl_str_mv |
application/pdf |
dc.publisher.es_CO.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.es_CO.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.es_CO.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.es_CO.fl_str_mv |
Departamento de Ingeniería Eléctrica y Electrónica |
dc.source.es_CO.fl_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca |
instname_str |
Universidad de los Andes |
institution |
Universidad de los Andes |
reponame_str |
Repositorio Institucional Séneca |
collection |
Repositorio Institucional Séneca |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/3584440f-074a-41a8-8b39-bb55ba627582/download https://repositorio.uniandes.edu.co/bitstreams/8845eebc-64db-41f6-95ba-c20539b50570/download https://repositorio.uniandes.edu.co/bitstreams/419ed454-837d-4c8b-bcba-fe7d9c99441c/download |
bitstream.checksum.fl_str_mv |
45c5b574d068c6326af04e114b252150 9782add5bf5f12a8847fb2f254ecf793 387baf8afb5456c93c25c4325dde47f0 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812133963583455232 |
spelling |
Al consultar y hacer uso de este recurso, está aceptando las condiciones de uso establecidas por los autores.https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Lozano Martínez, Fernando Enriquevirtual::10426-1García Hernández, Juan Davidcbadcc6c-2617-4ae7-b5ae-7ae7b4431fb66002021-02-18T12:34:20Z2021-02-18T12:34:20Z2020http://hdl.handle.net/1992/48823u833440.pdfinstname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos computacionales, hacer el despliegue correspondiente en plataformas de bajos recursos se vuelve complicado, más aun cuando se necesita una respuesta en tiempo real. Recientemente se han realizado estudios buscando maneras de comprimir estos modelos: cuantización, pruning, destilación, entre otros. Se realiza una comparación del efecto de compresión de un método de pruning [1] y uno de destilación [2] en redes profundas con la arquitectura ResNet [3] en el dataset CIFAR10 [4]. La comparación se hace con base en el porcentaje de compresión alcanzado, el cual está definido por la razón entre el número de parámetros de la red inicial y la red resultante de aplicar cada proceso, y la diferencia de acierto entre estas dos redes en el set de validación. Los resultados muestran que destilación alcanza porcentajes de compresión más altos con menor disminución en el porcentaje de acierto. Si bien el método de destilación muestra mejores resultados en la compresión, depende de la existencia de un modelo del tamaño de la compresión que se busca. En contraste, pruning ofrece mayor flexibilidad en la arquitectura buscada. La exigencia computacional de cada técnica resulta similar cuando se entrena la red podada desde ceros, pues se entrenan un modelo grande y profundo y luego una red más pequeña. Sin embargo, si se afina la red podada, el número total de épocas es menor, reduciendo ligeramente la exigencia computacionalThe use of deep neural networks or assemblies is one of the most commonly used ways to achieve a high percentage of success, especially in Classification task. While training such models one has considerable amounts of computational resources, when facing the corresponding deployment on low-resource platforms resources becomes complicated, specially when a real-time response is needed. Studies have recently been conducted looking for ways to compress these models: quantization, pruning, distillation, among others. A comparison is made on the compression effect of a pruning method [1] and one distillation method [2] in deep networks with the ResNet architecture [3] in the CIFAR10 [4] dataset. The comparison is made based on the percentage of compression achieved, which is defined by the relation between the number of parameters in the original network and the network resulting from implementing each process, and the difference in accuracy between these two networks in the validation set. The results show that distillation reaches percentages of higher compression with lower decrease in accuracy. While the distillation method shows better results in compression, the implementation of the distillation process depends on the existence of a model with the specific target size one is looking for. In contrast, pruning offers greater flexibility in the sought architecture. The computational requirements of each technique is similar when the pruned net is trained from scratches, as a model is trained large and deep and then a smaller network. However if the pruned net is tuned, the total number of epochs is lower, slightly reducing the computational requirement.Ingeniero ElectrónicoPregrado12 hojasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y Electrónicainstname:Universidad de los Andesreponame:Repositorio Institucional SénecaComparacion de métodos de compresión de redes neuronalesTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85Texthttp://purl.org/redcol/resource_type/TPRedes neurales (Computadores)Aprendizaje automático (Inteligencia artificial)IngenieríaPublicationedd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::10426-1edd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::10426-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000025550virtual::10426-1ORIGINALu833440.pdfapplication/pdf523486https://repositorio.uniandes.edu.co/bitstreams/3584440f-074a-41a8-8b39-bb55ba627582/download45c5b574d068c6326af04e114b252150MD51TEXTu833440.pdf.txtu833440.pdf.txtExtracted texttext/plain41343https://repositorio.uniandes.edu.co/bitstreams/8845eebc-64db-41f6-95ba-c20539b50570/download9782add5bf5f12a8847fb2f254ecf793MD54THUMBNAILu833440.pdf.jpgu833440.pdf.jpgIM Thumbnailimage/jpeg29985https://repositorio.uniandes.edu.co/bitstreams/419ed454-837d-4c8b-bcba-fe7d9c99441c/download387baf8afb5456c93c25c4325dde47f0MD551992/48823oai:repositorio.uniandes.edu.co:1992/488232024-03-13 14:10:58.946https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.co |