Comparacion de métodos de compresión de redes neuronales

Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos comput...

Full description

Autores:
García Hernández, Juan David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2020
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/48823
Acceso en línea:
http://hdl.handle.net/1992/48823
Palabra clave:
Redes neurales (Computadores)
Aprendizaje automático (Inteligencia artificial)
Ingeniería
Rights
openAccess
License
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
id UNIANDES2_ed952945058778d62e957e1c9d393391
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/48823
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.es_CO.fl_str_mv Comparacion de métodos de compresión de redes neuronales
title Comparacion de métodos de compresión de redes neuronales
spellingShingle Comparacion de métodos de compresión de redes neuronales
Redes neurales (Computadores)
Aprendizaje automático (Inteligencia artificial)
Ingeniería
title_short Comparacion de métodos de compresión de redes neuronales
title_full Comparacion de métodos de compresión de redes neuronales
title_fullStr Comparacion de métodos de compresión de redes neuronales
title_full_unstemmed Comparacion de métodos de compresión de redes neuronales
title_sort Comparacion de métodos de compresión de redes neuronales
dc.creator.fl_str_mv García Hernández, Juan David
dc.contributor.advisor.none.fl_str_mv Lozano Martínez, Fernando Enrique
dc.contributor.author.none.fl_str_mv García Hernández, Juan David
dc.subject.armarc.es_CO.fl_str_mv Redes neurales (Computadores)
Aprendizaje automático (Inteligencia artificial)
topic Redes neurales (Computadores)
Aprendizaje automático (Inteligencia artificial)
Ingeniería
dc.subject.themes.none.fl_str_mv Ingeniería
description Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos computacionales, hacer el despliegue correspondiente en plataformas de bajos recursos se vuelve complicado, más aun cuando se necesita una respuesta en tiempo real. Recientemente se han realizado estudios buscando maneras de comprimir estos modelos: cuantización, pruning, destilación, entre otros. Se realiza una comparación del efecto de compresión de un método de pruning [1] y uno de destilación [2] en redes profundas con la arquitectura ResNet [3] en el dataset CIFAR10 [4]. La comparación se hace con base en el porcentaje de compresión alcanzado, el cual está definido por la razón entre el número de parámetros de la red inicial y la red resultante de aplicar cada proceso, y la diferencia de acierto entre estas dos redes en el set de validación. Los resultados muestran que destilación alcanza porcentajes de compresión más altos con menor disminución en el porcentaje de acierto. Si bien el método de destilación muestra mejores resultados en la compresión, depende de la existencia de un modelo del tamaño de la compresión que se busca. En contraste, pruning ofrece mayor flexibilidad en la arquitectura buscada. La exigencia computacional de cada técnica resulta similar cuando se entrena la red podada desde ceros, pues se entrenan un modelo grande y profundo y luego una red más pequeña. Sin embargo, si se afina la red podada, el número total de épocas es menor, reduciendo ligeramente la exigencia computacional
publishDate 2020
dc.date.issued.none.fl_str_mv 2020
dc.date.accessioned.none.fl_str_mv 2021-02-18T12:34:20Z
dc.date.available.none.fl_str_mv 2021-02-18T12:34:20Z
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/1992/48823
dc.identifier.pdf.none.fl_str_mv u833440.pdf
dc.identifier.instname.spa.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.spa.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url http://hdl.handle.net/1992/48823
identifier_str_mv u833440.pdf
instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.es_CO.fl_str_mv spa
language spa
dc.rights.uri.*.fl_str_mv https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.es_CO.fl_str_mv 12 hojas
dc.format.mimetype.es_CO.fl_str_mv application/pdf
dc.publisher.es_CO.fl_str_mv Universidad de los Andes
dc.publisher.program.es_CO.fl_str_mv Ingeniería Electrónica
dc.publisher.faculty.es_CO.fl_str_mv Facultad de Ingeniería
dc.publisher.department.es_CO.fl_str_mv Departamento de Ingeniería Eléctrica y Electrónica
dc.source.es_CO.fl_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
instname_str Universidad de los Andes
institution Universidad de los Andes
reponame_str Repositorio Institucional Séneca
collection Repositorio Institucional Séneca
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/3584440f-074a-41a8-8b39-bb55ba627582/download
https://repositorio.uniandes.edu.co/bitstreams/8845eebc-64db-41f6-95ba-c20539b50570/download
https://repositorio.uniandes.edu.co/bitstreams/419ed454-837d-4c8b-bcba-fe7d9c99441c/download
bitstream.checksum.fl_str_mv 45c5b574d068c6326af04e114b252150
9782add5bf5f12a8847fb2f254ecf793
387baf8afb5456c93c25c4325dde47f0
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1812133963583455232
spelling Al consultar y hacer uso de este recurso, está aceptando las condiciones de uso establecidas por los autores.https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Lozano Martínez, Fernando Enriquevirtual::10426-1García Hernández, Juan Davidcbadcc6c-2617-4ae7-b5ae-7ae7b4431fb66002021-02-18T12:34:20Z2021-02-18T12:34:20Z2020http://hdl.handle.net/1992/48823u833440.pdfinstname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Hacer uso de redes neuronales profundas o ensamblajes de las mismas es una de las maneras más utilizadas para alcanzar un alto porcentaje de acierto, especialmente en tareas de clasificación. Si bien a la hora de entrenar este tipo de modelos se cuenta con cantidades considerables de recursos computacionales, hacer el despliegue correspondiente en plataformas de bajos recursos se vuelve complicado, más aun cuando se necesita una respuesta en tiempo real. Recientemente se han realizado estudios buscando maneras de comprimir estos modelos: cuantización, pruning, destilación, entre otros. Se realiza una comparación del efecto de compresión de un método de pruning [1] y uno de destilación [2] en redes profundas con la arquitectura ResNet [3] en el dataset CIFAR10 [4]. La comparación se hace con base en el porcentaje de compresión alcanzado, el cual está definido por la razón entre el número de parámetros de la red inicial y la red resultante de aplicar cada proceso, y la diferencia de acierto entre estas dos redes en el set de validación. Los resultados muestran que destilación alcanza porcentajes de compresión más altos con menor disminución en el porcentaje de acierto. Si bien el método de destilación muestra mejores resultados en la compresión, depende de la existencia de un modelo del tamaño de la compresión que se busca. En contraste, pruning ofrece mayor flexibilidad en la arquitectura buscada. La exigencia computacional de cada técnica resulta similar cuando se entrena la red podada desde ceros, pues se entrenan un modelo grande y profundo y luego una red más pequeña. Sin embargo, si se afina la red podada, el número total de épocas es menor, reduciendo ligeramente la exigencia computacionalThe use of deep neural networks or assemblies is one of the most commonly used ways to achieve a high percentage of success, especially in Classification task. While training such models one has considerable amounts of computational resources, when facing the corresponding deployment on low-resource platforms resources becomes complicated, specially when a real-time response is needed. Studies have recently been conducted looking for ways to compress these models: quantization, pruning, distillation, among others. A comparison is made on the compression effect of a pruning method [1] and one distillation method [2] in deep networks with the ResNet architecture [3] in the CIFAR10 [4] dataset. The comparison is made based on the percentage of compression achieved, which is defined by the relation between the number of parameters in the original network and the network resulting from implementing each process, and the difference in accuracy between these two networks in the validation set. The results show that distillation reaches percentages of higher compression with lower decrease in accuracy. While the distillation method shows better results in compression, the implementation of the distillation process depends on the existence of a model with the specific target size one is looking for. In contrast, pruning offers greater flexibility in the sought architecture. The computational requirements of each technique is similar when the pruned net is trained from scratches, as a model is trained large and deep and then a smaller network. However if the pruned net is tuned, the total number of epochs is lower, slightly reducing the computational requirement.Ingeniero ElectrónicoPregrado12 hojasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y Electrónicainstname:Universidad de los Andesreponame:Repositorio Institucional SénecaComparacion de métodos de compresión de redes neuronalesTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85Texthttp://purl.org/redcol/resource_type/TPRedes neurales (Computadores)Aprendizaje automático (Inteligencia artificial)IngenieríaPublicationedd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::10426-1edd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::10426-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000025550virtual::10426-1ORIGINALu833440.pdfapplication/pdf523486https://repositorio.uniandes.edu.co/bitstreams/3584440f-074a-41a8-8b39-bb55ba627582/download45c5b574d068c6326af04e114b252150MD51TEXTu833440.pdf.txtu833440.pdf.txtExtracted texttext/plain41343https://repositorio.uniandes.edu.co/bitstreams/8845eebc-64db-41f6-95ba-c20539b50570/download9782add5bf5f12a8847fb2f254ecf793MD54THUMBNAILu833440.pdf.jpgu833440.pdf.jpgIM Thumbnailimage/jpeg29985https://repositorio.uniandes.edu.co/bitstreams/419ed454-837d-4c8b-bcba-fe7d9c99441c/download387baf8afb5456c93c25c4325dde47f0MD551992/48823oai:repositorio.uniandes.edu.co:1992/488232024-03-13 14:10:58.946https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.co