Métodos estocásticos de optimización
The main purpose of this work is to study stochastic optimization methods used to minimize the problem of finite sums for convex functions. Within these methods, the method of gradient descent with mini-batch and the stochastic version of the Frank-Wolfe method (or Conditional Gradient) are specific...
- Autores:
-
Guerrero Santaren, Daniel Mauricio
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2020
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/51296
- Acceso en línea:
- http://hdl.handle.net/1992/51296
- Palabra clave:
- Optimización matemática
Funciones convexas
Métodos iterativos (Matemáticas)
Programación estocástica
Aproximación estocástica
Matemáticas
- Rights
- openAccess
- License
- http://creativecommons.org/licenses/by-nc-sa/4.0/
id |
UNIANDES2_c4b6fd576b23a43e72546ba0032f9f49 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/51296 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Métodos estocásticos de optimización |
title |
Métodos estocásticos de optimización |
spellingShingle |
Métodos estocásticos de optimización Optimización matemática Funciones convexas Métodos iterativos (Matemáticas) Programación estocástica Aproximación estocástica Matemáticas |
title_short |
Métodos estocásticos de optimización |
title_full |
Métodos estocásticos de optimización |
title_fullStr |
Métodos estocásticos de optimización |
title_full_unstemmed |
Métodos estocásticos de optimización |
title_sort |
Métodos estocásticos de optimización |
dc.creator.fl_str_mv |
Guerrero Santaren, Daniel Mauricio |
dc.contributor.advisor.none.fl_str_mv |
Junca Peláez, Mauricio José |
dc.contributor.author.none.fl_str_mv |
Guerrero Santaren, Daniel Mauricio |
dc.contributor.jury.none.fl_str_mv |
Velasco Gregory, Mauricio Fernando |
dc.subject.armarc.spa.fl_str_mv |
Optimización matemática Funciones convexas Métodos iterativos (Matemáticas) Programación estocástica Aproximación estocástica |
topic |
Optimización matemática Funciones convexas Métodos iterativos (Matemáticas) Programación estocástica Aproximación estocástica Matemáticas |
dc.subject.themes.none.fl_str_mv |
Matemáticas |
description |
The main purpose of this work is to study stochastic optimization methods used to minimize the problem of finite sums for convex functions. Within these methods, the method of gradient descent with mini-batch and the stochastic version of the Frank-Wolfe method (or Conditional Gradient) are specifically exposed in the work. For the gradient descent method with mini-batch, a limit was shown on the number of iterations necessary to converge, which depends on the size of the batch used in the algorithm. Later an optimal size of this was found where the number of iterations necessary for convergence is minimized. On the other hand, in the part dedicated to the study of the new stochastic version of the Frank-Wolfe algorithm, the operation of the algorithm was explicitly shown. In addition, lemmas and theorems were demonstrated that guarantee their convergence in a time less than or equal to the original method. The algorithm's stop method was redefined, showing that it is a stochastic version equivalent to the original stop method. Finally, the algorithms were implemented with real data using the loss functions of the logistic and linear regressions as the functions of the problem stated at the beginning of this summary. To evaluate the performance of these algorithms, they were compared with stochastic noise reduction algorithms known as SAGA and SVRG. |
publishDate |
2020 |
dc.date.issued.none.fl_str_mv |
2020 |
dc.date.accessioned.none.fl_str_mv |
2021-08-10T18:19:12Z |
dc.date.available.none.fl_str_mv |
2021-08-10T18:19:12Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/1992/51296 |
dc.identifier.pdf.none.fl_str_mv |
23344.pdf |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
http://hdl.handle.net/1992/51296 |
identifier_str_mv |
23344.pdf instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
63 hojas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Matemáticas |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ciencias |
dc.publisher.department.none.fl_str_mv |
Departamento de Matemáticas |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/a8c57984-1a55-4b60-a66c-e3ea12f94d03/download https://repositorio.uniandes.edu.co/bitstreams/a913c385-9fe6-4f29-ac4d-438ad3112c23/download https://repositorio.uniandes.edu.co/bitstreams/e12f82aa-76d4-4e07-adbd-6bdadd6af336/download |
bitstream.checksum.fl_str_mv |
942337695ec09e6b163c7a4099d84b62 77e164ce2f7c2598c87c74aa0d21a25b 8bfc46a3c7fc83286819712f96dd2115 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812133963578212352 |
spelling |
Al consultar y hacer uso de este recurso, está aceptando las condiciones de uso establecidas por los autores.http://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Junca Peláez, Mauricio Josévirtual::10424-1Guerrero Santaren, Daniel Mauricio0c1dfc41-fd03-469f-8785-d0f7da02d978500Velasco Gregory, Mauricio Fernando2021-08-10T18:19:12Z2021-08-10T18:19:12Z2020http://hdl.handle.net/1992/5129623344.pdfinstname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/The main purpose of this work is to study stochastic optimization methods used to minimize the problem of finite sums for convex functions. Within these methods, the method of gradient descent with mini-batch and the stochastic version of the Frank-Wolfe method (or Conditional Gradient) are specifically exposed in the work. For the gradient descent method with mini-batch, a limit was shown on the number of iterations necessary to converge, which depends on the size of the batch used in the algorithm. Later an optimal size of this was found where the number of iterations necessary for convergence is minimized. On the other hand, in the part dedicated to the study of the new stochastic version of the Frank-Wolfe algorithm, the operation of the algorithm was explicitly shown. In addition, lemmas and theorems were demonstrated that guarantee their convergence in a time less than or equal to the original method. The algorithm's stop method was redefined, showing that it is a stochastic version equivalent to the original stop method. Finally, the algorithms were implemented with real data using the loss functions of the logistic and linear regressions as the functions of the problem stated at the beginning of this summary. To evaluate the performance of these algorithms, they were compared with stochastic noise reduction algorithms known as SAGA and SVRG.El propósito principal de este trabajo es estudiar métodos de optimización estocástica usados para minimizar el problema de sumas finitas para funciones convexas. Dentro de dichos métodos se exponen, puntualmente, en el trabajo el método del descenso del gradiente con mini-batch, y la versión estocástica del método de Frank-Wolfe (o Gradiente condicionado). Para el método del descenso del gradiente con mini-batch se mostró una cota sobre el número de iteraciones necesarias para converger, que depende del tamaño del batch usado en el algoritmo. Posteriormente se encontró un tamaño óptimo de este donde se minimiza el número de iteraciones necesarias para la convergencia. Por otro lado, en la parte dedicada al estudio de la nueva versión estocástica del algoritmo de Frank-Wolfe, se mostró explícitamente el funcionamiento del algoritmo. Además, se demostraron lemas y teoremas que garantizan su convergencia en un tiempo menor o igual que el método original. Se redefinió el método de parada del algoritmo, mostrando que es una versión estocástica equivalente al método de parada original. Finalmente, se implementaron los algoritmos con datos reales usando las funciones de perdida de las regresiones logísticas y lineales como las funciones del problema enunciado al principio de este resumen. Para evaluar el rendimiento de estos algoritmos, se compararon con algoritmos estocásticos de reducción de ruido conocidos como SAGA y SVRG.MatemáticoPregrado63 hojasapplication/pdfspaUniversidad de los AndesMatemáticasFacultad de CienciasDepartamento de MatemáticasMétodos estocásticos de optimizaciónTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85Texthttp://purl.org/redcol/resource_type/TPOptimización matemáticaFunciones convexasMétodos iterativos (Matemáticas)Programación estocásticaAproximación estocásticaMatemáticas201713301Publicationhttps://scholar.google.es/citations?user=CoIlxH0AAAAJvirtual::10424-10000-0002-5541-0758virtual::10424-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000155861virtual::10424-11e5c3dc6-4d9c-406b-9f99-5c91523b7e49virtual::10424-11e5c3dc6-4d9c-406b-9f99-5c91523b7e49virtual::10424-1THUMBNAIL23344.pdf.jpg23344.pdf.jpgIM Thumbnailimage/jpeg6028https://repositorio.uniandes.edu.co/bitstreams/a8c57984-1a55-4b60-a66c-e3ea12f94d03/download942337695ec09e6b163c7a4099d84b62MD55TEXT23344.pdf.txt23344.pdf.txtExtracted texttext/plain71261https://repositorio.uniandes.edu.co/bitstreams/a913c385-9fe6-4f29-ac4d-438ad3112c23/download77e164ce2f7c2598c87c74aa0d21a25bMD54ORIGINAL23344.pdfapplication/pdf777791https://repositorio.uniandes.edu.co/bitstreams/e12f82aa-76d4-4e07-adbd-6bdadd6af336/download8bfc46a3c7fc83286819712f96dd2115MD511992/51296oai:repositorio.uniandes.edu.co:1992/512962024-03-13 14:10:57.463http://creativecommons.org/licenses/by-nc-sa/4.0/open.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.co |