Automatic determination of the learning rate for multivariate and multinomial regression models
A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana,...
- Autores:
- Tipo de recurso:
- Fecha de publicación:
- 2022
- Institución:
- Universidad del Rosario
- Repositorio:
- Repositorio EdocUR - U. Rosario
- Idioma:
- eng
- OAI Identifier:
- oai:repository.urosario.edu.co:10336/38190
- Acceso en línea:
- https://doi.org/10.48713/10336_38190
https://repository.urosario.edu.co/handle/10336/38190
- Palabra clave:
- Tasa de aprendizaje
Gradiente descendente
Regresión
Regresión multinomial
Regresión multivariada
Algoritmos de aprendizaje
Sistemas dinámicos
Learning rate
Gradient descent
Regression
Multinomial regression
Multivariate regression
Learning algorithms
Dynamical systems
- Rights
- License
- Attribution-NonCommercial-ShareAlike 4.0 International
id |
EDOCUR2_b76e6689905203a6444052fc94884206 |
---|---|
oai_identifier_str |
oai:repository.urosario.edu.co:10336/38190 |
network_acronym_str |
EDOCUR2 |
network_name_str |
Repositorio EdocUR - U. Rosario |
repository_id_str |
|
dc.title.none.fl_str_mv |
Automatic determination of the learning rate for multivariate and multinomial regression models |
dc.title.TranslatedTitle.none.fl_str_mv |
Determinación automática de la tasa de aprendizaje para modelos de regresión multivariada y multinomial |
title |
Automatic determination of the learning rate for multivariate and multinomial regression models |
spellingShingle |
Automatic determination of the learning rate for multivariate and multinomial regression models Tasa de aprendizaje Gradiente descendente Regresión Regresión multinomial Regresión multivariada Algoritmos de aprendizaje Sistemas dinámicos Learning rate Gradient descent Regression Multinomial regression Multivariate regression Learning algorithms Dynamical systems |
title_short |
Automatic determination of the learning rate for multivariate and multinomial regression models |
title_full |
Automatic determination of the learning rate for multivariate and multinomial regression models |
title_fullStr |
Automatic determination of the learning rate for multivariate and multinomial regression models |
title_full_unstemmed |
Automatic determination of the learning rate for multivariate and multinomial regression models |
title_sort |
Automatic determination of the learning rate for multivariate and multinomial regression models |
dc.contributor.advisor.none.fl_str_mv |
Caicedo Dorado, Alexander |
dc.subject.none.fl_str_mv |
Tasa de aprendizaje Gradiente descendente Regresión Regresión multinomial Regresión multivariada Algoritmos de aprendizaje Sistemas dinámicos |
topic |
Tasa de aprendizaje Gradiente descendente Regresión Regresión multinomial Regresión multivariada Algoritmos de aprendizaje Sistemas dinámicos Learning rate Gradient descent Regression Multinomial regression Multivariate regression Learning algorithms Dynamical systems |
dc.subject.keyword.none.fl_str_mv |
Learning rate Gradient descent Regression Multinomial regression Multivariate regression Learning algorithms Dynamical systems |
description |
A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana, sino también desarrollar sistemas que puedan imitar el comportamiento humano. El aprendizaje automático es una de las principales ramas de la inteligencia artificial y su objetivo es construir y mejorar modelos que puedan aprender de un conjunto de datos y de la experiencia, a través de métodos computacionales, sin necesidad de ser programados explícitamente. Los algoritmos de aprendizaje automático construyen modelos basados en datos de muestra, con el fin de hacer predicciones o decisiones, y se utilizan en diferentes aplicaciones, como medicina, visión artificial, clasificación de imágenes, entre otras. Un algoritmo de aprendizaje automático es un programa que encuentra patrones o hace predicciones a partir de datos nunca antes vistos. Dependiendo de los objetivos del algoritmo, así como de los datos utilizados, existen diferentes tipos de modelos de aprendizaje: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Uno de los algoritmos de aprendizaje más comunes es Gradient Descent, que se utiliza para encontrar un mínimo local de una función diferenciable. Funciona dando pasos repetidos en la dirección opuesta al gradiente de la función. El tamaño de los pasos tomados por el algoritmo de descenso de gradiente está determinado por un hiperparámetro conocido como Tasa de aprendizaje. Este parámetro indica qué tan rápido o lento es el movimiento hacia los parámetros óptimos del algoritmo. Por lo general, se configura manualmente. Sin embargo, para alcanzar los mínimos de función es necesario establecer una tasa de aprendizaje adecuada, es decir, ni demasiado grande ni demasiado pequeña. En el primer caso, los pasos dados son demasiado grandes y, en consecuencia, el algoritmo puede divergir. Por el contrario, si la tasa de aprendizaje es demasiado pequeña, resulta en un aprendizaje lento y el algoritmo tampoco podría converger nunca. La mayoría de las veces se desea un aprendizaje rápido, por lo que se pueden seleccionar altas tasas de aprendizaje. Sin embargo, es importante seleccionar el valor adecuado para este parámetro, de modo que se pueda garantizar la convergencia del algoritmo. En (2021, Ruiz) se presentó un método para determinar un límite superior para la tasa de aprendizaje de modelos basados en modelos de regresión lineal, haciendo un análisis del algoritmo de gradiente descendente como un sistema dinámico discreto. Este trabajo de tesis pretende extender estos resultados a modelos basados en clasificación y regresión multinomial. También buscamos encontrar un valor óptimo para la tasa de aprendizaje para estos métodos. A lo largo de esta tesis se desarrolla un algoritmo que determina automáticamente un valor óptimo para la tasa de aprendizaje de los modelos de clasificación y regresión. En primer lugar, los resultados obtenidos para los modelos de regresión lineal se generalizan a otras funciones de activación. Como resultado, se encuentran un límite superior y un valor óptimo para la tasa de aprendizaje para los modelos que usan regresión y clasificación. Luego, los resultados obtenidos se extienden a un modelo de regresión multinomial. Proponemos un análisis del descenso de gradiente como un sistema dinámico discreto, donde la cota superior surge como criterio para determinar la estabilidad de este sistema. Además, presentamos un valor óptimo para la tasa de aprendizaje, que minimiza la suma de las distancias de los polos extremos del sistema dinámico estudiado. Este análisis se realiza linealizando el algoritmo de descenso de gradiente y aplicándolo a la regresión lineal, logística y multinomial. El límite superior y el valor óptimo de la tasa de aprendizaje son aproximaciones al valor óptimo que garantizan la convergencia más rápida del algoritmo. Presentamos simulaciones y experimentos para comprobar los resultados obtenidos. Primero los probamos con ejemplos de juguetes, creando manualmente los datos para estudiar el comportamiento del algoritmo para el modelo de regresión lineal y logística. Luego, validamos nuestro enfoque en conjuntos de datos reales. Los resultados muestran que, aunque la tasa de aprendizaje máxima, que viene dada por la cota superior, parece hacer que el algoritmo converja más rápido que la tasa de aprendizaje óptima para el caso logístico y multinomial, es mejor utilizar este último valor, ya que garantiza una convergencia suave y relativamente rápida al mínimo en todos los casos |
publishDate |
2022 |
dc.date.created.none.fl_str_mv |
2022-11-25 |
dc.date.accessioned.none.fl_str_mv |
2023-03-06T19:19:06Z |
dc.date.available.none.fl_str_mv |
2023-03-06T19:19:06Z |
dc.type.none.fl_str_mv |
bachelorThesis |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.document.none.fl_str_mv |
Trabajo de grado |
dc.type.spa.none.fl_str_mv |
Trabajo de grado |
dc.identifier.doi.none.fl_str_mv |
https://doi.org/10.48713/10336_38190 |
dc.identifier.uri.none.fl_str_mv |
https://repository.urosario.edu.co/handle/10336/38190 |
url |
https://doi.org/10.48713/10336_38190 https://repository.urosario.edu.co/handle/10336/38190 |
dc.language.iso.none.fl_str_mv |
eng |
language |
eng |
dc.rights.*.fl_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.acceso.none.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
rights_invalid_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International Abierto (Texto Completo) http://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
dc.format.extent.none.fl_str_mv |
42 pp |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad del Rosario |
dc.publisher.department.none.fl_str_mv |
Escuela de Ingeniería, Ciencia y Tecnología |
dc.publisher.program.none.fl_str_mv |
Programa de Matemáticas Aplicadas y Ciencias de la Computación - MACC |
publisher.none.fl_str_mv |
Universidad del Rosario |
institution |
Universidad del Rosario |
dc.source.bibliographicCitation.none.fl_str_mv |
J. C. Ruiz, Una propuesta de neurona artificial: la Unidad Neuro Vascular Artificial (UNVA). 2021. J Stuart et al., Artificial intelligence a modern approach third edition, 2010. T Mitchell, B Buchanan, G DeJong, T Dietterich, P Rosenbloom, and A Waibel, “Machine learning,” Annual Review of Computer Science, vol. 4, no. 1, pp. 417– 433, 1990. DOI: 10 . 1146 / annurev . cs . 04 . 060190 . 002221. eprint: https : //doi.org/10.1146/annurev.cs.04.060190.002221. [Online]. Available: https://doi.org/10.1146/annurev.cs.04.060190.002221. T. M. Mitchell and T. M. Mitchell, Machine learning. McGraw-hill New York, 1997, vol. 1. Z.-H. Zhou, Machine learning. Springer Nature, 2021 Machine learning, 2022. [Online]. Available: https://en.wikipedia.org/wiki/ Machine_learning#cite_note-2. G. Bonaccorso, Machine learning algorithms. Packt Publishing Ltd, 2017 What are machine learning models? 2022. [Online]. Available: https : / / www . databricks.com/glossary/machine-learning-models. J. Point, Machine learning models - javatpoint, 2022. [Online]. Available: https: //www.javatpoint.com/machine-learning-models. N. Donges, Gradient descent in machine learning: A basic introduction, 2022. [Online]. Available: https://builtin.com/data-science/gradient-descent. S. Patrikar, Batch, mini batch amp; stochastic gradient descent, 2019. [Online]. Available: https : / / towardsdatascience . com / batch - mini - batch - stochastic-gradient-descent-7a62ecba642a J. Zhang, “Gradient descent based optimization algorithms for deep learning models training,” arXiv preprint arXiv:1903.03614, 2019. M. D. Zeiler, “Adadelta: An adaptive learning rate method,” arXiv preprint arXiv:1212.5701, 2012. A. Lydia and S. Francis, “Adagrad—an optimizer for stochastic gradient descent,” Int. J. Inf. Comput. Sci, vol. 6, no. 5, pp. 566–568, F. Zou, L. Shen, Z. Jie, W. Zhang, and W. Liu, “A sufficient condition for convergences of adam and rmsprop,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019. P. Baldi, “Gradient descent learning algorithm overview: A general dynamical systems perspective,” IEEE Transactions on Neural Networks, vol. 6, no. 1, pp. 182–195, 1995. DOI: 10.1109/72.363438. K. P. Murphy, Machine learning: a probabilistic perspective. MIT press, 2012. Seldon, Machine learning regression explained, 2021. [Online]. Available: https: / / www . seldon . io / machine - learning - regression - explained# : ~ : text=Regression%20is%20a%20technique%20for, used%20to%20predict% 20continuous%20outcomes.. J. Brownlee, Linear regression for machine learning, 2020. [Online]. Available: https://machinelearningmastery.com/linear-regression-for-machinelearning/. J. Point, Logistic regression in machine learning - javatpoint, 2022. [Online]. Available: https://www.javatpoint.com/logistic- regression- in- machinelearning. Support vector machines speed pattern recognition - vision systems design, 2004. [Online]. Available: https : / / www . vision - systems . com / home / article / 16737424/support-vector-machines-speed-pattern-recognition ] J. Platt, “Using analytic qp and sparseness to speed training of support vector machines,” Advances in neural information processing systems, vol. 11, 1998. Iris data set. [Online]. Available: https : / / archive . ics . uci . edu / ml / datasets/iris. P. Tarazaga, “Eigenvalue estimates for symmetric matrices,” Linear algebra and its applications, vol. 135, pp. 171–179, 1990 |
dc.source.instname.none.fl_str_mv |
instname:Universidad del Rosario |
dc.source.reponame.none.fl_str_mv |
reponame:Repositorio Institucional EdocUR |
bitstream.url.fl_str_mv |
https://repository.urosario.edu.co/bitstreams/66b069ab-ec9d-42ac-bab8-f59c60fe6a52/download https://repository.urosario.edu.co/bitstreams/a8cc8e16-cf68-4b0b-93ba-402010d2be3f/download https://repository.urosario.edu.co/bitstreams/1dcd4af9-98e0-41a1-9c05-f18de45926b3/download https://repository.urosario.edu.co/bitstreams/ba25b891-d7f3-4e9c-abf3-1ecc47a3a712/download https://repository.urosario.edu.co/bitstreams/dd3e9348-0848-4c00-a3ee-bc305c0b47f2/download https://repository.urosario.edu.co/bitstreams/10054f7f-f8fa-4c62-9371-eccb7043694b/download https://repository.urosario.edu.co/bitstreams/4e33b437-919e-4b9a-b037-5b4fb27934be/download |
bitstream.checksum.fl_str_mv |
c72fff5a8469d7b8af9a4a0a9804009e b2825df9f458e9d5d96ee8b7cd74fde6 5643bfd9bcf29d560eeec56d584edaa9 6ca6ad0dc561cadb0842d2e5248158b0 6ca6ad0dc561cadb0842d2e5248158b0 36cbffd9b17a7bb30d8020a9bfadd566 36cbffd9b17a7bb30d8020a9bfadd566 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional EdocUR |
repository.mail.fl_str_mv |
edocur@urosario.edu.co |
_version_ |
1814167579543994368 |
spelling |
Caicedo Dorado, Alexander654b415e-488b-4204-9e90-1846db9bc0a6-1Acosta Fajardo, ManuelaProfesional en Matemáticas Aplicadas y Ciencias de la ComputaciónPregradoFull timef8bb7424-8abe-4ff6-b6d8-b857799a1a6b-12023-03-06T19:19:06Z2023-03-06T19:19:06Z2022-11-25A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana, sino también desarrollar sistemas que puedan imitar el comportamiento humano. El aprendizaje automático es una de las principales ramas de la inteligencia artificial y su objetivo es construir y mejorar modelos que puedan aprender de un conjunto de datos y de la experiencia, a través de métodos computacionales, sin necesidad de ser programados explícitamente. Los algoritmos de aprendizaje automático construyen modelos basados en datos de muestra, con el fin de hacer predicciones o decisiones, y se utilizan en diferentes aplicaciones, como medicina, visión artificial, clasificación de imágenes, entre otras. Un algoritmo de aprendizaje automático es un programa que encuentra patrones o hace predicciones a partir de datos nunca antes vistos. Dependiendo de los objetivos del algoritmo, así como de los datos utilizados, existen diferentes tipos de modelos de aprendizaje: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Uno de los algoritmos de aprendizaje más comunes es Gradient Descent, que se utiliza para encontrar un mínimo local de una función diferenciable. Funciona dando pasos repetidos en la dirección opuesta al gradiente de la función. El tamaño de los pasos tomados por el algoritmo de descenso de gradiente está determinado por un hiperparámetro conocido como Tasa de aprendizaje. Este parámetro indica qué tan rápido o lento es el movimiento hacia los parámetros óptimos del algoritmo. Por lo general, se configura manualmente. Sin embargo, para alcanzar los mínimos de función es necesario establecer una tasa de aprendizaje adecuada, es decir, ni demasiado grande ni demasiado pequeña. En el primer caso, los pasos dados son demasiado grandes y, en consecuencia, el algoritmo puede divergir. Por el contrario, si la tasa de aprendizaje es demasiado pequeña, resulta en un aprendizaje lento y el algoritmo tampoco podría converger nunca. La mayoría de las veces se desea un aprendizaje rápido, por lo que se pueden seleccionar altas tasas de aprendizaje. Sin embargo, es importante seleccionar el valor adecuado para este parámetro, de modo que se pueda garantizar la convergencia del algoritmo. En (2021, Ruiz) se presentó un método para determinar un límite superior para la tasa de aprendizaje de modelos basados en modelos de regresión lineal, haciendo un análisis del algoritmo de gradiente descendente como un sistema dinámico discreto. Este trabajo de tesis pretende extender estos resultados a modelos basados en clasificación y regresión multinomial. También buscamos encontrar un valor óptimo para la tasa de aprendizaje para estos métodos. A lo largo de esta tesis se desarrolla un algoritmo que determina automáticamente un valor óptimo para la tasa de aprendizaje de los modelos de clasificación y regresión. En primer lugar, los resultados obtenidos para los modelos de regresión lineal se generalizan a otras funciones de activación. Como resultado, se encuentran un límite superior y un valor óptimo para la tasa de aprendizaje para los modelos que usan regresión y clasificación. Luego, los resultados obtenidos se extienden a un modelo de regresión multinomial. Proponemos un análisis del descenso de gradiente como un sistema dinámico discreto, donde la cota superior surge como criterio para determinar la estabilidad de este sistema. Además, presentamos un valor óptimo para la tasa de aprendizaje, que minimiza la suma de las distancias de los polos extremos del sistema dinámico estudiado. Este análisis se realiza linealizando el algoritmo de descenso de gradiente y aplicándolo a la regresión lineal, logística y multinomial. El límite superior y el valor óptimo de la tasa de aprendizaje son aproximaciones al valor óptimo que garantizan la convergencia más rápida del algoritmo. Presentamos simulaciones y experimentos para comprobar los resultados obtenidos. Primero los probamos con ejemplos de juguetes, creando manualmente los datos para estudiar el comportamiento del algoritmo para el modelo de regresión lineal y logística. Luego, validamos nuestro enfoque en conjuntos de datos reales. Los resultados muestran que, aunque la tasa de aprendizaje máxima, que viene dada por la cota superior, parece hacer que el algoritmo converja más rápido que la tasa de aprendizaje óptima para el caso logístico y multinomial, es mejor utilizar este último valor, ya que garantiza una convergencia suave y relativamente rápida al mínimo en todos los casosThroughout the years, artificial intelligence has developed into a widely researched and applied field, as a result of the significant advancements in technology and the expansion in computer resources. Artificial intelligence attempts not only to understand how the human mind works, but also to develop systems that can mimic human behaviour. Machine learning is one of the main branches of artificial intelligence, and it aims to build and improve models that can learn from a set of data, and from experience, via computational methods, with no need to be explicitly programmed. Machine learning algorithms build models based on sample data, in order to make predictions or decisions, and are used in different applications, such as medicine, computer vision, image classification, among others. A machine learning algorithm is a program that finds patterns or makes predictions from previously unseen data. Depending on the goals of the algorithm, as well as on the data used, there are different types of learning models: supervised learning, unsupervised learning and reinforcement learning. One of the most common learning algorithms is Gradient Descent, which is used to find a local minimum of a differentiable function. It works by taking repeated steps in the opposite direction of the gradient of the function. The size of the steps taken by the gradient descent algorithm is determined by an hyper-parameter known as the Learning Rate. This parameter indicates how fast or slow is the movement towards the optimal parameters of the algorithm. Usually, it is set manually. However, in order to reach the function minima it is necessary to set an appropriate learning rate, i.e. neither too big, nor too small. In the first case, the steps taken are too big, and the algorithm can diverge as a consequence. On the contrary, if the learning rate is too small, it results in slow learning, and the algorithm could also never converge. Most of the times a fast learning is desired, so high learning rates might be selected. Nevertheless, it is important to select the proper value for this parameter, so one can guarantee the convergence of the algorithm. A method to determine an upper-bound for the learning rate of models based on linear regression models was presented in (2021, Ruiz), doing an analysis of the gradient descent algorithm as a discrete dynamical system. This thesis work aims to extend these results to models based in classification and multinomial regression. We also seek to find an optimal value for the learning rate for these methods. Throughout this thesis an algorithm that automatically determines an optimal value for the learning rate of classification and regression models is developed. In the first place, the results obtained for the linear regression models are generalized to other activation functions. As a result, an upper-bound and an optimal value for the learning rate are found for models using regression and classification. Then, the results obtained are extended to a multinomial regression model. We propose an analysis of the gradient descent as a discrete dynamical system, where the upper-bound arises as a criteria to determine the stability of this system. Besides, we present an optimal value for the learning rate, which minimizes the sum of the distance of the extreme poles of the dynamical system studied. This analysis is done by linearizing the gradient descent algorithm, and applying it to linear, logistic and multinomial regression. The upper-bound and the optimal value of the learning rate are approximations to the optimal value that guarantee the fastest convergence of the algorithm. We present simulations and experiments to test the results obtained. We first test them with toy examples, by manually creating the data to study the behaviour of the algorithm for the linear and the logistic regression model. Then, we validate our approach in real datasets. The results show that, although the maximum learning rate, which is given by the upper-bound, seems to make the algorithm converge faster than the optimal learning rate for the logistic and multinomial case, it is better to use this last value, as it guarantees a smooth and relatively fast convergence to the minimum in all cases42 ppapplication/pdfhttps://doi.org/10.48713/10336_38190 https://repository.urosario.edu.co/handle/10336/38190engUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaPrograma de Matemáticas Aplicadas y Ciencias de la Computación - MACCAttribution-NonCommercial-ShareAlike 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-sa/4.0/http://purl.org/coar/access_right/c_abf2J. C. Ruiz, Una propuesta de neurona artificial: la Unidad Neuro Vascular Artificial (UNVA). 2021.J Stuart et al., Artificial intelligence a modern approach third edition, 2010.T Mitchell, B Buchanan, G DeJong, T Dietterich, P Rosenbloom, and A Waibel, “Machine learning,” Annual Review of Computer Science, vol. 4, no. 1, pp. 417– 433, 1990. DOI: 10 . 1146 / annurev . cs . 04 . 060190 . 002221. eprint: https : //doi.org/10.1146/annurev.cs.04.060190.002221. [Online]. Available: https://doi.org/10.1146/annurev.cs.04.060190.002221.T. M. Mitchell and T. M. Mitchell, Machine learning. McGraw-hill New York, 1997, vol. 1.Z.-H. Zhou, Machine learning. Springer Nature, 2021Machine learning, 2022. [Online]. Available: https://en.wikipedia.org/wiki/ Machine_learning#cite_note-2.G. Bonaccorso, Machine learning algorithms. Packt Publishing Ltd, 2017What are machine learning models? 2022. [Online]. Available: https : / / www . databricks.com/glossary/machine-learning-models.J. Point, Machine learning models - javatpoint, 2022. [Online]. Available: https: //www.javatpoint.com/machine-learning-models.N. Donges, Gradient descent in machine learning: A basic introduction, 2022. [Online]. Available: https://builtin.com/data-science/gradient-descent.S. Patrikar, Batch, mini batch amp; stochastic gradient descent, 2019. [Online]. Available: https : / / towardsdatascience . com / batch - mini - batch - stochastic-gradient-descent-7a62ecba642aJ. Zhang, “Gradient descent based optimization algorithms for deep learning models training,” arXiv preprint arXiv:1903.03614, 2019.M. D. Zeiler, “Adadelta: An adaptive learning rate method,” arXiv preprint arXiv:1212.5701, 2012.A. Lydia and S. Francis, “Adagrad—an optimizer for stochastic gradient descent,” Int. J. Inf. Comput. Sci, vol. 6, no. 5, pp. 566–568,F. Zou, L. Shen, Z. Jie, W. Zhang, and W. Liu, “A sufficient condition for convergences of adam and rmsprop,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.P. Baldi, “Gradient descent learning algorithm overview: A general dynamical systems perspective,” IEEE Transactions on Neural Networks, vol. 6, no. 1, pp. 182–195, 1995. DOI: 10.1109/72.363438.K. P. Murphy, Machine learning: a probabilistic perspective. MIT press, 2012.Seldon, Machine learning regression explained, 2021. [Online]. Available: https: / / www . seldon . io / machine - learning - regression - explained# : ~ : text=Regression%20is%20a%20technique%20for, used%20to%20predict% 20continuous%20outcomes..J. Brownlee, Linear regression for machine learning, 2020. [Online]. Available: https://machinelearningmastery.com/linear-regression-for-machinelearning/.J. Point, Logistic regression in machine learning - javatpoint, 2022. [Online]. Available: https://www.javatpoint.com/logistic- regression- in- machinelearning.Support vector machines speed pattern recognition - vision systems design, 2004. [Online]. Available: https : / / www . vision - systems . com / home / article / 16737424/support-vector-machines-speed-pattern-recognition] J. Platt, “Using analytic qp and sparseness to speed training of support vector machines,” Advances in neural information processing systems, vol. 11, 1998.Iris data set. [Online]. Available: https : / / archive . ics . uci . edu / ml / datasets/iris.P. Tarazaga, “Eigenvalue estimates for symmetric matrices,” Linear algebra and its applications, vol. 135, pp. 171–179, 1990instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURTasa de aprendizajeGradiente descendenteRegresiónRegresión multinomialRegresión multivariadaAlgoritmos de aprendizajeSistemas dinámicosLearning rateGradient descentRegressionMultinomial regressionMultivariate regressionLearning algorithmsDynamical systemsAutomatic determination of the learning rate for multivariate and multinomial regression modelsDeterminación automática de la tasa de aprendizaje para modelos de regresión multivariada y multinomialbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdfAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdfapplication/pdf1246635https://repository.urosario.edu.co/bitstreams/66b069ab-ec9d-42ac-bab8-f59c60fe6a52/downloadc72fff5a8469d7b8af9a4a0a9804009eMD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/a8cc8e16-cf68-4b0b-93ba-402010d2be3f/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81160https://repository.urosario.edu.co/bitstreams/1dcd4af9-98e0-41a1-9c05-f18de45926b3/download5643bfd9bcf29d560eeec56d584edaa9MD53TEXTAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.txtAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.txtExtracted texttext/plain70934https://repository.urosario.edu.co/bitstreams/ba25b891-d7f3-4e9c-abf3-1ecc47a3a712/download6ca6ad0dc561cadb0842d2e5248158b0MD54AutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.txtAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.txtExtracted texttext/plain70934https://repository.urosario.edu.co/bitstreams/dd3e9348-0848-4c00-a3ee-bc305c0b47f2/download6ca6ad0dc561cadb0842d2e5248158b0MD56THUMBNAILAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.jpgAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.jpgGenerated Thumbnailimage/jpeg3268https://repository.urosario.edu.co/bitstreams/10054f7f-f8fa-4c62-9371-eccb7043694b/download36cbffd9b17a7bb30d8020a9bfadd566MD55AutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.jpgAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.jpgGenerated Thumbnailimage/jpeg3268https://repository.urosario.edu.co/bitstreams/4e33b437-919e-4b9a-b037-5b4fb27934be/download36cbffd9b17a7bb30d8020a9bfadd566MD5710336/38190oai:repository.urosario.edu.co:10336/381902024-08-27 03:02:10.887http://creativecommons.org/licenses/by-nc-sa/4.0/Attribution-NonCommercial-ShareAlike 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg== |