Automatic determination of the learning rate for multivariate and multinomial regression models

A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana,...

Full description

Autores:
Tipo de recurso:
Fecha de publicación:
2022
Institución:
Universidad del Rosario
Repositorio:
Repositorio EdocUR - U. Rosario
Idioma:
eng
OAI Identifier:
oai:repository.urosario.edu.co:10336/38190
Acceso en línea:
https://doi.org/10.48713/10336_38190
https://repository.urosario.edu.co/handle/10336/38190
Palabra clave:
Tasa de aprendizaje
Gradiente descendente
Regresión
Regresión multinomial
Regresión multivariada
Algoritmos de aprendizaje
Sistemas dinámicos
Learning rate
Gradient descent
Regression
Multinomial regression
Multivariate regression
Learning algorithms
Dynamical systems
Rights
License
Attribution-NonCommercial-ShareAlike 4.0 International
id EDOCUR2_b76e6689905203a6444052fc94884206
oai_identifier_str oai:repository.urosario.edu.co:10336/38190
network_acronym_str EDOCUR2
network_name_str Repositorio EdocUR - U. Rosario
repository_id_str
dc.title.none.fl_str_mv Automatic determination of the learning rate for multivariate and multinomial regression models
dc.title.TranslatedTitle.none.fl_str_mv Determinación automática de la tasa de aprendizaje para modelos de regresión multivariada y multinomial
title Automatic determination of the learning rate for multivariate and multinomial regression models
spellingShingle Automatic determination of the learning rate for multivariate and multinomial regression models
Tasa de aprendizaje
Gradiente descendente
Regresión
Regresión multinomial
Regresión multivariada
Algoritmos de aprendizaje
Sistemas dinámicos
Learning rate
Gradient descent
Regression
Multinomial regression
Multivariate regression
Learning algorithms
Dynamical systems
title_short Automatic determination of the learning rate for multivariate and multinomial regression models
title_full Automatic determination of the learning rate for multivariate and multinomial regression models
title_fullStr Automatic determination of the learning rate for multivariate and multinomial regression models
title_full_unstemmed Automatic determination of the learning rate for multivariate and multinomial regression models
title_sort Automatic determination of the learning rate for multivariate and multinomial regression models
dc.contributor.advisor.none.fl_str_mv Caicedo Dorado, Alexander
dc.subject.none.fl_str_mv Tasa de aprendizaje
Gradiente descendente
Regresión
Regresión multinomial
Regresión multivariada
Algoritmos de aprendizaje
Sistemas dinámicos
topic Tasa de aprendizaje
Gradiente descendente
Regresión
Regresión multinomial
Regresión multivariada
Algoritmos de aprendizaje
Sistemas dinámicos
Learning rate
Gradient descent
Regression
Multinomial regression
Multivariate regression
Learning algorithms
Dynamical systems
dc.subject.keyword.none.fl_str_mv Learning rate
Gradient descent
Regression
Multinomial regression
Multivariate regression
Learning algorithms
Dynamical systems
description A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana, sino también desarrollar sistemas que puedan imitar el comportamiento humano. El aprendizaje automático es una de las principales ramas de la inteligencia artificial y su objetivo es construir y mejorar modelos que puedan aprender de un conjunto de datos y de la experiencia, a través de métodos computacionales, sin necesidad de ser programados explícitamente. Los algoritmos de aprendizaje automático construyen modelos basados en datos de muestra, con el fin de hacer predicciones o decisiones, y se utilizan en diferentes aplicaciones, como medicina, visión artificial, clasificación de imágenes, entre otras. Un algoritmo de aprendizaje automático es un programa que encuentra patrones o hace predicciones a partir de datos nunca antes vistos. Dependiendo de los objetivos del algoritmo, así como de los datos utilizados, existen diferentes tipos de modelos de aprendizaje: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Uno de los algoritmos de aprendizaje más comunes es Gradient Descent, que se utiliza para encontrar un mínimo local de una función diferenciable. Funciona dando pasos repetidos en la dirección opuesta al gradiente de la función. El tamaño de los pasos tomados por el algoritmo de descenso de gradiente está determinado por un hiperparámetro conocido como Tasa de aprendizaje. Este parámetro indica qué tan rápido o lento es el movimiento hacia los parámetros óptimos del algoritmo. Por lo general, se configura manualmente. Sin embargo, para alcanzar los mínimos de función es necesario establecer una tasa de aprendizaje adecuada, es decir, ni demasiado grande ni demasiado pequeña. En el primer caso, los pasos dados son demasiado grandes y, en consecuencia, el algoritmo puede divergir. Por el contrario, si la tasa de aprendizaje es demasiado pequeña, resulta en un aprendizaje lento y el algoritmo tampoco podría converger nunca. La mayoría de las veces se desea un aprendizaje rápido, por lo que se pueden seleccionar altas tasas de aprendizaje. Sin embargo, es importante seleccionar el valor adecuado para este parámetro, de modo que se pueda garantizar la convergencia del algoritmo. En (2021, Ruiz) se presentó un método para determinar un límite superior para la tasa de aprendizaje de modelos basados en modelos de regresión lineal, haciendo un análisis del algoritmo de gradiente descendente como un sistema dinámico discreto. Este trabajo de tesis pretende extender estos resultados a modelos basados en clasificación y regresión multinomial. También buscamos encontrar un valor óptimo para la tasa de aprendizaje para estos métodos. A lo largo de esta tesis se desarrolla un algoritmo que determina automáticamente un valor óptimo para la tasa de aprendizaje de los modelos de clasificación y regresión. En primer lugar, los resultados obtenidos para los modelos de regresión lineal se generalizan a otras funciones de activación. Como resultado, se encuentran un límite superior y un valor óptimo para la tasa de aprendizaje para los modelos que usan regresión y clasificación. Luego, los resultados obtenidos se extienden a un modelo de regresión multinomial. Proponemos un análisis del descenso de gradiente como un sistema dinámico discreto, donde la cota superior surge como criterio para determinar la estabilidad de este sistema. Además, presentamos un valor óptimo para la tasa de aprendizaje, que minimiza la suma de las distancias de los polos extremos del sistema dinámico estudiado. Este análisis se realiza linealizando el algoritmo de descenso de gradiente y aplicándolo a la regresión lineal, logística y multinomial. El límite superior y el valor óptimo de la tasa de aprendizaje son aproximaciones al valor óptimo que garantizan la convergencia más rápida del algoritmo. Presentamos simulaciones y experimentos para comprobar los resultados obtenidos. Primero los probamos con ejemplos de juguetes, creando manualmente los datos para estudiar el comportamiento del algoritmo para el modelo de regresión lineal y logística. Luego, validamos nuestro enfoque en conjuntos de datos reales. Los resultados muestran que, aunque la tasa de aprendizaje máxima, que viene dada por la cota superior, parece hacer que el algoritmo converja más rápido que la tasa de aprendizaje óptima para el caso logístico y multinomial, es mejor utilizar este último valor, ya que garantiza una convergencia suave y relativamente rápida al mínimo en todos los casos
publishDate 2022
dc.date.created.none.fl_str_mv 2022-11-25
dc.date.accessioned.none.fl_str_mv 2023-03-06T19:19:06Z
dc.date.available.none.fl_str_mv 2023-03-06T19:19:06Z
dc.type.none.fl_str_mv bachelorThesis
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.document.none.fl_str_mv Trabajo de grado
dc.type.spa.none.fl_str_mv Trabajo de grado
dc.identifier.doi.none.fl_str_mv https://doi.org/10.48713/10336_38190
dc.identifier.uri.none.fl_str_mv https://repository.urosario.edu.co/handle/10336/38190
url https://doi.org/10.48713/10336_38190
https://repository.urosario.edu.co/handle/10336/38190
dc.language.iso.none.fl_str_mv eng
language eng
dc.rights.*.fl_str_mv Attribution-NonCommercial-ShareAlike 4.0 International
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
rights_invalid_str_mv Attribution-NonCommercial-ShareAlike 4.0 International
Abierto (Texto Completo)
http://creativecommons.org/licenses/by-nc-sa/4.0/
http://purl.org/coar/access_right/c_abf2
dc.format.extent.none.fl_str_mv 42 pp
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad del Rosario
dc.publisher.department.none.fl_str_mv Escuela de Ingeniería, Ciencia y Tecnología
dc.publisher.program.none.fl_str_mv Programa de Matemáticas Aplicadas y Ciencias de la Computación - MACC
publisher.none.fl_str_mv Universidad del Rosario
institution Universidad del Rosario
dc.source.bibliographicCitation.none.fl_str_mv J. C. Ruiz, Una propuesta de neurona artificial: la Unidad Neuro Vascular Artificial (UNVA). 2021.
J Stuart et al., Artificial intelligence a modern approach third edition, 2010.
T Mitchell, B Buchanan, G DeJong, T Dietterich, P Rosenbloom, and A Waibel, “Machine learning,” Annual Review of Computer Science, vol. 4, no. 1, pp. 417– 433, 1990. DOI: 10 . 1146 / annurev . cs . 04 . 060190 . 002221. eprint: https : //doi.org/10.1146/annurev.cs.04.060190.002221. [Online]. Available: https://doi.org/10.1146/annurev.cs.04.060190.002221.
T. M. Mitchell and T. M. Mitchell, Machine learning. McGraw-hill New York, 1997, vol. 1.
Z.-H. Zhou, Machine learning. Springer Nature, 2021
Machine learning, 2022. [Online]. Available: https://en.wikipedia.org/wiki/ Machine_learning#cite_note-2.
G. Bonaccorso, Machine learning algorithms. Packt Publishing Ltd, 2017
What are machine learning models? 2022. [Online]. Available: https : / / www . databricks.com/glossary/machine-learning-models.
J. Point, Machine learning models - javatpoint, 2022. [Online]. Available: https: //www.javatpoint.com/machine-learning-models.
N. Donges, Gradient descent in machine learning: A basic introduction, 2022. [Online]. Available: https://builtin.com/data-science/gradient-descent.
S. Patrikar, Batch, mini batch amp; stochastic gradient descent, 2019. [Online]. Available: https : / / towardsdatascience . com / batch - mini - batch - stochastic-gradient-descent-7a62ecba642a
J. Zhang, “Gradient descent based optimization algorithms for deep learning models training,” arXiv preprint arXiv:1903.03614, 2019.
M. D. Zeiler, “Adadelta: An adaptive learning rate method,” arXiv preprint arXiv:1212.5701, 2012.
A. Lydia and S. Francis, “Adagrad—an optimizer for stochastic gradient descent,” Int. J. Inf. Comput. Sci, vol. 6, no. 5, pp. 566–568,
F. Zou, L. Shen, Z. Jie, W. Zhang, and W. Liu, “A sufficient condition for convergences of adam and rmsprop,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
P. Baldi, “Gradient descent learning algorithm overview: A general dynamical systems perspective,” IEEE Transactions on Neural Networks, vol. 6, no. 1, pp. 182–195, 1995. DOI: 10.1109/72.363438.
K. P. Murphy, Machine learning: a probabilistic perspective. MIT press, 2012.
Seldon, Machine learning regression explained, 2021. [Online]. Available: https: / / www . seldon . io / machine - learning - regression - explained# : ~ : text=Regression%20is%20a%20technique%20for, used%20to%20predict% 20continuous%20outcomes..
J. Brownlee, Linear regression for machine learning, 2020. [Online]. Available: https://machinelearningmastery.com/linear-regression-for-machinelearning/.
J. Point, Logistic regression in machine learning - javatpoint, 2022. [Online]. Available: https://www.javatpoint.com/logistic- regression- in- machinelearning.
Support vector machines speed pattern recognition - vision systems design, 2004. [Online]. Available: https : / / www . vision - systems . com / home / article / 16737424/support-vector-machines-speed-pattern-recognition
] J. Platt, “Using analytic qp and sparseness to speed training of support vector machines,” Advances in neural information processing systems, vol. 11, 1998.
Iris data set. [Online]. Available: https : / / archive . ics . uci . edu / ml / datasets/iris.
P. Tarazaga, “Eigenvalue estimates for symmetric matrices,” Linear algebra and its applications, vol. 135, pp. 171–179, 1990
dc.source.instname.none.fl_str_mv instname:Universidad del Rosario
dc.source.reponame.none.fl_str_mv reponame:Repositorio Institucional EdocUR
bitstream.url.fl_str_mv https://repository.urosario.edu.co/bitstreams/66b069ab-ec9d-42ac-bab8-f59c60fe6a52/download
https://repository.urosario.edu.co/bitstreams/a8cc8e16-cf68-4b0b-93ba-402010d2be3f/download
https://repository.urosario.edu.co/bitstreams/1dcd4af9-98e0-41a1-9c05-f18de45926b3/download
https://repository.urosario.edu.co/bitstreams/ba25b891-d7f3-4e9c-abf3-1ecc47a3a712/download
https://repository.urosario.edu.co/bitstreams/dd3e9348-0848-4c00-a3ee-bc305c0b47f2/download
https://repository.urosario.edu.co/bitstreams/10054f7f-f8fa-4c62-9371-eccb7043694b/download
https://repository.urosario.edu.co/bitstreams/4e33b437-919e-4b9a-b037-5b4fb27934be/download
bitstream.checksum.fl_str_mv c72fff5a8469d7b8af9a4a0a9804009e
b2825df9f458e9d5d96ee8b7cd74fde6
5643bfd9bcf29d560eeec56d584edaa9
6ca6ad0dc561cadb0842d2e5248158b0
6ca6ad0dc561cadb0842d2e5248158b0
36cbffd9b17a7bb30d8020a9bfadd566
36cbffd9b17a7bb30d8020a9bfadd566
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional EdocUR
repository.mail.fl_str_mv edocur@urosario.edu.co
_version_ 1814167579543994368
spelling Caicedo Dorado, Alexander654b415e-488b-4204-9e90-1846db9bc0a6-1Acosta Fajardo, ManuelaProfesional en Matemáticas Aplicadas y Ciencias de la ComputaciónPregradoFull timef8bb7424-8abe-4ff6-b6d8-b857799a1a6b-12023-03-06T19:19:06Z2023-03-06T19:19:06Z2022-11-25A lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana, sino también desarrollar sistemas que puedan imitar el comportamiento humano. El aprendizaje automático es una de las principales ramas de la inteligencia artificial y su objetivo es construir y mejorar modelos que puedan aprender de un conjunto de datos y de la experiencia, a través de métodos computacionales, sin necesidad de ser programados explícitamente. Los algoritmos de aprendizaje automático construyen modelos basados en datos de muestra, con el fin de hacer predicciones o decisiones, y se utilizan en diferentes aplicaciones, como medicina, visión artificial, clasificación de imágenes, entre otras. Un algoritmo de aprendizaje automático es un programa que encuentra patrones o hace predicciones a partir de datos nunca antes vistos. Dependiendo de los objetivos del algoritmo, así como de los datos utilizados, existen diferentes tipos de modelos de aprendizaje: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Uno de los algoritmos de aprendizaje más comunes es Gradient Descent, que se utiliza para encontrar un mínimo local de una función diferenciable. Funciona dando pasos repetidos en la dirección opuesta al gradiente de la función. El tamaño de los pasos tomados por el algoritmo de descenso de gradiente está determinado por un hiperparámetro conocido como Tasa de aprendizaje. Este parámetro indica qué tan rápido o lento es el movimiento hacia los parámetros óptimos del algoritmo. Por lo general, se configura manualmente. Sin embargo, para alcanzar los mínimos de función es necesario establecer una tasa de aprendizaje adecuada, es decir, ni demasiado grande ni demasiado pequeña. En el primer caso, los pasos dados son demasiado grandes y, en consecuencia, el algoritmo puede divergir. Por el contrario, si la tasa de aprendizaje es demasiado pequeña, resulta en un aprendizaje lento y el algoritmo tampoco podría converger nunca. La mayoría de las veces se desea un aprendizaje rápido, por lo que se pueden seleccionar altas tasas de aprendizaje. Sin embargo, es importante seleccionar el valor adecuado para este parámetro, de modo que se pueda garantizar la convergencia del algoritmo. En (2021, Ruiz) se presentó un método para determinar un límite superior para la tasa de aprendizaje de modelos basados en modelos de regresión lineal, haciendo un análisis del algoritmo de gradiente descendente como un sistema dinámico discreto. Este trabajo de tesis pretende extender estos resultados a modelos basados en clasificación y regresión multinomial. También buscamos encontrar un valor óptimo para la tasa de aprendizaje para estos métodos. A lo largo de esta tesis se desarrolla un algoritmo que determina automáticamente un valor óptimo para la tasa de aprendizaje de los modelos de clasificación y regresión. En primer lugar, los resultados obtenidos para los modelos de regresión lineal se generalizan a otras funciones de activación. Como resultado, se encuentran un límite superior y un valor óptimo para la tasa de aprendizaje para los modelos que usan regresión y clasificación. Luego, los resultados obtenidos se extienden a un modelo de regresión multinomial. Proponemos un análisis del descenso de gradiente como un sistema dinámico discreto, donde la cota superior surge como criterio para determinar la estabilidad de este sistema. Además, presentamos un valor óptimo para la tasa de aprendizaje, que minimiza la suma de las distancias de los polos extremos del sistema dinámico estudiado. Este análisis se realiza linealizando el algoritmo de descenso de gradiente y aplicándolo a la regresión lineal, logística y multinomial. El límite superior y el valor óptimo de la tasa de aprendizaje son aproximaciones al valor óptimo que garantizan la convergencia más rápida del algoritmo. Presentamos simulaciones y experimentos para comprobar los resultados obtenidos. Primero los probamos con ejemplos de juguetes, creando manualmente los datos para estudiar el comportamiento del algoritmo para el modelo de regresión lineal y logística. Luego, validamos nuestro enfoque en conjuntos de datos reales. Los resultados muestran que, aunque la tasa de aprendizaje máxima, que viene dada por la cota superior, parece hacer que el algoritmo converja más rápido que la tasa de aprendizaje óptima para el caso logístico y multinomial, es mejor utilizar este último valor, ya que garantiza una convergencia suave y relativamente rápida al mínimo en todos los casosThroughout the years, artificial intelligence has developed into a widely researched and applied field, as a result of the significant advancements in technology and the expansion in computer resources. Artificial intelligence attempts not only to understand how the human mind works, but also to develop systems that can mimic human behaviour. Machine learning is one of the main branches of artificial intelligence, and it aims to build and improve models that can learn from a set of data, and from experience, via computational methods, with no need to be explicitly programmed. Machine learning algorithms build models based on sample data, in order to make predictions or decisions, and are used in different applications, such as medicine, computer vision, image classification, among others. A machine learning algorithm is a program that finds patterns or makes predictions from previously unseen data. Depending on the goals of the algorithm, as well as on the data used, there are different types of learning models: supervised learning, unsupervised learning and reinforcement learning. One of the most common learning algorithms is Gradient Descent, which is used to find a local minimum of a differentiable function. It works by taking repeated steps in the opposite direction of the gradient of the function. The size of the steps taken by the gradient descent algorithm is determined by an hyper-parameter known as the Learning Rate. This parameter indicates how fast or slow is the movement towards the optimal parameters of the algorithm. Usually, it is set manually. However, in order to reach the function minima it is necessary to set an appropriate learning rate, i.e. neither too big, nor too small. In the first case, the steps taken are too big, and the algorithm can diverge as a consequence. On the contrary, if the learning rate is too small, it results in slow learning, and the algorithm could also never converge. Most of the times a fast learning is desired, so high learning rates might be selected. Nevertheless, it is important to select the proper value for this parameter, so one can guarantee the convergence of the algorithm. A method to determine an upper-bound for the learning rate of models based on linear regression models was presented in (2021, Ruiz), doing an analysis of the gradient descent algorithm as a discrete dynamical system. This thesis work aims to extend these results to models based in classification and multinomial regression. We also seek to find an optimal value for the learning rate for these methods. Throughout this thesis an algorithm that automatically determines an optimal value for the learning rate of classification and regression models is developed. In the first place, the results obtained for the linear regression models are generalized to other activation functions. As a result, an upper-bound and an optimal value for the learning rate are found for models using regression and classification. Then, the results obtained are extended to a multinomial regression model. We propose an analysis of the gradient descent as a discrete dynamical system, where the upper-bound arises as a criteria to determine the stability of this system. Besides, we present an optimal value for the learning rate, which minimizes the sum of the distance of the extreme poles of the dynamical system studied. This analysis is done by linearizing the gradient descent algorithm, and applying it to linear, logistic and multinomial regression. The upper-bound and the optimal value of the learning rate are approximations to the optimal value that guarantee the fastest convergence of the algorithm. We present simulations and experiments to test the results obtained. We first test them with toy examples, by manually creating the data to study the behaviour of the algorithm for the linear and the logistic regression model. Then, we validate our approach in real datasets. The results show that, although the maximum learning rate, which is given by the upper-bound, seems to make the algorithm converge faster than the optimal learning rate for the logistic and multinomial case, it is better to use this last value, as it guarantees a smooth and relatively fast convergence to the minimum in all cases42 ppapplication/pdfhttps://doi.org/10.48713/10336_38190 https://repository.urosario.edu.co/handle/10336/38190engUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaPrograma de Matemáticas Aplicadas y Ciencias de la Computación - MACCAttribution-NonCommercial-ShareAlike 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-sa/4.0/http://purl.org/coar/access_right/c_abf2J. C. Ruiz, Una propuesta de neurona artificial: la Unidad Neuro Vascular Artificial (UNVA). 2021.J Stuart et al., Artificial intelligence a modern approach third edition, 2010.T Mitchell, B Buchanan, G DeJong, T Dietterich, P Rosenbloom, and A Waibel, “Machine learning,” Annual Review of Computer Science, vol. 4, no. 1, pp. 417– 433, 1990. DOI: 10 . 1146 / annurev . cs . 04 . 060190 . 002221. eprint: https : //doi.org/10.1146/annurev.cs.04.060190.002221. [Online]. Available: https://doi.org/10.1146/annurev.cs.04.060190.002221.T. M. Mitchell and T. M. Mitchell, Machine learning. McGraw-hill New York, 1997, vol. 1.Z.-H. Zhou, Machine learning. Springer Nature, 2021Machine learning, 2022. [Online]. Available: https://en.wikipedia.org/wiki/ Machine_learning#cite_note-2.G. Bonaccorso, Machine learning algorithms. Packt Publishing Ltd, 2017What are machine learning models? 2022. [Online]. Available: https : / / www . databricks.com/glossary/machine-learning-models.J. Point, Machine learning models - javatpoint, 2022. [Online]. Available: https: //www.javatpoint.com/machine-learning-models.N. Donges, Gradient descent in machine learning: A basic introduction, 2022. [Online]. Available: https://builtin.com/data-science/gradient-descent.S. Patrikar, Batch, mini batch amp; stochastic gradient descent, 2019. [Online]. Available: https : / / towardsdatascience . com / batch - mini - batch - stochastic-gradient-descent-7a62ecba642aJ. Zhang, “Gradient descent based optimization algorithms for deep learning models training,” arXiv preprint arXiv:1903.03614, 2019.M. D. Zeiler, “Adadelta: An adaptive learning rate method,” arXiv preprint arXiv:1212.5701, 2012.A. Lydia and S. Francis, “Adagrad—an optimizer for stochastic gradient descent,” Int. J. Inf. Comput. Sci, vol. 6, no. 5, pp. 566–568,F. Zou, L. Shen, Z. Jie, W. Zhang, and W. Liu, “A sufficient condition for convergences of adam and rmsprop,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.P. Baldi, “Gradient descent learning algorithm overview: A general dynamical systems perspective,” IEEE Transactions on Neural Networks, vol. 6, no. 1, pp. 182–195, 1995. DOI: 10.1109/72.363438.K. P. Murphy, Machine learning: a probabilistic perspective. MIT press, 2012.Seldon, Machine learning regression explained, 2021. [Online]. Available: https: / / www . seldon . io / machine - learning - regression - explained# : ~ : text=Regression%20is%20a%20technique%20for, used%20to%20predict% 20continuous%20outcomes..J. Brownlee, Linear regression for machine learning, 2020. [Online]. Available: https://machinelearningmastery.com/linear-regression-for-machinelearning/.J. Point, Logistic regression in machine learning - javatpoint, 2022. [Online]. Available: https://www.javatpoint.com/logistic- regression- in- machinelearning.Support vector machines speed pattern recognition - vision systems design, 2004. [Online]. Available: https : / / www . vision - systems . com / home / article / 16737424/support-vector-machines-speed-pattern-recognition] J. Platt, “Using analytic qp and sparseness to speed training of support vector machines,” Advances in neural information processing systems, vol. 11, 1998.Iris data set. [Online]. Available: https : / / archive . ics . uci . edu / ml / datasets/iris.P. Tarazaga, “Eigenvalue estimates for symmetric matrices,” Linear algebra and its applications, vol. 135, pp. 171–179, 1990instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURTasa de aprendizajeGradiente descendenteRegresiónRegresión multinomialRegresión multivariadaAlgoritmos de aprendizajeSistemas dinámicosLearning rateGradient descentRegressionMultinomial regressionMultivariate regressionLearning algorithmsDynamical systemsAutomatic determination of the learning rate for multivariate and multinomial regression modelsDeterminación automática de la tasa de aprendizaje para modelos de regresión multivariada y multinomialbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdfAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdfapplication/pdf1246635https://repository.urosario.edu.co/bitstreams/66b069ab-ec9d-42ac-bab8-f59c60fe6a52/downloadc72fff5a8469d7b8af9a4a0a9804009eMD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/a8cc8e16-cf68-4b0b-93ba-402010d2be3f/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81160https://repository.urosario.edu.co/bitstreams/1dcd4af9-98e0-41a1-9c05-f18de45926b3/download5643bfd9bcf29d560eeec56d584edaa9MD53TEXTAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.txtAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.txtExtracted texttext/plain70934https://repository.urosario.edu.co/bitstreams/ba25b891-d7f3-4e9c-abf3-1ecc47a3a712/download6ca6ad0dc561cadb0842d2e5248158b0MD54AutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.txtAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.txtExtracted texttext/plain70934https://repository.urosario.edu.co/bitstreams/dd3e9348-0848-4c00-a3ee-bc305c0b47f2/download6ca6ad0dc561cadb0842d2e5248158b0MD56THUMBNAILAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.jpgAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.jpgGenerated Thumbnailimage/jpeg3268https://repository.urosario.edu.co/bitstreams/10054f7f-f8fa-4c62-9371-eccb7043694b/download36cbffd9b17a7bb30d8020a9bfadd566MD55AutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.jpgAutomaticDeterminationOfTheLearningRateForMultivariateAndMultinomialRegressionModels.pdf.jpgGenerated Thumbnailimage/jpeg3268https://repository.urosario.edu.co/bitstreams/4e33b437-919e-4b9a-b037-5b4fb27934be/download36cbffd9b17a7bb30d8020a9bfadd566MD5710336/38190oai:repository.urosario.edu.co:10336/381902024-08-27 03:02:10.887http://creativecommons.org/licenses/by-nc-sa/4.0/Attribution-NonCommercial-ShareAlike 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg==