Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático

En este documento se presenta el desarrollo de un controlador basado en algoritmos de aprendizaje automático para el sistema no lineal ball and beam, mostrando cómo implementar un sistema de control basado en algoritmos de aprendizaje automático a sistemas no lineales e inestables y que estos se aju...

Full description

Autores:
Gaviria Zapata, Vincenth Adolfo
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2023
Institución:
Universidad Santo Tomás
Repositorio:
Repositorio Institucional USTA
Idioma:
spa
OAI Identifier:
oai:repository.usta.edu.co:11634/50070
Acceso en línea:
http://hdl.handle.net/11634/50070
Palabra clave:
Ingeniería Electrónica
Aprendizaje-Algoritmos
Diseño
Ingenieros
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 2.5 Colombia
id SANTTOMAS2_2f025176477fafbbf6ce9798ac2d1aeb
oai_identifier_str oai:repository.usta.edu.co:11634/50070
network_acronym_str SANTTOMAS2
network_name_str Repositorio Institucional USTA
repository_id_str
dc.title.spa.fl_str_mv Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
title Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
spellingShingle Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
Ingeniería Electrónica
Aprendizaje-Algoritmos
Diseño
Ingenieros
title_short Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
title_full Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
title_fullStr Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
title_full_unstemmed Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
title_sort Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
dc.creator.fl_str_mv Gaviria Zapata, Vincenth Adolfo
dc.contributor.advisor.none.fl_str_mv Amaya, Sindy Paola
Rojas, Armando Mateus
dc.contributor.author.none.fl_str_mv Gaviria Zapata, Vincenth Adolfo
dc.contributor.orcid.spa.fl_str_mv https://orcid.org/0000-0002-2399-4859
https://orcid.org/0000-0002-1714-1593
dc.contributor.googlescholar.spa.fl_str_mv https://scholar.google.com/citations?hl=es&user=Gg2sofAAAAAJ
dc.contributor.cvlac.spa.fl_str_mv https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000796425
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000680630
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001695506
dc.contributor.corporatename.spa.fl_str_mv Universidad Santo Tomas
dc.subject.lemb.spa.fl_str_mv Ingeniería Electrónica
Aprendizaje-Algoritmos
Diseño
Ingenieros
topic Ingeniería Electrónica
Aprendizaje-Algoritmos
Diseño
Ingenieros
description En este documento se presenta el desarrollo de un controlador basado en algoritmos de aprendizaje automático para el sistema no lineal ball and beam, mostrando cómo implementar un sistema de control basado en algoritmos de aprendizaje automático a sistemas no lineales e inestables y que estos se ajusten a los parámetros de diseño establecidos. El algoritmo de control de aprendizaje que se diseña en este trabajo es uno de aprendizaje iterativo, para el cual primero se diseña un controlador clásico basado en el modelo de espacio de estados y se toma como base para implementar el algoritmo de control seleccionado. Se compara el desempeño del controlador basado en el algoritmo de aprendizaje iterativo respecto al controlador clásico, evidenciando que el algoritmo por aprendizaje iterativo genera un error de estado estacionario que si bien es mínimo, le da una ventaja al controlador clásico, pues con este no se tiene error de estado estacionario. Finalmente se evidencia con este trabajo que la estrategia de control seleccionada a pesar de ser simple, cumple con la suficiente robustez para ser implementado en un problema complejo de control no lineal sin presentar mayor diferencia respecto a un controlador clásico.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-03-29T17:50:38Z
dc.date.available.none.fl_str_mv 2023-03-29T17:50:38Z
dc.date.issued.none.fl_str_mv 2023-03-29
dc.type.none.fl_str_mv bachelor thesis
dc.type.local.spa.fl_str_mv Tesis de pregrado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.drive.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.spa.fl_str_mv Gaviria Zapata, V. A. (2022). Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11634/50070
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Santo Tomás
dc.identifier.instname.spa.fl_str_mv instname:Universidad Santo Tomás
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.usta.edu.co
identifier_str_mv Gaviria Zapata, V. A. (2022). Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.
reponame:Repositorio Institucional Universidad Santo Tomás
instname:Universidad Santo Tomás
repourl:https://repository.usta.edu.co
url http://hdl.handle.net/11634/50070
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv Felix Berkenkamp y col. «Safe model-based reinforcement learning with stability gua rantees». En: Advances in Neural Information Processing Systems 2017-Decem.Nips (2017), págs. 909-919. ISSN: 10495258. arXiv: 1705.08551
Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.886317
Hai Jun Rong y Guang She Zhao. «Direct adaptive neural control of nonlinear systems with extreme learning machine». En: Neural Computing and Applications 22.3-4 (2013), págs. 577-586. ISSN: 09410643. DOI: 10.1007/s00521-011-0805-1.
Zeeshan Shareef Muhammad Asif Rana, Zubair Usman. «Automatic control of ball and beam system using Particle Swarm Optimization». En: (2011).
B. Tovorni N. Muskinja. «Swinging up and stabilization of a real inverted pendulum». En: (2006).
Tariq Samad y col. «Industry engagement with control research: Perspective and messa ges». En: Annual Reviews in Control 49 (2020), págs. 1-14. ISSN: 13675788. DOI: 10.1016/ j.arcontrol.2020.03.002.
MATLAB SIMULINK. Rotary Servo Base Unit Quick Start Guide. 2012. URL: https:// usermanual.wiki/Document/Rotary20Servo20Base20UnitQuick20Start20Guide. 335294577/view.
Sen Zhang. «Reinforcement learning Recap : reinforcement learning». En: January (2019), págs. 1-91
M. Carreras, J. Yuh y J. Batlle. High-level control of autonomous robots using a behavior-based scheme and reinforcement learning. Vol. 35. 1. IFAC, 2002, págs. 469-474. ISBN: 9783902661746. DOI: 10.3182/20020721- 6- es- 1901.01303. URL: http://dx.doi.org/10. 3182/20020721-6-ES-1901.01303.
M. Carreras, J. Batlle y P. Ridao. «Hybrid coordination of reinforcement learning-based behaviors for AUV control». En: IEEE International Conference on Intelligent Robots and Systems 3 (2001), págs. 1410-1415. DOI: 10.1109/iros.2001.977178
N. Kobori y col. «Learning to control a joint driven double inverted pendulum using nested actor/critic algorithm». En: ICONIP 2002 - Proceedings of the 9th International Con ference on Neural Information Processing: Computational Intelligence for the E-Age 5 (2002), págs. 2610-2614. DOI: 10.1109/ICONIP.2002.1201968.
Michail G Lagoudakis y Ronald E Parr. «Least-Squares Methods in Reinforcement Lear ning for Controll». En: May (2002).
María López Boada, Beatriz López Boada y Vicente Díaz López. «Algoritmo de aprendi zaje por refuerzo continuo para el control de un sistema de suspensión semi-activa». En: Revista iberoamericana de ingeniería mecánica 9.2 (2005), págs. 77-92. ISSN: 1137-2729.
Xiao Ye y col. «Design and Implementation of Rotary Inverted Pendulum Motion Control Hardware-In-The-Loop Simulation Platform». En: (2010), págs. 155-164.
Valeri Mladenov. «Application of neural networks for control of inverted pendulum». En: WSEAS Transactions on Circuits and Systems 10.2 (2011), págs. 49-58. ISSN: 11092734.
Rafael Figueroa y col. «Reinforcement learning for balancing a flying inverted pendu lum». En: Proceedings of the World Congress on Intelligent Control and Automation (WCICA) 2015-March.March (2015), págs. 1787-1793. DOI: 10.1109/WCICA.2014.7052991.
M. Gómez y col. «Optimal motion planning by reinforcement learning in autonomous mobile vehicles». En: Robotica 30.2 (2012), págs. 159-170. ISSN: 02635747. DOI: 10.1017/ S0263574711000452.
Zhijun Li y Chenguang Yang. «Neural-adaptive output feedback control of a class of transportation vehicles based on wheeled inverted pendulum models». En: IEEE Transac tions on Control Systems Technology 20.6 (2012), págs. 1583-1591. ISSN: 10636536. DOI: 10. 1109/TCST.2011.2168224
L. Adrián León, Ana C. Tenorio y Eduardo F. Morales. «4 - Human Interaction for Effecti ve Reinforcement Learning». En: European Conf. Mach. Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013) (2013). URL: http://www.ke. tu-darmstadt.de/events/PBRL-13/papers/04-Morales.pdf.
Linglin Wang, Yongxin Liu y Xiaoke Zhai. «Design of reinforce learning control algo rithm and verified in inverted pendulum». En: Chinese Control Conference, CCC 2015- Septe.Grant 61362002 (2015), págs. 3164-3168. ISSN: 21612927. DOI: 10.1109/ChiCC. 2015.7260128
Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.8863179.
V. I. Norkin. «Generalized Gradients in Dynamic Optimization, Optimal Control, and Machine Learning Problems*». En: Cybernetics and Systems Analysis 56.2 (2020), págs. 243-258. ISSN: 15738337. DOI: 10.1007/s10559-020-00240-x
Angel Miguel Rodriguez Ruiz y col. «Robot Path planning using reinforcement learning and nonlinear approximation function (Planeación de trayetoria utilizando aprendizaje por reforzamiento y función de aproximación)». En: (2017), págs. 56-61.
P. V. Mani Maalini ; G. Prabhakar ; S. Selvaperumal. «Modelling and control of ball and beam system using PID controller». En: (2016)
Bela Lantos Lorinc Marton. «Stable Adaptive Ball and Beam Control». En: (2006).
Z. Shareef, M. Amjad , M.I. Kashif. «Fuzzy logic control of ball and beam system». En: (2010)
Yeong-HwaChangaChia-WenChangaChin-WangTaobHung-WeiLincJin-ShiuhTaurd. «Fuzzy sliding-mode control for ball and beam system with fuzzy ant colony optimization». En: (2011)
OscarCastillo, EveliaLizárraga, JoseSoria, PatriciaMelin. «New approach using ant co lony optimization with ant set partition for fuzzy control design applied to the ball and beam system». En: (2014).
Friendly Gui. «Ball and beam». En: (), págs. 3-4
Katsuhiko Ogata. Ingeniería de control moderna. Pearson Educación, 2003.
Kira Barton, Sandipan Mishra y Enric Xargay. «Robust iterative learning control: L 1 adaptive feedback control in an ilc framework». En: Proceedings of the 2011 American Con trol Conference. IEEE. 2011, págs. 3663-3668
Jian-Xin Xu, Sanjib K Panda y Tong Heng Lee. Real-time iterative learning control: design and applications. Springer Science & Business Media, 2008
Fredrik Bagge Carlson y col. «ControlSystems. jl: A Control Toolbox in Julia». En: 2021 60th IEEE Conference on Decision and Control (CDC). IEEE. 2021, págs. 4847-4853
dc.rights.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.campus.spa.fl_str_mv CRAI-USTA Bogotá
dc.publisher.spa.fl_str_mv Universidad Santo Tomás
dc.publisher.program.spa.fl_str_mv Pregrado Ingeniería Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería Electrónica
institution Universidad Santo Tomás
bitstream.url.fl_str_mv https://repository.usta.edu.co/bitstream/11634/50070/6/2022vincenthgaviria.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/50070/7/Carta_aprobacion_Biblioteca%20VINCENTH%20ADOLFO.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/50070/8/Carta_autorizacion_autoarchivo_autor_2021.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/50070/1/2022vincenthgaviria.pdf
https://repository.usta.edu.co/bitstream/11634/50070/2/Carta_aprobacion_Biblioteca%20VINCENTH%20ADOLFO.pdf
https://repository.usta.edu.co/bitstream/11634/50070/3/Carta_autorizacion_autoarchivo_autor_2021.pdf
https://repository.usta.edu.co/bitstream/11634/50070/4/license_rdf
https://repository.usta.edu.co/bitstream/11634/50070/5/license.txt
bitstream.checksum.fl_str_mv a34d8417e572e2a080495a4ed0fb068b
ef21c09610808252a5299ba0a5c53e7b
efeb09989dae80468e78048ebd7b718d
800a1fed9f9c9fd253dec4cc8bcb18aa
a37553395413924f21eb6d359bb28207
1391d428549d38852b8ec454b608ff8d
217700a34da79ed616c2feb68d4c5e06
aedeaf396fcd827b537c73d23464fc27
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Santo Tomás
repository.mail.fl_str_mv noreply@usta.edu.co
_version_ 1782026108957360128
spelling Amaya, Sindy PaolaRojas, Armando MateusGaviria Zapata, Vincenth Adolfohttps://orcid.org/0000-0002-2399-4859https://orcid.org/0000-0002-1714-1593https://scholar.google.com/citations?hl=es&user=Gg2sofAAAAAJhttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000796425https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000680630https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001695506Universidad Santo Tomas2023-03-29T17:50:38Z2023-03-29T17:50:38Z2023-03-29Gaviria Zapata, V. A. (2022). Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.http://hdl.handle.net/11634/50070reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEn este documento se presenta el desarrollo de un controlador basado en algoritmos de aprendizaje automático para el sistema no lineal ball and beam, mostrando cómo implementar un sistema de control basado en algoritmos de aprendizaje automático a sistemas no lineales e inestables y que estos se ajusten a los parámetros de diseño establecidos. El algoritmo de control de aprendizaje que se diseña en este trabajo es uno de aprendizaje iterativo, para el cual primero se diseña un controlador clásico basado en el modelo de espacio de estados y se toma como base para implementar el algoritmo de control seleccionado. Se compara el desempeño del controlador basado en el algoritmo de aprendizaje iterativo respecto al controlador clásico, evidenciando que el algoritmo por aprendizaje iterativo genera un error de estado estacionario que si bien es mínimo, le da una ventaja al controlador clásico, pues con este no se tiene error de estado estacionario. Finalmente se evidencia con este trabajo que la estrategia de control seleccionada a pesar de ser simple, cumple con la suficiente robustez para ser implementado en un problema complejo de control no lineal sin presentar mayor diferencia respecto a un controlador clásico.This document presents the development of a controller based on machine learning algorithms for the nonlinear ball and beam system, showing how to implement a control system based on machine learning algorithms to nonlinear and unstable systems and that these adjust to established design parameters. The learning control algorithm that is designed in this work is an iterative learning one, for which a classical controller based on the state space model is first designed and is taken as a basis to implement the selected control algorithm. The performance of the controller based on the iterative learning algorithm is compared with the classical controller, evidencing that the iterative learning algorithm generates a steady-state error that, although minimal, gives the classical controller an advantage, since it does not has steady state error. Finally, this work shows that the selected control strategy, despite being simple, is robust enough to be implemented in a complex nonlinear control problem without presenting much difference compared to a classic controller.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automáticobachelor thesisTesis de pregradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisIngeniería ElectrónicaAprendizaje-AlgoritmosDiseñoIngenierosCRAI-USTA BogotáFelix Berkenkamp y col. «Safe model-based reinforcement learning with stability gua rantees». En: Advances in Neural Information Processing Systems 2017-Decem.Nips (2017), págs. 909-919. ISSN: 10495258. arXiv: 1705.08551Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.886317Hai Jun Rong y Guang She Zhao. «Direct adaptive neural control of nonlinear systems with extreme learning machine». En: Neural Computing and Applications 22.3-4 (2013), págs. 577-586. ISSN: 09410643. DOI: 10.1007/s00521-011-0805-1.Zeeshan Shareef Muhammad Asif Rana, Zubair Usman. «Automatic control of ball and beam system using Particle Swarm Optimization». En: (2011).B. Tovorni N. Muskinja. «Swinging up and stabilization of a real inverted pendulum». En: (2006).Tariq Samad y col. «Industry engagement with control research: Perspective and messa ges». En: Annual Reviews in Control 49 (2020), págs. 1-14. ISSN: 13675788. DOI: 10.1016/ j.arcontrol.2020.03.002.MATLAB SIMULINK. Rotary Servo Base Unit Quick Start Guide. 2012. URL: https:// usermanual.wiki/Document/Rotary20Servo20Base20UnitQuick20Start20Guide. 335294577/view.Sen Zhang. «Reinforcement learning Recap : reinforcement learning». En: January (2019), págs. 1-91M. Carreras, J. Yuh y J. Batlle. High-level control of autonomous robots using a behavior-based scheme and reinforcement learning. Vol. 35. 1. IFAC, 2002, págs. 469-474. ISBN: 9783902661746. DOI: 10.3182/20020721- 6- es- 1901.01303. URL: http://dx.doi.org/10. 3182/20020721-6-ES-1901.01303.M. Carreras, J. Batlle y P. Ridao. «Hybrid coordination of reinforcement learning-based behaviors for AUV control». En: IEEE International Conference on Intelligent Robots and Systems 3 (2001), págs. 1410-1415. DOI: 10.1109/iros.2001.977178N. Kobori y col. «Learning to control a joint driven double inverted pendulum using nested actor/critic algorithm». En: ICONIP 2002 - Proceedings of the 9th International Con ference on Neural Information Processing: Computational Intelligence for the E-Age 5 (2002), págs. 2610-2614. DOI: 10.1109/ICONIP.2002.1201968.Michail G Lagoudakis y Ronald E Parr. «Least-Squares Methods in Reinforcement Lear ning for Controll». En: May (2002).María López Boada, Beatriz López Boada y Vicente Díaz López. «Algoritmo de aprendi zaje por refuerzo continuo para el control de un sistema de suspensión semi-activa». En: Revista iberoamericana de ingeniería mecánica 9.2 (2005), págs. 77-92. ISSN: 1137-2729.Xiao Ye y col. «Design and Implementation of Rotary Inverted Pendulum Motion Control Hardware-In-The-Loop Simulation Platform». En: (2010), págs. 155-164.Valeri Mladenov. «Application of neural networks for control of inverted pendulum». En: WSEAS Transactions on Circuits and Systems 10.2 (2011), págs. 49-58. ISSN: 11092734.Rafael Figueroa y col. «Reinforcement learning for balancing a flying inverted pendu lum». En: Proceedings of the World Congress on Intelligent Control and Automation (WCICA) 2015-March.March (2015), págs. 1787-1793. DOI: 10.1109/WCICA.2014.7052991.M. Gómez y col. «Optimal motion planning by reinforcement learning in autonomous mobile vehicles». En: Robotica 30.2 (2012), págs. 159-170. ISSN: 02635747. DOI: 10.1017/ S0263574711000452.Zhijun Li y Chenguang Yang. «Neural-adaptive output feedback control of a class of transportation vehicles based on wheeled inverted pendulum models». En: IEEE Transac tions on Control Systems Technology 20.6 (2012), págs. 1583-1591. ISSN: 10636536. DOI: 10. 1109/TCST.2011.2168224L. Adrián León, Ana C. Tenorio y Eduardo F. Morales. «4 - Human Interaction for Effecti ve Reinforcement Learning». En: European Conf. Mach. Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013) (2013). URL: http://www.ke. tu-darmstadt.de/events/PBRL-13/papers/04-Morales.pdf.Linglin Wang, Yongxin Liu y Xiaoke Zhai. «Design of reinforce learning control algo rithm and verified in inverted pendulum». En: Chinese Control Conference, CCC 2015- Septe.Grant 61362002 (2015), págs. 3164-3168. ISSN: 21612927. DOI: 10.1109/ChiCC. 2015.7260128Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.8863179.V. I. Norkin. «Generalized Gradients in Dynamic Optimization, Optimal Control, and Machine Learning Problems*». En: Cybernetics and Systems Analysis 56.2 (2020), págs. 243-258. ISSN: 15738337. DOI: 10.1007/s10559-020-00240-xAngel Miguel Rodriguez Ruiz y col. «Robot Path planning using reinforcement learning and nonlinear approximation function (Planeación de trayetoria utilizando aprendizaje por reforzamiento y función de aproximación)». En: (2017), págs. 56-61.P. V. Mani Maalini ; G. Prabhakar ; S. Selvaperumal. «Modelling and control of ball and beam system using PID controller». En: (2016)Bela Lantos Lorinc Marton. «Stable Adaptive Ball and Beam Control». En: (2006).Z. Shareef, M. Amjad , M.I. Kashif. «Fuzzy logic control of ball and beam system». En: (2010)Yeong-HwaChangaChia-WenChangaChin-WangTaobHung-WeiLincJin-ShiuhTaurd. «Fuzzy sliding-mode control for ball and beam system with fuzzy ant colony optimization». En: (2011)OscarCastillo, EveliaLizárraga, JoseSoria, PatriciaMelin. «New approach using ant co lony optimization with ant set partition for fuzzy control design applied to the ball and beam system». En: (2014).Friendly Gui. «Ball and beam». En: (), págs. 3-4Katsuhiko Ogata. Ingeniería de control moderna. Pearson Educación, 2003.Kira Barton, Sandipan Mishra y Enric Xargay. «Robust iterative learning control: L 1 adaptive feedback control in an ilc framework». En: Proceedings of the 2011 American Con trol Conference. IEEE. 2011, págs. 3663-3668Jian-Xin Xu, Sanjib K Panda y Tong Heng Lee. Real-time iterative learning control: design and applications. Springer Science & Business Media, 2008Fredrik Bagge Carlson y col. «ControlSystems. jl: A Control Toolbox in Julia». En: 2021 60th IEEE Conference on Decision and Control (CDC). IEEE. 2021, págs. 4847-4853THUMBNAIL2022vincenthgaviria.pdf.jpg2022vincenthgaviria.pdf.jpgIM Thumbnailimage/jpeg7122https://repository.usta.edu.co/bitstream/11634/50070/6/2022vincenthgaviria.pdf.jpga34d8417e572e2a080495a4ed0fb068bMD56open accessCarta_aprobacion_Biblioteca VINCENTH ADOLFO.pdf.jpgCarta_aprobacion_Biblioteca VINCENTH ADOLFO.pdf.jpgIM Thumbnailimage/jpeg6875https://repository.usta.edu.co/bitstream/11634/50070/7/Carta_aprobacion_Biblioteca%20VINCENTH%20ADOLFO.pdf.jpgef21c09610808252a5299ba0a5c53e7bMD57open accessCarta_autorizacion_autoarchivo_autor_2021.pdf.jpgCarta_autorizacion_autoarchivo_autor_2021.pdf.jpgIM Thumbnailimage/jpeg7725https://repository.usta.edu.co/bitstream/11634/50070/8/Carta_autorizacion_autoarchivo_autor_2021.pdf.jpgefeb09989dae80468e78048ebd7b718dMD58open accessORIGINAL2022vincenthgaviria.pdf2022vincenthgaviria.pdfTrabajo de Gradoapplication/pdf809858https://repository.usta.edu.co/bitstream/11634/50070/1/2022vincenthgaviria.pdf800a1fed9f9c9fd253dec4cc8bcb18aaMD51open accessCarta_aprobacion_Biblioteca VINCENTH ADOLFO.pdfCarta_aprobacion_Biblioteca VINCENTH ADOLFO.pdfCarta Facultadapplication/pdf322526https://repository.usta.edu.co/bitstream/11634/50070/2/Carta_aprobacion_Biblioteca%20VINCENTH%20ADOLFO.pdfa37553395413924f21eb6d359bb28207MD52metadata only accessCarta_autorizacion_autoarchivo_autor_2021.pdfCarta_autorizacion_autoarchivo_autor_2021.pdfCarta Derechos de Autorapplication/pdf883466https://repository.usta.edu.co/bitstream/11634/50070/3/Carta_autorizacion_autoarchivo_autor_2021.pdf1391d428549d38852b8ec454b608ff8dMD53metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/50070/4/license_rdf217700a34da79ed616c2feb68d4c5e06MD54open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/50070/5/license.txtaedeaf396fcd827b537c73d23464fc27MD55open access11634/50070oai:repository.usta.edu.co:11634/500702023-07-19 19:48:42.415open accessRepositorio Universidad Santo Tomásnoreply@usta.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K