On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm

Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basad...

Full description

Autores:
Segura, Enrique Carlos
Tipo de recurso:
Article of journal
Fecha de publicación:
2013
Institución:
Corporación Universidad de la Costa
Repositorio:
REDICUC - Repositorio CUC
Idioma:
spa
OAI Identifier:
oai:repositorio.cuc.edu.co:11323/11993
Acceso en línea:
https://hdl.handle.net/11323/11993
https://revistascientificas.cuc.edu.co/ingecuc/article/view/4
Palabra clave:
Red neuronal
Manipulador robótico
Perceptrón multicapa
Aprendizaje estocástico
Dinámica inversa.
Rights
openAccess
License
INGE CUC - 2014
id RCUC2_4a7bb903cbd219f8cce2c1369e6324f8
oai_identifier_str oai:repositorio.cuc.edu.co:11323/11993
network_acronym_str RCUC2
network_name_str REDICUC - Repositorio CUC
repository_id_str
dc.title.spa.fl_str_mv On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
dc.title.translated.eng.fl_str_mv On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
title On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
spellingShingle On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
Red neuronal
Manipulador robótico
Perceptrón multicapa
Aprendizaje estocástico
Dinámica inversa.
title_short On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
title_full On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
title_fullStr On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
title_full_unstemmed On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
title_sort On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
dc.creator.fl_str_mv Segura, Enrique Carlos
dc.contributor.author.spa.fl_str_mv Segura, Enrique Carlos
dc.subject.spa.fl_str_mv Red neuronal
Manipulador robótico
Perceptrón multicapa
Aprendizaje estocástico
Dinámica inversa.
topic Red neuronal
Manipulador robótico
Perceptrón multicapa
Aprendizaje estocástico
Dinámica inversa.
description Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basada en tres elementos esenciales: a) actualización de los pesos de la red por medio de información del gradiente de la función de costo; b) aceptación o rechazo del cambio propuesto por una técnica de recocido simulado (simulated annealing) clásica; y c) crecimiento progresivo de la red neuronal, en la medida en que su estructura resulta insuficiente, usando una estrategia conservadora para agregar unidades a la capa oculta. Se realizan experimentos y se analiza la eficiencia en términos de la relación entre error relativo medio -en los conjuntos de entrenamiento y de testeo-, tamaño de la red y tiempos de cómputo. Se hace énfasis en la habilidad de la técnica propuesta para obtener buenas aproximaciones, minimizando la complejidad de la arquitectura de la red y, por lo tanto, la memoria computacional requerida. Además, se discute la evolución del proceso de minimización a medida que la superficie de costo se modifica. Palabras clave: red neuronal, manipulador robótico, perceptrón multicapa, aprendizaje estocástico, dinámica inversa.
publishDate 2013
dc.date.accessioned.none.fl_str_mv 2013-06-03 00:00:00
2024-04-09T20:12:28Z
dc.date.available.none.fl_str_mv 2013-06-03 00:00:00
2024-04-09T20:12:28Z
dc.date.issued.none.fl_str_mv 2013-06-03
dc.type.spa.fl_str_mv Artículo de revista
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_6501
http://purl.org/coar/resource_type/c_2df8fbb1
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/article
dc.type.local.eng.fl_str_mv Journal article
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/ART
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.coarversion.spa.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
format http://purl.org/coar/resource_type/c_6501
status_str publishedVersion
dc.identifier.issn.none.fl_str_mv 0122-6517
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/11323/11993
dc.identifier.url.none.fl_str_mv https://revistascientificas.cuc.edu.co/ingecuc/article/view/4
dc.identifier.eissn.none.fl_str_mv 2382-4700
identifier_str_mv 0122-6517
2382-4700
url https://hdl.handle.net/11323/11993
https://revistascientificas.cuc.edu.co/ingecuc/article/view/4
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.ispartofjournal.spa.fl_str_mv Inge Cuc
dc.relation.references.spa.fl_str_mv V. I. Arnold, “On Functions of three Variables”, Dokl. Akad. Nauk, no.114, pp. 679-681, 1957.
G. Cybenko, “Approximation by superpositions of a sigmoidal function”, Math. Control, Signals and Systems, vol.2, no.4, pp. 303-314, 1989.
K. Funahashi, “On the approximate realization of continuous mappings by neural networks”, Neural Networks, vol.2, no.3, pp. 183-92, 1989.
S. Haykin, Neural Networks and Learning Machines. Upper Saddle River, Pearson-Prentice Hall, 2009.
Y. Ito, “Extension of Approximation Capability of Three Layered Neural Networks to Derivatives”, Proc. IEEE Int. Conf. Neural Networks, San Francisco, 1993, pp. 377-381.
S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing”, Science, vol. 220, pp. 671-680, 1983.
A. N. Kolmogorov, On the Representation of Functions of Many Variables by Superposition of Continuous Functions of one Variable and Addition (1957), Am. Math. Soc. Tr., vol.28, pp. 55-59, 1963.
P. J. Van Laarhoven and E. H. Aarts, Simulated Annealing: Theory and Applications. Dordrech: Kluwer, 2010.
M. Leshno, V. Y. Lin, A. Pinkus and S. Schocken, “Multilayer Feedforward Networks with a Nonpolynomial Activation Function Can Approximate Any Function”, Neural Networks, vol.6, no 6, pp. 861-867, 1993.
A. B. Martínez, R. M. Planas, and E. C. Segura, “Disposición anular de cámaras sobre un robot móvil”, en Actas XVII Jornadas de Automática Santander96, Santander, 1996.
N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. H. Teller, and E. Teller, “Equation of State Calculations by Fast Computing Machines”, J. Chem. Phys, vol. 21, no 6, pp. 1087-91, 1953.
D. E. Rumelhart, G. E Hinton, and R. J. Williams, “Learning representations by back-propagating errors”, Nature no.323, pp. 533-536, 1986.
P. Salamon, P. Paolo Sibani, and R. Frost, Facts, Conjectures and Improvements for Simulated Annealing. SIAM Monographs on Mathematical Modeling and Computation, 2002.
E. C. Segura, A non parametric method for video camera calibration using a neural network, Int. Symp. Multi-Technology Information Processing, Hsinchu, Taiwan, 1996.
E. C. Segura, Optimisation with Simulated Annealing through Regularisation of the Target Function, Proc. XII Congreso Arg. de Ciencias de la Computación, Potrero de los Funes, 2006.
D. A. Sprecher, “On the Structure of Continuous Functions of Several Variables”, Tr. Am. Math. Soc., vol.115, pp. 340-355, 1963.
dc.relation.citationendpage.none.fl_str_mv 43
dc.relation.citationstartpage.none.fl_str_mv 39
dc.relation.citationissue.spa.fl_str_mv 2
dc.relation.citationvolume.spa.fl_str_mv 9
dc.relation.bitstream.none.fl_str_mv https://revistascientificas.cuc.edu.co/ingecuc/article/download/4/73
dc.relation.citationedition.spa.fl_str_mv Núm. 2 , Año 2013 : (Julio - Diciembre)
dc.rights.spa.fl_str_mv INGE CUC - 2014
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv INGE CUC - 2014
https://creativecommons.org/licenses/by-nc-sa/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad de la Costa
dc.source.spa.fl_str_mv https://revistascientificas.cuc.edu.co/ingecuc/article/view/4
institution Corporación Universidad de la Costa
bitstream.url.fl_str_mv https://repositorio.cuc.edu.co/bitstreams/ec54da19-30df-41ee-b324-f1f4ec832a4c/download
bitstream.checksum.fl_str_mv 0f3aeea75c55a49cc14ed74c67d5a7c7
bitstream.checksumAlgorithm.fl_str_mv MD5
repository.name.fl_str_mv Repositorio de la Universidad de la Costa CUC
repository.mail.fl_str_mv repdigital@cuc.edu.co
_version_ 1828166894739259392
spelling Segura, Enrique Carlos2013-06-03 00:00:002024-04-09T20:12:28Z2013-06-03 00:00:002024-04-09T20:12:28Z2013-06-030122-6517https://hdl.handle.net/11323/11993https://revistascientificas.cuc.edu.co/ingecuc/article/view/42382-4700Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basada en tres elementos esenciales: a) actualización de los pesos de la red por medio de información del gradiente de la función de costo; b) aceptación o rechazo del cambio propuesto por una técnica de recocido simulado (simulated annealing) clásica; y c) crecimiento progresivo de la red neuronal, en la medida en que su estructura resulta insuficiente, usando una estrategia conservadora para agregar unidades a la capa oculta. Se realizan experimentos y se analiza la eficiencia en términos de la relación entre error relativo medio -en los conjuntos de entrenamiento y de testeo-, tamaño de la red y tiempos de cómputo. Se hace énfasis en la habilidad de la técnica propuesta para obtener buenas aproximaciones, minimizando la complejidad de la arquitectura de la red y, por lo tanto, la memoria computacional requerida. Además, se discute la evolución del proceso de minimización a medida que la superficie de costo se modifica. Palabras clave: red neuronal, manipulador robótico, perceptrón multicapa, aprendizaje estocástico, dinámica inversa.application/pdfspaUniversidad de la CostaINGE CUC - 2014https://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2https://revistascientificas.cuc.edu.co/ingecuc/article/view/4Red neuronalManipulador robóticoPerceptrón multicapaAprendizaje estocásticoDinámica inversa.On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithmOn the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithmArtículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articleJournal articlehttp://purl.org/redcol/resource_type/ARTinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Inge CucV. I. Arnold, “On Functions of three Variables”, Dokl. Akad. Nauk, no.114, pp. 679-681, 1957.G. Cybenko, “Approximation by superpositions of a sigmoidal function”, Math. Control, Signals and Systems, vol.2, no.4, pp. 303-314, 1989.K. Funahashi, “On the approximate realization of continuous mappings by neural networks”, Neural Networks, vol.2, no.3, pp. 183-92, 1989.S. Haykin, Neural Networks and Learning Machines. Upper Saddle River, Pearson-Prentice Hall, 2009.Y. Ito, “Extension of Approximation Capability of Three Layered Neural Networks to Derivatives”, Proc. IEEE Int. Conf. Neural Networks, San Francisco, 1993, pp. 377-381.S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing”, Science, vol. 220, pp. 671-680, 1983.A. N. Kolmogorov, On the Representation of Functions of Many Variables by Superposition of Continuous Functions of one Variable and Addition (1957), Am. Math. Soc. Tr., vol.28, pp. 55-59, 1963.P. J. Van Laarhoven and E. H. Aarts, Simulated Annealing: Theory and Applications. Dordrech: Kluwer, 2010.M. Leshno, V. Y. Lin, A. Pinkus and S. Schocken, “Multilayer Feedforward Networks with a Nonpolynomial Activation Function Can Approximate Any Function”, Neural Networks, vol.6, no 6, pp. 861-867, 1993.A. B. Martínez, R. M. Planas, and E. C. Segura, “Disposición anular de cámaras sobre un robot móvil”, en Actas XVII Jornadas de Automática Santander96, Santander, 1996.N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. H. Teller, and E. Teller, “Equation of State Calculations by Fast Computing Machines”, J. Chem. Phys, vol. 21, no 6, pp. 1087-91, 1953.D. E. Rumelhart, G. E Hinton, and R. J. Williams, “Learning representations by back-propagating errors”, Nature no.323, pp. 533-536, 1986.P. Salamon, P. Paolo Sibani, and R. Frost, Facts, Conjectures and Improvements for Simulated Annealing. SIAM Monographs on Mathematical Modeling and Computation, 2002.E. C. Segura, A non parametric method for video camera calibration using a neural network, Int. Symp. Multi-Technology Information Processing, Hsinchu, Taiwan, 1996.E. C. Segura, Optimisation with Simulated Annealing through Regularisation of the Target Function, Proc. XII Congreso Arg. de Ciencias de la Computación, Potrero de los Funes, 2006.D. A. Sprecher, “On the Structure of Continuous Functions of Several Variables”, Tr. Am. Math. Soc., vol.115, pp. 340-355, 1963.433929https://revistascientificas.cuc.edu.co/ingecuc/article/download/4/73Núm. 2 , Año 2013 : (Julio - Diciembre)PublicationOREORE.xmltext/xml2625https://repositorio.cuc.edu.co/bitstreams/ec54da19-30df-41ee-b324-f1f4ec832a4c/download0f3aeea75c55a49cc14ed74c67d5a7c7MD5111323/11993oai:repositorio.cuc.edu.co:11323/119932024-09-17 14:23:15.889https://creativecommons.org/licenses/by-nc-sa/4.0/INGE CUC - 2014metadata.onlyhttps://repositorio.cuc.edu.coRepositorio de la Universidad de la Costa CUCrepdigital@cuc.edu.co