On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm
Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basad...
- Autores:
-
Segura, Enrique Carlos
- Tipo de recurso:
- Article of journal
- Fecha de publicación:
- 2013
- Institución:
- Corporación Universidad de la Costa
- Repositorio:
- REDICUC - Repositorio CUC
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.cuc.edu.co:11323/11993
- Acceso en línea:
- https://hdl.handle.net/11323/11993
https://revistascientificas.cuc.edu.co/ingecuc/article/view/4
- Palabra clave:
- Red neuronal
Manipulador robótico
Perceptrón multicapa
Aprendizaje estocástico
Dinámica inversa.
- Rights
- openAccess
- License
- INGE CUC - 2014
id |
RCUC2_4a7bb903cbd219f8cce2c1369e6324f8 |
---|---|
oai_identifier_str |
oai:repositorio.cuc.edu.co:11323/11993 |
network_acronym_str |
RCUC2 |
network_name_str |
REDICUC - Repositorio CUC |
repository_id_str |
|
dc.title.spa.fl_str_mv |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
dc.title.translated.eng.fl_str_mv |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
title |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
spellingShingle |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm Red neuronal Manipulador robótico Perceptrón multicapa Aprendizaje estocástico Dinámica inversa. |
title_short |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
title_full |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
title_fullStr |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
title_full_unstemmed |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
title_sort |
On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm |
dc.creator.fl_str_mv |
Segura, Enrique Carlos |
dc.contributor.author.spa.fl_str_mv |
Segura, Enrique Carlos |
dc.subject.spa.fl_str_mv |
Red neuronal Manipulador robótico Perceptrón multicapa Aprendizaje estocástico Dinámica inversa. |
topic |
Red neuronal Manipulador robótico Perceptrón multicapa Aprendizaje estocástico Dinámica inversa. |
description |
Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basada en tres elementos esenciales: a) actualización de los pesos de la red por medio de información del gradiente de la función de costo; b) aceptación o rechazo del cambio propuesto por una técnica de recocido simulado (simulated annealing) clásica; y c) crecimiento progresivo de la red neuronal, en la medida en que su estructura resulta insuficiente, usando una estrategia conservadora para agregar unidades a la capa oculta. Se realizan experimentos y se analiza la eficiencia en términos de la relación entre error relativo medio -en los conjuntos de entrenamiento y de testeo-, tamaño de la red y tiempos de cómputo. Se hace énfasis en la habilidad de la técnica propuesta para obtener buenas aproximaciones, minimizando la complejidad de la arquitectura de la red y, por lo tanto, la memoria computacional requerida. Además, se discute la evolución del proceso de minimización a medida que la superficie de costo se modifica. Palabras clave: red neuronal, manipulador robótico, perceptrón multicapa, aprendizaje estocástico, dinámica inversa. |
publishDate |
2013 |
dc.date.accessioned.none.fl_str_mv |
2013-06-03 00:00:00 2024-04-09T20:12:28Z |
dc.date.available.none.fl_str_mv |
2013-06-03 00:00:00 2024-04-09T20:12:28Z |
dc.date.issued.none.fl_str_mv |
2013-06-03 |
dc.type.spa.fl_str_mv |
Artículo de revista |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_6501 http://purl.org/coar/resource_type/c_2df8fbb1 |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/article |
dc.type.local.eng.fl_str_mv |
Journal article |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/ART |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.coarversion.spa.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
format |
http://purl.org/coar/resource_type/c_6501 |
status_str |
publishedVersion |
dc.identifier.issn.none.fl_str_mv |
0122-6517 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/11323/11993 |
dc.identifier.url.none.fl_str_mv |
https://revistascientificas.cuc.edu.co/ingecuc/article/view/4 |
dc.identifier.eissn.none.fl_str_mv |
2382-4700 |
identifier_str_mv |
0122-6517 2382-4700 |
url |
https://hdl.handle.net/11323/11993 https://revistascientificas.cuc.edu.co/ingecuc/article/view/4 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.ispartofjournal.spa.fl_str_mv |
Inge Cuc |
dc.relation.references.spa.fl_str_mv |
V. I. Arnold, “On Functions of three Variables”, Dokl. Akad. Nauk, no.114, pp. 679-681, 1957. G. Cybenko, “Approximation by superpositions of a sigmoidal function”, Math. Control, Signals and Systems, vol.2, no.4, pp. 303-314, 1989. K. Funahashi, “On the approximate realization of continuous mappings by neural networks”, Neural Networks, vol.2, no.3, pp. 183-92, 1989. S. Haykin, Neural Networks and Learning Machines. Upper Saddle River, Pearson-Prentice Hall, 2009. Y. Ito, “Extension of Approximation Capability of Three Layered Neural Networks to Derivatives”, Proc. IEEE Int. Conf. Neural Networks, San Francisco, 1993, pp. 377-381. S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing”, Science, vol. 220, pp. 671-680, 1983. A. N. Kolmogorov, On the Representation of Functions of Many Variables by Superposition of Continuous Functions of one Variable and Addition (1957), Am. Math. Soc. Tr., vol.28, pp. 55-59, 1963. P. J. Van Laarhoven and E. H. Aarts, Simulated Annealing: Theory and Applications. Dordrech: Kluwer, 2010. M. Leshno, V. Y. Lin, A. Pinkus and S. Schocken, “Multilayer Feedforward Networks with a Nonpolynomial Activation Function Can Approximate Any Function”, Neural Networks, vol.6, no 6, pp. 861-867, 1993. A. B. Martínez, R. M. Planas, and E. C. Segura, “Disposición anular de cámaras sobre un robot móvil”, en Actas XVII Jornadas de Automática Santander96, Santander, 1996. N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. H. Teller, and E. Teller, “Equation of State Calculations by Fast Computing Machines”, J. Chem. Phys, vol. 21, no 6, pp. 1087-91, 1953. D. E. Rumelhart, G. E Hinton, and R. J. Williams, “Learning representations by back-propagating errors”, Nature no.323, pp. 533-536, 1986. P. Salamon, P. Paolo Sibani, and R. Frost, Facts, Conjectures and Improvements for Simulated Annealing. SIAM Monographs on Mathematical Modeling and Computation, 2002. E. C. Segura, A non parametric method for video camera calibration using a neural network, Int. Symp. Multi-Technology Information Processing, Hsinchu, Taiwan, 1996. E. C. Segura, Optimisation with Simulated Annealing through Regularisation of the Target Function, Proc. XII Congreso Arg. de Ciencias de la Computación, Potrero de los Funes, 2006. D. A. Sprecher, “On the Structure of Continuous Functions of Several Variables”, Tr. Am. Math. Soc., vol.115, pp. 340-355, 1963. |
dc.relation.citationendpage.none.fl_str_mv |
43 |
dc.relation.citationstartpage.none.fl_str_mv |
39 |
dc.relation.citationissue.spa.fl_str_mv |
2 |
dc.relation.citationvolume.spa.fl_str_mv |
9 |
dc.relation.bitstream.none.fl_str_mv |
https://revistascientificas.cuc.edu.co/ingecuc/article/download/4/73 |
dc.relation.citationedition.spa.fl_str_mv |
Núm. 2 , Año 2013 : (Julio - Diciembre) |
dc.rights.spa.fl_str_mv |
INGE CUC - 2014 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
INGE CUC - 2014 https://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad de la Costa |
dc.source.spa.fl_str_mv |
https://revistascientificas.cuc.edu.co/ingecuc/article/view/4 |
institution |
Corporación Universidad de la Costa |
bitstream.url.fl_str_mv |
https://repositorio.cuc.edu.co/bitstreams/ec54da19-30df-41ee-b324-f1f4ec832a4c/download |
bitstream.checksum.fl_str_mv |
0f3aeea75c55a49cc14ed74c67d5a7c7 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 |
repository.name.fl_str_mv |
Repositorio de la Universidad de la Costa CUC |
repository.mail.fl_str_mv |
repdigital@cuc.edu.co |
_version_ |
1828166894739259392 |
spelling |
Segura, Enrique Carlos2013-06-03 00:00:002024-04-09T20:12:28Z2013-06-03 00:00:002024-04-09T20:12:28Z2013-06-030122-6517https://hdl.handle.net/11323/11993https://revistascientificas.cuc.edu.co/ingecuc/article/view/42382-4700Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basada en tres elementos esenciales: a) actualización de los pesos de la red por medio de información del gradiente de la función de costo; b) aceptación o rechazo del cambio propuesto por una técnica de recocido simulado (simulated annealing) clásica; y c) crecimiento progresivo de la red neuronal, en la medida en que su estructura resulta insuficiente, usando una estrategia conservadora para agregar unidades a la capa oculta. Se realizan experimentos y se analiza la eficiencia en términos de la relación entre error relativo medio -en los conjuntos de entrenamiento y de testeo-, tamaño de la red y tiempos de cómputo. Se hace énfasis en la habilidad de la técnica propuesta para obtener buenas aproximaciones, minimizando la complejidad de la arquitectura de la red y, por lo tanto, la memoria computacional requerida. Además, se discute la evolución del proceso de minimización a medida que la superficie de costo se modifica. Palabras clave: red neuronal, manipulador robótico, perceptrón multicapa, aprendizaje estocástico, dinámica inversa.application/pdfspaUniversidad de la CostaINGE CUC - 2014https://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2https://revistascientificas.cuc.edu.co/ingecuc/article/view/4Red neuronalManipulador robóticoPerceptrón multicapaAprendizaje estocásticoDinámica inversa.On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithmOn the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithmArtículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articleJournal articlehttp://purl.org/redcol/resource_type/ARTinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Inge CucV. I. Arnold, “On Functions of three Variables”, Dokl. Akad. Nauk, no.114, pp. 679-681, 1957.G. Cybenko, “Approximation by superpositions of a sigmoidal function”, Math. Control, Signals and Systems, vol.2, no.4, pp. 303-314, 1989.K. Funahashi, “On the approximate realization of continuous mappings by neural networks”, Neural Networks, vol.2, no.3, pp. 183-92, 1989.S. Haykin, Neural Networks and Learning Machines. Upper Saddle River, Pearson-Prentice Hall, 2009.Y. Ito, “Extension of Approximation Capability of Three Layered Neural Networks to Derivatives”, Proc. IEEE Int. Conf. Neural Networks, San Francisco, 1993, pp. 377-381.S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing”, Science, vol. 220, pp. 671-680, 1983.A. N. Kolmogorov, On the Representation of Functions of Many Variables by Superposition of Continuous Functions of one Variable and Addition (1957), Am. Math. Soc. Tr., vol.28, pp. 55-59, 1963.P. J. Van Laarhoven and E. H. Aarts, Simulated Annealing: Theory and Applications. Dordrech: Kluwer, 2010.M. Leshno, V. Y. Lin, A. Pinkus and S. Schocken, “Multilayer Feedforward Networks with a Nonpolynomial Activation Function Can Approximate Any Function”, Neural Networks, vol.6, no 6, pp. 861-867, 1993.A. B. Martínez, R. M. Planas, and E. C. Segura, “Disposición anular de cámaras sobre un robot móvil”, en Actas XVII Jornadas de Automática Santander96, Santander, 1996.N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. H. Teller, and E. Teller, “Equation of State Calculations by Fast Computing Machines”, J. Chem. Phys, vol. 21, no 6, pp. 1087-91, 1953.D. E. Rumelhart, G. E Hinton, and R. J. Williams, “Learning representations by back-propagating errors”, Nature no.323, pp. 533-536, 1986.P. Salamon, P. Paolo Sibani, and R. Frost, Facts, Conjectures and Improvements for Simulated Annealing. SIAM Monographs on Mathematical Modeling and Computation, 2002.E. C. Segura, A non parametric method for video camera calibration using a neural network, Int. Symp. Multi-Technology Information Processing, Hsinchu, Taiwan, 1996.E. C. Segura, Optimisation with Simulated Annealing through Regularisation of the Target Function, Proc. XII Congreso Arg. de Ciencias de la Computación, Potrero de los Funes, 2006.D. A. Sprecher, “On the Structure of Continuous Functions of Several Variables”, Tr. Am. Math. Soc., vol.115, pp. 340-355, 1963.433929https://revistascientificas.cuc.edu.co/ingecuc/article/download/4/73Núm. 2 , Año 2013 : (Julio - Diciembre)PublicationOREORE.xmltext/xml2625https://repositorio.cuc.edu.co/bitstreams/ec54da19-30df-41ee-b324-f1f4ec832a4c/download0f3aeea75c55a49cc14ed74c67d5a7c7MD5111323/11993oai:repositorio.cuc.edu.co:11323/119932024-09-17 14:23:15.889https://creativecommons.org/licenses/by-nc-sa/4.0/INGE CUC - 2014metadata.onlyhttps://repositorio.cuc.edu.coRepositorio de la Universidad de la Costa CUCrepdigital@cuc.edu.co |