HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA
ResumenEn este artículo se trata el agarre de objetos en robótica. Específicamente, agarres de precisión y la fuerza requerida en los puntos de contacto entre la mano y el objeto para realizar una buena sujeción. Se propone adquirir los datos de sensores de fuerza utilizando un guante de datos y cod...
- Autores:
-
Peña-Solórzano, Carlos Andrés
Hoyos-Gutiérrez, José Gabriel
Prieto-Ortiz, Flavio Augusto
- Tipo de recurso:
- Article of journal
- Fecha de publicación:
- 2015
- Institución:
- Universidad EIA .
- Repositorio:
- Repositorio EIA .
- Idioma:
- spa
- OAI Identifier:
- oai:repository.eia.edu.co:11190/4930
- Acceso en línea:
- https://repository.eia.edu.co/handle/11190/4930
https://revistas.eia.edu.co/index.php/reveia/article/view/722
- Palabra clave:
- agarre
robótica
aprendizaje por imitación
programación por demostración
fuerza
procesamiento de imágenes.
- Rights
- openAccess
- License
- Revista EIA - 2015
id |
REIA2_6ba0f2b746808cab92d1a83cc53b6323 |
---|---|
oai_identifier_str |
oai:repository.eia.edu.co:11190/4930 |
network_acronym_str |
REIA2 |
network_name_str |
Repositorio EIA . |
repository_id_str |
|
dc.title.spa.fl_str_mv |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
dc.title.translated.eng.fl_str_mv |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
title |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
spellingShingle |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA agarre robótica aprendizaje por imitación programación por demostración fuerza procesamiento de imágenes. |
title_short |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
title_full |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
title_fullStr |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
title_full_unstemmed |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
title_sort |
HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZA |
dc.creator.fl_str_mv |
Peña-Solórzano, Carlos Andrés Hoyos-Gutiérrez, José Gabriel Prieto-Ortiz, Flavio Augusto |
dc.contributor.author.spa.fl_str_mv |
Peña-Solórzano, Carlos Andrés Hoyos-Gutiérrez, José Gabriel Prieto-Ortiz, Flavio Augusto |
dc.subject.spa.fl_str_mv |
agarre robótica aprendizaje por imitación programación por demostración fuerza procesamiento de imágenes. |
topic |
agarre robótica aprendizaje por imitación programación por demostración fuerza procesamiento de imágenes. |
description |
ResumenEn este artículo se trata el agarre de objetos en robótica. Específicamente, agarres de precisión y la fuerza requerida en los puntos de contacto entre la mano y el objeto para realizar una buena sujeción. Se propone adquirir los datos de sensores de fuerza utilizando un guante de datos y codificándolos mediante aprendizaje por imitación. Se utilizan imágenes RGB y de profundidad para determinar la ubicación y orientación de los objetos. Se prueban varias configuraciones mano-objeto en simulación, comparando la calidad del agarre al utilizar las fuerzas máximas, mínimas y promedio truncado. La variación de la calidad obtenida es pequeña y en algunos casos despreciable, permitiendo concluir que al seleccionar siempre las fuerzas máximas, se obtiene un agarre que se ajusta bien a múltiples configuraciones. Además, se presenta un sistema de adquisición de datos de fuerza de bajo costo y una etapa de procesamiento de imágenes que permite determinar la ubicación y orientación de los objetos.AbstractThis article deals with robotic object grasping. Specifically, precision grasps and the strength required in the contact points between the hand and the object to obtain a good grip. We propose to acquire the data of force sensors us- ing a data glove and learning by imitation to encode it. RGB and depth images are used to determine objects location and orientation. Several hand-object configurations are simulated, comparing the grasp quality when maximum, minimum and truncated mean are used. The variation of grasp quality obtained is small and in some cases negligible, so we can conclude that by selecting the maximum grasping strength, we achieve a well-adjusted grasp to multiple configurations. Besides, we present a low cost strength acquisition system and an image processing stage which allows calculating the location and orientation of an object. ResumoEm este artigo, se fala sobre os objetos de aderência em robótica é. Especificamente, apertos de precisão e a força necessária nos pontos de contato entre a mão e o objeto para um ajuste perfeito. Propõe-se a aquisição de dados de sensores de força, usando uma luva de dados e codificando-os por aprendizagem de imitação. São utilizadas imagens RGB e de profundidade para determinar a localização e a orientação de objetos. São testadas várias configurações de mão-objeto em simulação através da comparação da qualidade de aderência ao usar a força máxima, média, e mínimo. A variação na qualidade obtida é pequena e, em alguns casos negligenciável, levando à conclusão de que selecionando sempre as forças máximas, é obtido um aperto que se encaixa bem com várias configurações. Além disso, um sistema de aquisição de dados de força de baixo custo e uma etapa de processamento de imagem para determinar a posição e orientação de objetos. |
publishDate |
2015 |
dc.date.accessioned.none.fl_str_mv |
2015-07-12 00:00:00 2022-06-17T20:18:40Z |
dc.date.available.none.fl_str_mv |
2015-07-12 00:00:00 2022-06-17T20:18:40Z |
dc.date.issued.none.fl_str_mv |
2015-07-12 |
dc.type.spa.fl_str_mv |
Artículo de revista |
dc.type.eng.fl_str_mv |
Journal article |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_2df8fbb1 |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_6501 http://purl.org/coar/resource_type/c_6501 |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/article |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/ARTREF |
dc.type.coarversion.spa.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
format |
http://purl.org/coar/resource_type/c_6501 |
status_str |
publishedVersion |
dc.identifier.issn.none.fl_str_mv |
1794-1237 |
dc.identifier.uri.none.fl_str_mv |
https://repository.eia.edu.co/handle/11190/4930 |
dc.identifier.eissn.none.fl_str_mv |
2463-0950 |
dc.identifier.url.none.fl_str_mv |
https://revistas.eia.edu.co/index.php/reveia/article/view/722 |
identifier_str_mv |
1794-1237 2463-0950 |
url |
https://repository.eia.edu.co/handle/11190/4930 https://revistas.eia.edu.co/index.php/reveia/article/view/722 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.bitstream.none.fl_str_mv |
https://revistas.eia.edu.co/index.php/reveia/article/download/722/690 |
dc.relation.citationedition.spa.fl_str_mv |
Núm. 23 , Año 2015 |
dc.relation.citationendpage.none.fl_str_mv |
82 |
dc.relation.citationissue.spa.fl_str_mv |
23 |
dc.relation.citationstartpage.none.fl_str_mv |
71 |
dc.relation.citationvolume.spa.fl_str_mv |
12 |
dc.relation.ispartofjournal.spa.fl_str_mv |
Revista EIA |
dc.rights.spa.fl_str_mv |
Revista EIA - 2015 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0 |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Revista EIA - 2015 https://creativecommons.org/licenses/by-nc-nd/4.0 http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Fondo Editorial EIA - Universidad EIA |
dc.source.spa.fl_str_mv |
https://revistas.eia.edu.co/index.php/reveia/article/view/722 |
institution |
Universidad EIA . |
bitstream.url.fl_str_mv |
https://repository.eia.edu.co/bitstreams/c6664049-f8f3-4f69-8cb9-3e506b0d7a03/download |
bitstream.checksum.fl_str_mv |
1c174a2152551214f1de2f68f568b137 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad EIA |
repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
_version_ |
1814100874813767680 |
spelling |
Peña-Solórzano, Carlos Andrés3a09d1570ce71b99db2db0b75e54d35b300Hoyos-Gutiérrez, José Gabriel16923eeed919dbe6ccc56b4ced4b050bPrieto-Ortiz, Flavio Augusto0542d41b7c9893375d7e64f41510cae72015-07-12 00:00:002022-06-17T20:18:40Z2015-07-12 00:00:002022-06-17T20:18:40Z2015-07-121794-1237https://repository.eia.edu.co/handle/11190/49302463-0950https://revistas.eia.edu.co/index.php/reveia/article/view/722ResumenEn este artículo se trata el agarre de objetos en robótica. Específicamente, agarres de precisión y la fuerza requerida en los puntos de contacto entre la mano y el objeto para realizar una buena sujeción. Se propone adquirir los datos de sensores de fuerza utilizando un guante de datos y codificándolos mediante aprendizaje por imitación. Se utilizan imágenes RGB y de profundidad para determinar la ubicación y orientación de los objetos. Se prueban varias configuraciones mano-objeto en simulación, comparando la calidad del agarre al utilizar las fuerzas máximas, mínimas y promedio truncado. La variación de la calidad obtenida es pequeña y en algunos casos despreciable, permitiendo concluir que al seleccionar siempre las fuerzas máximas, se obtiene un agarre que se ajusta bien a múltiples configuraciones. Además, se presenta un sistema de adquisición de datos de fuerza de bajo costo y una etapa de procesamiento de imágenes que permite determinar la ubicación y orientación de los objetos.AbstractThis article deals with robotic object grasping. Specifically, precision grasps and the strength required in the contact points between the hand and the object to obtain a good grip. We propose to acquire the data of force sensors us- ing a data glove and learning by imitation to encode it. RGB and depth images are used to determine objects location and orientation. Several hand-object configurations are simulated, comparing the grasp quality when maximum, minimum and truncated mean are used. The variation of grasp quality obtained is small and in some cases negligible, so we can conclude that by selecting the maximum grasping strength, we achieve a well-adjusted grasp to multiple configurations. Besides, we present a low cost strength acquisition system and an image processing stage which allows calculating the location and orientation of an object. ResumoEm este artigo, se fala sobre os objetos de aderência em robótica é. Especificamente, apertos de precisão e a força necessária nos pontos de contato entre a mão e o objeto para um ajuste perfeito. Propõe-se a aquisição de dados de sensores de força, usando uma luva de dados e codificando-os por aprendizagem de imitação. São utilizadas imagens RGB e de profundidade para determinar a localização e a orientação de objetos. São testadas várias configurações de mão-objeto em simulação através da comparação da qualidade de aderência ao usar a força máxima, média, e mínimo. A variação na qualidade obtida é pequena e, em alguns casos negligenciável, levando à conclusão de que selecionando sempre as forças máximas, é obtido um aperto que se encaixa bem com várias configurações. Além disso, um sistema de aquisição de dados de força de baixo custo e uma etapa de processamento de imagem para determinar a posição e orientação de objetos. ResumenEn este artículo se trata el agarre de objetos en robótica. Específicamente, agarres de precisión y la fuerza requerida en los puntos de contacto entre la mano y el objeto para realizar una buena sujeción. Se propone adquirir los datos de sensores de fuerza utilizando un guante de datos y codificándolos mediante aprendizaje por imitación. Se utilizan imágenes RGB y de profundidad para determinar la ubicación y orientación de los objetos. Se prueban varias configuraciones mano-objeto en simulación, comparando la calidad del agarre al utilizar las fuerzas máximas, mínimas y promedio truncado. La variación de la calidad obtenida es pequeña y en algunos casos despreciable, permitiendo concluir que al seleccionar siempre las fuerzas máximas, se obtiene un agarre que se ajusta bien a múltiples configuraciones. Además, se presenta un sistema de adquisición de datos de fuerza de bajo costo y una etapa de procesamiento de imágenes que permite determinar la ubicación y orientación de los objetos.AbstractThis article deals with robotic object grasping. Specifically, precision grasps and the strength required in the contact points between the hand and the object to obtain a good grip. We propose to acquire the data of force sensors us- ing a data glove and learning by imitation to encode it. RGB and depth images are used to determine objects location and orientation. Several hand-object configurations are simulated, comparing the grasp quality when maximum, minimum and truncated mean are used. The variation of grasp quality obtained is small and in some cases negligible, so we can conclude that by selecting the maximum grasping strength, we achieve a well-adjusted grasp to multiple configurations. Besides, we present a low cost strength acquisition system and an image processing stage which allows calculating the location and orientation of an object. ResumoEm este artigo, se fala sobre os objetos de aderência em robótica é. Especificamente, apertos de precisão e a força necessária nos pontos de contato entre a mão e o objeto para um ajuste perfeito. Propõe-se a aquisição de dados de sensores de força, usando uma luva de dados e codificando-os por aprendizagem de imitação. São utilizadas imagens RGB e de profundidade para determinar a localização e a orientação de objetos. São testadas várias configurações de mão-objeto em simulação através da comparação da qualidade de aderência ao usar a força máxima, média, e mínimo. A variação na qualidade obtida é pequena e, em alguns casos negligenciável, levando à conclusão de que selecionando sempre as forças máximas, é obtido um aperto que se encaixa bem com várias configurações. Além disso, um sistema de aquisição de dados de força de baixo custo e uma etapa de processamento de imagem para determinar a posição e orientação de objetos. application/pdfspaFondo Editorial EIA - Universidad EIARevista EIA - 2015https://creativecommons.org/licenses/by-nc-nd/4.0info:eu-repo/semantics/openAccessEsta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.http://purl.org/coar/access_right/c_abf2https://revistas.eia.edu.co/index.php/reveia/article/view/722agarrerobóticaaprendizaje por imitaciónprogramación por demostraciónfuerzaprocesamiento de imágenes.HACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZAHACIA EL AGARRE DE OBJETOS UTILIZANDO APRENDIZAJE ROBÓTICO POR IMITACIÓN Y DATOS DE FUERZAArtículo de revistaJournal articlehttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionTexthttp://purl.org/redcol/resource_type/ARTREFhttp://purl.org/coar/version/c_970fb48d4fbd8a85https://revistas.eia.edu.co/index.php/reveia/article/download/722/690Núm. 23 , Año 201582237112Revista EIAPublicationOREORE.xmltext/xml2693https://repository.eia.edu.co/bitstreams/c6664049-f8f3-4f69-8cb9-3e506b0d7a03/download1c174a2152551214f1de2f68f568b137MD5111190/4930oai:repository.eia.edu.co:11190/49302023-07-25 16:46:28.951https://creativecommons.org/licenses/by-nc-nd/4.0Revista EIA - 2015metadata.onlyhttps://repository.eia.edu.coRepositorio Institucional Universidad EIAbdigital@metabiblioteca.com |