Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales

El modelo de atención visual bottom-up propuesto por Itti et al., 2000 [1], ha sido un modelo popular en tantoexhibe cierta evidencia neurobiológica de la visión en primates. Este trabajo complementa el modelo computacional de este fenómeno desde la dinámica realista de una red neuronal. Asimismo, e...

Full description

Autores:
Ramírez Moreno, David Fernando
Ramírez Villegas, Juan Felipe
Tipo de recurso:
Article of journal
Fecha de publicación:
2011
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/12063
Acceso en línea:
http://red.uao.edu.co//handle/10614/12063
Palabra clave:
Neurobiología computacional
Visión
Sistema visual
Computational neurobiology
Visual system
Rights
openAccess
License
Derechos Reservados - Universidad de los Andes, 2011
id REPOUAO2_41b37aab20ba1c649738dbc9b619bc59
oai_identifier_str oai:red.uao.edu.co:10614/12063
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
dc.title.alternative.eng.fl_str_mv A computational implementation of a bottom-up visual attention model applied to natural scenes
title Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
spellingShingle Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
Neurobiología computacional
Visión
Sistema visual
Computational neurobiology
Visual system
title_short Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
title_full Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
title_fullStr Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
title_full_unstemmed Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
title_sort Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales
dc.creator.fl_str_mv Ramírez Moreno, David Fernando
Ramírez Villegas, Juan Felipe
dc.contributor.author.none.fl_str_mv Ramírez Moreno, David Fernando
Ramírez Villegas, Juan Felipe
dc.subject.proposal.spa.fl_str_mv Neurobiología computacional
Visión
Sistema visual
topic Neurobiología computacional
Visión
Sistema visual
Computational neurobiology
Visual system
dc.subject.proposal.eng.fl_str_mv Computational neurobiology
Visual system
description El modelo de atención visual bottom-up propuesto por Itti et al., 2000 [1], ha sido un modelo popular en tantoexhibe cierta evidencia neurobiológica de la visión en primates. Este trabajo complementa el modelo computacional de este fenómeno desde la dinámica realista de una red neuronal. Asimismo, esta aproximación se basa la prominencia de los objetos del campo visual para la formación de una representación general (mapa de prominencia), esta representación es la entrada de una red neuronal dinámica con interacciones locales y globales de colaboración y competencia que convergen sobre las principales particularidades (objetos) de la escena
publishDate 2011
dc.date.issued.none.fl_str_mv 2011-11-18
dc.date.accessioned.none.fl_str_mv 2020-03-06T21:20:53Z
dc.date.available.none.fl_str_mv 2020-03-06T21:20:53Z
dc.type.spa.fl_str_mv Artículo de revista
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_2df8fbb1
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_6501
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/article
dc.type.redcol.eng.fl_str_mv http://purl.org/redcol/resource_type/ARTREF
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_6501
status_str publishedVersion
dc.identifier.issn.spa.fl_str_mv 0121-4993
dc.identifier.uri.none.fl_str_mv http://red.uao.edu.co//handle/10614/12063
dc.identifier.doi.eng.fl_str_mv DOI: http://dx.doi.org/10.16924%2Friua.v0i35.140
identifier_str_mv 0121-4993
DOI: http://dx.doi.org/10.16924%2Friua.v0i35.140
url http://red.uao.edu.co//handle/10614/12063
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.spa.fl_str_mv Revista de Ingeniería. Número 35, (julio-diciembre 2011); p.p. 6-11
dc.relation.citationendpage.none.fl_str_mv 11
dc.relation.citationissue.none.fl_str_mv 35
dc.relation.citationstartpage.none.fl_str_mv 6
dc.relation.cites.spa.fl_str_mv Ramírez Moreno, D. F., Ramírez Villegas, J.F. (2011). Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales. Revista de Ingeniería. (35), 6-11. http://red.uao.edu.co//handle/10614/12063
dc.relation.ispartofjournal.spa.fl_str_mv Revista de Ingeniería
dc.relation.references.none.fl_str_mv L. Itti, C. Koch. “A saliency-based search mechanism for overt and covert shifts of visual attention”. Vision Research, Vol. 40, 2000, pp. 1489–1506
J.E. Hoffman. “Search through a sequentially presented visual display”. Perception & Psychophysics, Vol. 23, 1978, pp. 1-11.
H.R. Wilson. “Computation by excitatory and inhibitory networks”. In Spikes, Decisions and Actions: The Dynamical Foundations of Neuroscience. H.R. Wilson (ed.). Oxford University Press, 2004, pp. 89-115
R.J. Peters, A. Iyer, L. Itti, C. Koch. “Components of bottom-up gaze allocation in natural images”. Vision Research, Vol. 45, 2005, pp. 2397-2416
P.J. Burt. “Attention Mechanisms for vision in a dynamic world”. Proceedings of 9th International Conference on Pattern Recognition, 1988, pp. 977-987
M. DeBrecht, J. Saiki. “A neural network implementation of a saliency map model”. Neural Networks, Vol. 19, 2006, pp. 1467–1474
D. Gao, V. Mahadevan, N. Vasconcelos. “The discriminant center-surround hypothesis for bottom-up saliency”. Proceedings of Neural Information Processing Systems, Vancouver, Canada, 2007.
S.J. Park, K.H. An, M. Lee. “Saliency map model with adaptive masking based on independent component analysis”. Neurocomputing, Vol. 49, 2002, pp. 417-422
B.R. Conway. “Spatial structure of cone inputs to color cells in alert macaque primary visual cortex (V-1)”. The Journal of Neuroscience, Vol. 21, 2004, pp. 2768-2783
P.J. Burt, E. H. Adelson. “The Laplacian pyramid as a compact image code”. IEEE Trans. Com., Vol. 31, 1983, pp. 532-540.
H. Greenspan, S. Belongie, R. Goodman, P. Perona, S. Rakshit, C. H. Anderson. “Overcomplete Steerable Pyramid Filters and Rotation Invariance”. Proc. IEEE Computer Vision and Pattern Recognition, 1994, pp.222-228.
S.L. Macknik, S. Martinez Conde. “The role of feedback in visual attention and awareness”. Cognitive Neurosciences, Ed. Gazzinga, MIT Press, 2009.
T. Liu, J. Sun, N.N. Zheng, X. Tang, H.Y. Shum. “Learning to detect a salient object”. In: Proceedings of IEEE Computer Society Conference on Computer and Vision Pattern Recognition, 2007.
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad de los Andes, 2011
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad de los Andes, 2011
https://creativecommons.org/licenses/by-nc/4.0/
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.eng.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 6 páginas
dc.coverage.spatial.none.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad de los Andes
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/7089546c-05b9-4356-82f8-54e76601b13a/download
https://red.uao.edu.co/bitstreams/fb6d6dd3-c9db-4d56-8014-16f5e5be8f54/download
https://red.uao.edu.co/bitstreams/78bd09d9-5e8b-4d29-9d76-9ca5334474a8/download
https://red.uao.edu.co/bitstreams/0d3fc297-4a2d-4a0c-bba4-88a1fc559a1c/download
bitstream.checksum.fl_str_mv 20b5ba22b1117f71589c7318baa2c560
66bfcd3e3f6e7e123cabed7acf40c004
be3047c0b334024d06e4d51d07e37454
5b1c38c81d803019852e5fa5f39e353f
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814259840665518080
spelling Ramírez Moreno, David Fernandovirtual::4343-1Ramírez Villegas, Juan Felipe4816e23de77a8baebc7c8fe57d11a22aUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-03-06T21:20:53Z2020-03-06T21:20:53Z2011-11-180121-4993http://red.uao.edu.co//handle/10614/12063DOI: http://dx.doi.org/10.16924%2Friua.v0i35.140El modelo de atención visual bottom-up propuesto por Itti et al., 2000 [1], ha sido un modelo popular en tantoexhibe cierta evidencia neurobiológica de la visión en primates. Este trabajo complementa el modelo computacional de este fenómeno desde la dinámica realista de una red neuronal. Asimismo, esta aproximación se basa la prominencia de los objetos del campo visual para la formación de una representación general (mapa de prominencia), esta representación es la entrada de una red neuronal dinámica con interacciones locales y globales de colaboración y competencia que convergen sobre las principales particularidades (objetos) de la escenaThe bottom-up visual attention model proposed by Itti et al. 2000 [1], has been a popular model since it exhibits certain neurobiological evidence of primates’ vision. This work complements the computational model of this phenomenon using a neural network with realistic dynamics. This approximation is based on several topographical maps representing the objects saliency that construct a general representation (saliency map), which is the input for a dynamic neural network, whose local and global collaborative and competitive interactions converge to the main particularities (objects) presented by the visual scene as wellapplication/pdf6 páginasspaUniversidad de los AndesRevista de Ingeniería. Número 35, (julio-diciembre 2011); p.p. 6-1111356Ramírez Moreno, D. F., Ramírez Villegas, J.F. (2011). Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturales. Revista de Ingeniería. (35), 6-11. http://red.uao.edu.co//handle/10614/12063Revista de IngenieríaL. Itti, C. Koch. “A saliency-based search mechanism for overt and covert shifts of visual attention”. Vision Research, Vol. 40, 2000, pp. 1489–1506J.E. Hoffman. “Search through a sequentially presented visual display”. Perception & Psychophysics, Vol. 23, 1978, pp. 1-11.H.R. Wilson. “Computation by excitatory and inhibitory networks”. In Spikes, Decisions and Actions: The Dynamical Foundations of Neuroscience. H.R. Wilson (ed.). Oxford University Press, 2004, pp. 89-115R.J. Peters, A. Iyer, L. Itti, C. Koch. “Components of bottom-up gaze allocation in natural images”. Vision Research, Vol. 45, 2005, pp. 2397-2416P.J. Burt. “Attention Mechanisms for vision in a dynamic world”. Proceedings of 9th International Conference on Pattern Recognition, 1988, pp. 977-987M. DeBrecht, J. Saiki. “A neural network implementation of a saliency map model”. Neural Networks, Vol. 19, 2006, pp. 1467–1474D. Gao, V. Mahadevan, N. Vasconcelos. “The discriminant center-surround hypothesis for bottom-up saliency”. Proceedings of Neural Information Processing Systems, Vancouver, Canada, 2007.S.J. Park, K.H. An, M. Lee. “Saliency map model with adaptive masking based on independent component analysis”. Neurocomputing, Vol. 49, 2002, pp. 417-422B.R. Conway. “Spatial structure of cone inputs to color cells in alert macaque primary visual cortex (V-1)”. The Journal of Neuroscience, Vol. 21, 2004, pp. 2768-2783P.J. Burt, E. H. Adelson. “The Laplacian pyramid as a compact image code”. IEEE Trans. Com., Vol. 31, 1983, pp. 532-540.H. Greenspan, S. Belongie, R. Goodman, P. Perona, S. Rakshit, C. H. Anderson. “Overcomplete Steerable Pyramid Filters and Rotation Invariance”. Proc. IEEE Computer Vision and Pattern Recognition, 1994, pp.222-228.S.L. Macknik, S. Martinez Conde. “The role of feedback in visual attention and awareness”. Cognitive Neurosciences, Ed. Gazzinga, MIT Press, 2009.T. Liu, J. Sun, N.N. Zheng, X. Tang, H.Y. Shum. “Learning to detect a salient object”. In: Proceedings of IEEE Computer Society Conference on Computer and Vision Pattern Recognition, 2007.Derechos Reservados - Universidad de los Andes, 2011https://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)http://purl.org/coar/access_right/c_abf2Una implementación computacional de un modelo de atención visual Bottom-up aplicado a escenas naturalesA computational implementation of a bottom-up visual attention model applied to natural scenesArtículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articlehttp://purl.org/redcol/resource_type/ARTREFinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Neurobiología computacionalVisiónSistema visualComputational neurobiologyVisual systemPublication61e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4343-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4343-1https://scholar.google.com/citations?user=RTce1fkAAAAJ&hl=esvirtual::4343-10000-0003-2372-3554virtual::4343-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000353744virtual::4343-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/7089546c-05b9-4356-82f8-54e76601b13a/download20b5ba22b1117f71589c7318baa2c560MD52ORIGINALUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdfUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdfapplication/pdf161102https://red.uao.edu.co/bitstreams/fb6d6dd3-c9db-4d56-8014-16f5e5be8f54/download66bfcd3e3f6e7e123cabed7acf40c004MD53TEXTUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdf.txtUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdf.txtExtracted texttext/plain23272https://red.uao.edu.co/bitstreams/78bd09d9-5e8b-4d29-9d76-9ca5334474a8/downloadbe3047c0b334024d06e4d51d07e37454MD54THUMBNAILUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdf.jpgUna implementación computacional de un modelo de atención visual bottom-up aplicado a escenas naturales.pdf.jpgGenerated Thumbnailimage/jpeg14893https://red.uao.edu.co/bitstreams/0d3fc297-4a2d-4a0c-bba4-88a1fc559a1c/download5b1c38c81d803019852e5fa5f39e353fMD5510614/12063oai:red.uao.edu.co:10614/120632024-03-13 16:56:42.864https://creativecommons.org/licenses/by-nc/4.0/Derechos Reservados - Universidad de los Andes, 2011open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K