Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista

Este trabajo propone un modelo de atención visual para el análisis de escenas dinámicas que complementa el modelo de Itti & Koch (2000) [Itti L., & Koch C. (2000). A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 40, 1489-1506] modificado po...

Full description

Autores:
Ramírez Moreno, David Fernando
Tipo de recurso:
Article of journal
Fecha de publicación:
2011
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/11476
Acceso en línea:
http://hdl.handle.net/10614/11476
Palabra clave:
Redes neuronales (Computadores)
Neural networks (Computer science)
Atención visual
Mapa de prominencia
Prominencia de movimiento
Red neuronal
Color doble-oponente
Visual attention
saliency map
motion saliency
neural network
Color double-opponent
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_e35ca8e031c612fa8b50e9c2e5867def
oai_identifier_str oai:red.uao.edu.co:10614/11476
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
title Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
spellingShingle Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
Redes neuronales (Computadores)
Neural networks (Computer science)
Atención visual
Mapa de prominencia
Prominencia de movimiento
Red neuronal
Color doble-oponente
Visual attention
saliency map
motion saliency
neural network
Color double-opponent
title_short Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
title_full Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
title_fullStr Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
title_full_unstemmed Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
title_sort Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista
dc.creator.fl_str_mv Ramírez Moreno, David Fernando
dc.contributor.author.none.fl_str_mv Ramírez Moreno, David Fernando
dc.subject.armarc.spa.fl_str_mv Redes neuronales (Computadores)
topic Redes neuronales (Computadores)
Neural networks (Computer science)
Atención visual
Mapa de prominencia
Prominencia de movimiento
Red neuronal
Color doble-oponente
Visual attention
saliency map
motion saliency
neural network
Color double-opponent
dc.subject.armarc.eng.fl_str_mv Neural networks (Computer science)
dc.subject.proposal.spa.fl_str_mv Atención visual
Mapa de prominencia
Prominencia de movimiento
Red neuronal
Color doble-oponente
dc.subject.proposal.eng.fl_str_mv Visual attention
saliency map
motion saliency
neural network
Color double-opponent
description Este trabajo propone un modelo de atención visual para el análisis de escenas dinámicas que complementa el modelo de Itti & Koch (2000) [Itti L., & Koch C. (2000). A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 40, 1489-1506] modificado por de Brecht & Saiki (2006) [de Brecht, M. & Saiki J. (2006). A neural network implementation of a saliency map model. Neural network, 19, 1467-1474]. Este modelo incluye dos novedades principales: primero, el cómputo de la prominencia de movimiento por una red neuronal con dinámica realista y su respuesta en el tiempo; y segundo, para la etapa de extracción de características visuales primarias, el cálculo del mapa de color a partir del modelo de Itti & Koch (2000) con la inclusión de modelos de células rojo-cian y verde-magenta en el sistema estándar de color doble-oponente. Las respuestas transitorias de la red a objetos en movimiento así como el tiempo que le toma al sistema alcanzar el estado estable, se encuentra en un intervalo biológicamente plausible. Los mapas de color modificados produjeron mejores respuestas que los mapas de color reportados anteriormente en la literatura a una significancia estadística; en adición, la exactitud del modelo en la predicción de las fijaciones del ojo humano se incrementó
publishDate 2011
dc.date.issued.none.fl_str_mv 2011
dc.date.accessioned.none.fl_str_mv 2019-11-13T19:33:01Z
dc.date.available.none.fl_str_mv 2019-11-13T19:33:01Z
dc.type.spa.fl_str_mv Artículo de revista
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_2df8fbb1
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_6501
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/article
dc.type.redcol.eng.fl_str_mv http://purl.org/redcol/resource_type/ARTREF
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_6501
status_str publishedVersion
dc.identifier.citation.spa.fl_str_mv Ramírez Moreno, David Fernando; Ramírez Villegas, Juan Felipe. Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista. En: El hombre y la máquina. Número 36 (enero-junio, 2011); páginas 28-39
dc.identifier.issn.spa.fl_str_mv 01210777
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/10614/11476
identifier_str_mv Ramírez Moreno, David Fernando; Ramírez Villegas, Juan Felipe. Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista. En: El hombre y la máquina. Número 36 (enero-junio, 2011); páginas 28-39
01210777
url http://hdl.handle.net/10614/11476
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.spa.fl_str_mv El Hombre y la Máquina. Número 36 (enero-junio, 2011); páginas 28-39
dc.relation.citationendpage.none.fl_str_mv 39
dc.relation.citationissue.none.fl_str_mv 36
dc.relation.citationstartpage.none.fl_str_mv 28
dc.relation.cites.spa.fl_str_mv Ramírez Villegas, J. F., & Ramírez Moreno, D. F. (2011). Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista. El Hombre y la Máquina, (36), 28-39. http://hdl.handle.net/10614/11476
dc.relation.ispartofjournal.spa.fl_str_mv El hombre y la máquina
dc.relation.references.none.fl_str_mv Abbott, L F., Varela, J. A., Sen, K., & Nelson. S. B. (1997). Synaptic depression and cortical gain control. Science, 275, 220-224
[3] Burt, P J. (1988).Attention mechanisms for vision in dynamic world. Proceedings of the 9'h lnternational, Conference on Pattern Recognition. ISBN: 0-8186-0878-1, pp. 977-987
Burt, P J. (1988).Attention mechanisms for vision in dynamic world. Proceedings of the 9'h lnternational, Conference on Pattern Recognition. ISBN: 0-8186-0878-1, pp. 977-987
Chen, B. (2005). Mathematical models of motion detection in thefly's visual cortex. PhDT hesis, TexasTech University
De Brecht, M, & Saiki, J. (2006). A neural network imple­mentation of a saliency map model. Neural Networks, 19, 1467-1474
Desimone, R., & Duncan, J. (1995). Neural mechanisms of selective visual attention. Annu. Rev. Neurosci ., 18, 193-222
Fix, J., Rougier, N. &Alexandre, F (2010).A dynamic neural field approach to the covert and overt deployment of spatial attention. Cognitive Computation, 3, 279-293
Greenspan, H, Belongie, S., Goodman, R., Perona, P, Rak­shit, S., &Anderson, C. H (1994). Overcomplete Steerable Pyramid Filters and Rotation Invariance. Proc. IEEE Com­puter Vision and Pattern Recognition, 222-228
Ibbotson, M. (2001). Identification of mechanisms un­derlying motion detection in mammals. In Zanker JM & Zeil J (Eds.), Motion Vision - Computational, Neural and Ecological Constraints. Springer Verlag, Berlín Heidelberg NewYork
Itti, L., & Koch, C. (2000)A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 40, 1489-1506
Liu, T., Sun, J., Zheng, N. N., Tang X., & Shum, H Y. (2007). Learning to detect a salient object Proceedings ofIEEE Com­puter Society Conference on Computer and \lisian Pattern Recognition.
López, M. T., Fenández-Caballero, A., Fernández, M. A., Mira, J., Delgado, A. E. (2006). Motion fea tu res to enhance scene segmentation in active visual attention. Pattern Recog­nition Letters, 27, 469-478
Mita!, P K, Smith, T. J., Hill, R. L. & Henderson, J. M. (2011). Clustering of gaze during dynamic scene viewing is predicted by motion. Cognitive Computing, 3, 5-24
Navalpakkam, V, Itti, L (2002). A goal oriented attention guidance model. Lecture Notes in Computer Science, 2525, 453-461
Ramírez Villegas, J. F & Ramírez Moreno, D. F. (2010). Una revisión de modelos de atención visual bottom-up neurobioló­gicamente inspirados. El Hombre y la Máquina, 35, 143-152
Torralba,A., Castelhano, M.S., Oliva.A. & Henderson, J. M (2006). Contextual guidance of eye movements and attention in real-world scenes: the role of global features in object search. Psychol Rev, 113, 766-786
Tsodyks, M, Pawelzik, K, & Markram H (1998). Neural networks with dynamic synapses. Neural Computation, 10, 821-835
Walther, D. & Koch, C. (2006). Modeling attention to salient proto-objects. Neural Networks, 19, 1395-1407
Wolfe, J. M. (2001). Asymmetries in visual search: An intro­duction. Perception & Psychophysics, 63, 381-389
Wolfe, J., Butcher S. J., Lee, C., & Hyle, M. (2003). Changing your mind: On the contributions of Top-down and Bottom-up guidance in visual search for feature singletons. Journal of Experimental Psychology: Human Perception and Perfor­ mance, 29, 483-502
Yantis, S. (1993). Stimulus-driven attentional capture and attentional control settings. Journal ofExperimental Psycho­logy: Human Perception and Performance, 19, 676-681
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.eng.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 12 páginas
dc.coverage.spatial.none.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/49f33918-5d11-41a1-9669-0453fb3d83da/download
https://red.uao.edu.co/bitstreams/45c9c0ed-6fbf-471e-8507-aa776c47de0c/download
https://red.uao.edu.co/bitstreams/e3d9928c-5852-4ae3-b162-90c57b347bed/download
https://red.uao.edu.co/bitstreams/45391545-d3e4-48db-a3e3-fde52afffb21/download
https://red.uao.edu.co/bitstreams/28c4aa93-6864-4780-815c-df6cc631661a/download
https://red.uao.edu.co/bitstreams/e6762f96-93b9-487a-9865-eb679e23a786/download
https://red.uao.edu.co/bitstreams/41aae7bb-5961-4a8c-8165-80c01c748e0e/download
bitstream.checksum.fl_str_mv 433c68d6e7d4fd4c081c2d2a1edaa76d
433c68d6e7d4fd4c081c2d2a1edaa76d
7b5e6a3c010c7c38752adad945e102d5
7b5e6a3c010c7c38752adad945e102d5
4460e5956bc1d1639be9ae6146a50347
20b5ba22b1117f71589c7318baa2c560
048314db0aa7b4c9903b53ba7ac1200e
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814259899707686912
spelling Ramírez Moreno, David Fernandovirtual::4304-1Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2019-11-13T19:33:01Z2019-11-13T19:33:01Z2011Ramírez Moreno, David Fernando; Ramírez Villegas, Juan Felipe. Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista. En: El hombre y la máquina. Número 36 (enero-junio, 2011); páginas 28-3901210777http://hdl.handle.net/10614/11476Este trabajo propone un modelo de atención visual para el análisis de escenas dinámicas que complementa el modelo de Itti & Koch (2000) [Itti L., & Koch C. (2000). A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 40, 1489-1506] modificado por de Brecht & Saiki (2006) [de Brecht, M. & Saiki J. (2006). A neural network implementation of a saliency map model. Neural network, 19, 1467-1474]. Este modelo incluye dos novedades principales: primero, el cómputo de la prominencia de movimiento por una red neuronal con dinámica realista y su respuesta en el tiempo; y segundo, para la etapa de extracción de características visuales primarias, el cálculo del mapa de color a partir del modelo de Itti & Koch (2000) con la inclusión de modelos de células rojo-cian y verde-magenta en el sistema estándar de color doble-oponente. Las respuestas transitorias de la red a objetos en movimiento así como el tiempo que le toma al sistema alcanzar el estado estable, se encuentra en un intervalo biológicamente plausible. Los mapas de color modificados produjeron mejores respuestas que los mapas de color reportados anteriormente en la literatura a una significancia estadística; en adición, la exactitud del modelo en la predicción de las fijaciones del ojo humano se incrementóapplication/pdf12 páginasspaUniversidad Autónoma de OccidenteEl Hombre y la Máquina. Número 36 (enero-junio, 2011); páginas 28-39393628Ramírez Villegas, J. F., & Ramírez Moreno, D. F. (2011). Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista. El Hombre y la Máquina, (36), 28-39. http://hdl.handle.net/10614/11476El hombre y la máquinaAbbott, L F., Varela, J. A., Sen, K., & Nelson. S. B. (1997). Synaptic depression and cortical gain control. Science, 275, 220-224[3] Burt, P J. (1988).Attention mechanisms for vision in dynamic world. Proceedings of the 9'h lnternational, Conference on Pattern Recognition. ISBN: 0-8186-0878-1, pp. 977-987Burt, P J. (1988).Attention mechanisms for vision in dynamic world. Proceedings of the 9'h lnternational, Conference on Pattern Recognition. ISBN: 0-8186-0878-1, pp. 977-987Chen, B. (2005). Mathematical models of motion detection in thefly's visual cortex. PhDT hesis, TexasTech UniversityDe Brecht, M, & Saiki, J. (2006). A neural network imple­mentation of a saliency map model. Neural Networks, 19, 1467-1474Desimone, R., & Duncan, J. (1995). Neural mechanisms of selective visual attention. Annu. Rev. Neurosci ., 18, 193-222Fix, J., Rougier, N. &Alexandre, F (2010).A dynamic neural field approach to the covert and overt deployment of spatial attention. Cognitive Computation, 3, 279-293Greenspan, H, Belongie, S., Goodman, R., Perona, P, Rak­shit, S., &Anderson, C. H (1994). Overcomplete Steerable Pyramid Filters and Rotation Invariance. Proc. IEEE Com­puter Vision and Pattern Recognition, 222-228Ibbotson, M. (2001). Identification of mechanisms un­derlying motion detection in mammals. In Zanker JM & Zeil J (Eds.), Motion Vision - Computational, Neural and Ecological Constraints. Springer Verlag, Berlín Heidelberg NewYorkItti, L., & Koch, C. (2000)A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 40, 1489-1506Liu, T., Sun, J., Zheng, N. N., Tang X., & Shum, H Y. (2007). Learning to detect a salient object Proceedings ofIEEE Com­puter Society Conference on Computer and \lisian Pattern Recognition.López, M. T., Fenández-Caballero, A., Fernández, M. A., Mira, J., Delgado, A. E. (2006). Motion fea tu res to enhance scene segmentation in active visual attention. Pattern Recog­nition Letters, 27, 469-478Mita!, P K, Smith, T. J., Hill, R. L. & Henderson, J. M. (2011). Clustering of gaze during dynamic scene viewing is predicted by motion. Cognitive Computing, 3, 5-24Navalpakkam, V, Itti, L (2002). A goal oriented attention guidance model. Lecture Notes in Computer Science, 2525, 453-461Ramírez Villegas, J. F & Ramírez Moreno, D. F. (2010). Una revisión de modelos de atención visual bottom-up neurobioló­gicamente inspirados. El Hombre y la Máquina, 35, 143-152Torralba,A., Castelhano, M.S., Oliva.A. & Henderson, J. M (2006). Contextual guidance of eye movements and attention in real-world scenes: the role of global features in object search. Psychol Rev, 113, 766-786Tsodyks, M, Pawelzik, K, & Markram H (1998). Neural networks with dynamic synapses. Neural Computation, 10, 821-835Walther, D. & Koch, C. (2006). Modeling attention to salient proto-objects. Neural Networks, 19, 1395-1407Wolfe, J. M. (2001). Asymmetries in visual search: An intro­duction. Perception & Psychophysics, 63, 381-389Wolfe, J., Butcher S. J., Lee, C., & Hyle, M. (2003). Changing your mind: On the contributions of Top-down and Bottom-up guidance in visual search for feature singletons. Journal of Experimental Psychology: Human Perception and Perfor­ mance, 29, 483-502Yantis, S. (1993). Stimulus-driven attentional capture and attentional control settings. Journal ofExperimental Psycho­logy: Human Perception and Performance, 19, 676-681Derechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realistaArtículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articlehttp://purl.org/redcol/resource_type/ARTREFinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Redes neuronales (Computadores)Neural networks (Computer science)Atención visualMapa de prominenciaProminencia de movimientoRed neuronalColor doble-oponenteVisual attentionsaliency mapmotion saliencyneural networkColor double-opponentPublication61e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4304-161e20236-82c5-4dcc-b05c-0eaa9ac06b11virtual::4304-1https://scholar.google.com/citations?user=RTce1fkAAAAJ&hl=esvirtual::4304-10000-0003-2372-3554virtual::4304-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000353744virtual::4304-1TEXTA0166.pdf.txtA0166.pdf.txtExtracted texttext/plain39481https://red.uao.edu.co/bitstreams/49f33918-5d11-41a1-9669-0453fb3d83da/download433c68d6e7d4fd4c081c2d2a1edaa76dMD55A0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdf.txtA0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdf.txtExtracted texttext/plain39481https://red.uao.edu.co/bitstreams/45c9c0ed-6fbf-471e-8507-aa776c47de0c/download433c68d6e7d4fd4c081c2d2a1edaa76dMD57THUMBNAILA0166.pdf.jpgA0166.pdf.jpgGenerated Thumbnailimage/jpeg15450https://red.uao.edu.co/bitstreams/e3d9928c-5852-4ae3-b162-90c57b347bed/download7b5e6a3c010c7c38752adad945e102d5MD56A0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdf.jpgA0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdf.jpgGenerated Thumbnailimage/jpeg15450https://red.uao.edu.co/bitstreams/45391545-d3e4-48db-a3e3-fde52afffb21/download7b5e6a3c010c7c38752adad945e102d5MD58CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://red.uao.edu.co/bitstreams/28c4aa93-6864-4780-815c-df6cc631661a/download4460e5956bc1d1639be9ae6146a50347MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/e6762f96-93b9-487a-9865-eb679e23a786/download20b5ba22b1117f71589c7318baa2c560MD53ORIGINALA0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdfA0166_Desarrollo de la atención visual en escenas naturales: un modelo bottom-up basado en mapa de prominencia con dinámica realista.pdfTexto archivo completo del artículo de revista, PDFapplication/pdf1153313https://red.uao.edu.co/bitstreams/41aae7bb-5961-4a8c-8165-80c01c748e0e/download048314db0aa7b4c9903b53ba7ac1200eMD5410614/11476oai:red.uao.edu.co:10614/114762024-03-14 11:17:24.556https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K