Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales

Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibl...

Full description

Autores:
Reinach-Baumgartner, Christian David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2022
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/56221
Acceso en línea:
http://hdl.handle.net/1992/56221
Palabra clave:
Information theory
Probability
Probabilidad
Teoría de información
Teoría de la medida
Measure theory
Functional analysis
Análisis funcional
Canal gaussiano
Shannon
Entropía
Entropy
Teoría de la medida
Flujos (Sistemas dinámicos diferenciales)
Probabilidades
Entropía
Matemáticas
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-sa/4.0/
id UNIANDES2_2ae9407e3617a6838b544b0118bbaf52
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/56221
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.none.fl_str_mv Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
title Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
spellingShingle Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
Information theory
Probability
Probabilidad
Teoría de información
Teoría de la medida
Measure theory
Functional analysis
Análisis funcional
Canal gaussiano
Shannon
Entropía
Entropy
Teoría de la medida
Flujos (Sistemas dinámicos diferenciales)
Probabilidades
Entropía
Matemáticas
title_short Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
title_full Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
title_fullStr Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
title_full_unstemmed Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
title_sort Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
dc.creator.fl_str_mv Reinach-Baumgartner, Christian David
dc.contributor.advisor.none.fl_str_mv Hoegele, Michael Anton
dc.contributor.author.none.fl_str_mv Reinach-Baumgartner, Christian David
dc.contributor.jury.none.fl_str_mv Junca Peláez, Mauricio José
dc.subject.keyword.none.fl_str_mv Information theory
Probability
Probabilidad
Teoría de información
Teoría de la medida
Measure theory
Functional analysis
Análisis funcional
Canal gaussiano
Shannon
Entropía
Entropy
topic Information theory
Probability
Probabilidad
Teoría de información
Teoría de la medida
Measure theory
Functional analysis
Análisis funcional
Canal gaussiano
Shannon
Entropía
Entropy
Teoría de la medida
Flujos (Sistemas dinámicos diferenciales)
Probabilidades
Entropía
Matemáticas
dc.subject.armarc.none.fl_str_mv Teoría de la medida
Flujos (Sistemas dinámicos diferenciales)
Probabilidades
Entropía
dc.subject.themes.es_CO.fl_str_mv Matemáticas
description Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibler}, la cual permite establecer ciertas propiedades útiles de la entropía para el caso de variables aleatorias absolutamente continuas, y es intepretada como una especie de medida de ``distancia'' entre dos densidades de probabiidad; aunque en un sentido estricto, ésta no define una métrica. Además, se añade un apéndice que expone el concepto de entropía binaria; describe algunos problemas matemáticos asociados a la entropía para variables aleatorias continuas, así como una relación que permite trabajar con los conceptos usados en el resto del documento. En el mismo apéndice se añade, en sentido estético, una relación entre la entropía del caso continuo, y la información de Fisher. Aunque la teoría de la información (en conjunto con la teoría de análisis de señales) estudia los canales que reciben cualquier tipo de señales, el caso más general es cuando reciben señales de amplitud continua, bien sean continuas en el tiempo, bien sean discretas en el tiempo. Y, entre todos los canales que reciben señales de amplitud continua, el modelo de un canal \textit{gaussiano} es el más importante. Así, El tercer capítulo (§3) describe la construcción de un canal gaussiano discreto en el tiempo, que se modela con un output $Y_i=X_i+Z_i$ en tiempo $i=1,...,n$, donde $X_i$ es el input, y $Z_i\sim \mathcal{N}(0,N)$ (véase Fig. \ref{Fig. 2}). Una vez dado eso, se continúa directamente al \textit{teorema de capacidad} para un canal gaussiano discreto en el tiempo: El cual indica, en sentido intuitivo, el mayor valor al que puede aproximarse la tasa de transmisión de información a través del canal, de modo que exista una manera de codificar el mensaje original, y la probabilidad de que este sea transmitido con distorsión sea nula. En el cuarto capítulo (§4) se desarrolla la teoría asociada a procesos gaussianos, estableciéndose el concepto de estos procesos y variadas propiedades que serán de vital importancia para el desarrollo del cuarto capítulo. En partícular, se describen los conceptos de estacionariedad, ergodicidad y se construye la \textit{densidad espectral de potencia}. Esta última, junto al concepto de \textit{autocorrelación}, constituyen el eje central de la teoría de operadores integrales necesaria para generar una asociación entre los canales gaussianos discretos en el tiempo con aquellos continuos. En el quinto capítulo (§5) se construye un canal gaussiano continuo en el tiempo, en el cual la función input (o señal) $\alpha(t)$ es continua en el tiempo y se restringe a un intervalo, dígase $\left[\frac{-\tau}{2}, \frac{\tau}{2}\right]$, de longitud $\tau$. El output del canal se dará por $\alpha(t)+\eta(t)$ donde $\eta(t)$ es un proceso gaussiano estacionario restringido al mismo intervalo (véase Fig. \ref{Fig. 2}). Esta última construcción se da por las limitaciones físicas de un canal en la vida real. Además, el tiempo acá es tomado en un sentido más general que no se define en una dirección en la recta real (como el intervalo $[0,\tau]$ o $[0,\infty)$). La teoría desarrollada en el capítulo §\ref{chap:preliminares}, permitirá observar un canal gaussiano continuo en el tiempo como una generalización de un canal gaussiano discreto. En particular, el uso de la función autocorrelación (como transformada inversa de Fourier de la densidad espectral de potencia) indicará la posibilidad de utilizar el teorema de Karhunen-Loève, para establecer una representación del proceso $\eta(t)$ como una sucesión de variables gaussianas. Dado que, para lo anterior, se establece una base de $L^2[-\frac{\tau}{2},\frac{\tau}{2}]$, la señal $\alpha(t)$ también es representada como una sucesión en $\ell^2[\mathbb{R}]$. Con ello se considera una restricción de la potencia por $\tau M$, de la sucesión que define a $\alpha(t)$; donde $M$ es una constante positiva arbitraria. Lo que el \textit{teorema de capacidad} vendrá a decir es que, en el caso de un canal gaussiano continuo en el tiempo, el mayor valor al que la tasa de transmisión puede acercarse es $\frac{M}{2}$, sin comprometer el código y evitar su distorsión.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-03-08T19:43:07Z
dc.date.available.none.fl_str_mv 2022-03-08T19:43:07Z
dc.date.issued.none.fl_str_mv 2022-02-08
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/1992/56221
dc.identifier.instname.spa.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.spa.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url http://hdl.handle.net/1992/56221
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.es_CO.fl_str_mv spa
language spa
dc.relation.references.es_CO.fl_str_mv Ash, R. Information Theory, Dover Publications, Nueva York (1990).
Billingsley, P. Probability and Measure. 3a ed., John Wiley & Sons, Inc., New Jersey (1995).
Cover, M.T. & Thomas, J. Elements of Information Theory. John Wiley & Sons, Inc., New Jersey (2006).
Conh, D. L. Measure Theory. 2a ed., Birkhäuser, New York (2013).
Fano, R. M. Transmission of Information: A statistical theory of communications, MIT Press, Cambridge (1966).
Ghanem R. G. & Spanos P. D. Stochastic Finite Elements: A Spectral Approach. Ed. revisada, Dover Publications, Nueva York (2003).
Katznelson, Y. An Introduction to Harmonic Analysis. 3a ed., Cambridge University Press, Cambridge (2004).
Liusternik, L. A. & Sobolev V. J. Elements of Functional Analysis. 1a ed., Frederick Ungar Publishing Co., Nueva York (1961).
Riesz, F. & Sz.-Nagy, B. Functional Analysis. Frederick Ungar Publishing Co., Nueva York (1955).
Scott, L.M. & Donald, C. Capítulo 10 - Power Spectral Density, Probability and Random Processes, 2a ed., Academic Press, pp. 429-471 (2012).
Shunsuke, I. Information Theory for Continuous Systems, World Scientific Publishing Co, Singapur (1993).
Stone, J.V. Information Theory: A Tutorial Introduction, Sebtel Press, Las Vegas (2015).
Ash, R. "Capacity and Error Bounds for a Time-Continuous Gaussian Channel." Information and Control, 6, pp. 14-27 (1963).
Hartley, R. V. L. "Transmission of Information." Bell System Technical Journal 7.3., pp.535-563 (1928).
Shannon, C.E. "A mathematical theory of communication." The Bell System Technical Journal 27.3. pp. 379-423 (1948).
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.es_CO.fl_str_mv 51 páginas
dc.publisher.es_CO.fl_str_mv Universidad de los Andes
dc.publisher.program.es_CO.fl_str_mv Matemáticas
dc.publisher.faculty.es_CO.fl_str_mv Facultad de Ciencias
dc.publisher.department.es_CO.fl_str_mv Departamento de Matemáticas
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/e7145221-cd9d-46c3-ad8b-a8a50b37e148/download
https://repositorio.uniandes.edu.co/bitstreams/5be8d615-5697-4027-9229-f4f1451e89ad/download
https://repositorio.uniandes.edu.co/bitstreams/0f8c3480-9099-419a-85d9-0a36b712df6f/download
https://repositorio.uniandes.edu.co/bitstreams/848f172a-72f2-499c-867c-f9e2fdfa8dae/download
https://repositorio.uniandes.edu.co/bitstreams/cdb4555a-6372-47c9-9b0d-63e78119a18a/download
https://repositorio.uniandes.edu.co/bitstreams/c22d8cd3-ecc6-4aed-8b31-dd44ee676b59/download
https://repositorio.uniandes.edu.co/bitstreams/36e62db4-30f5-4041-8d2a-027c13408650/download
bitstream.checksum.fl_str_mv 3e7886b1af4e83f02f56dd3dab2dca87
68b329da9893e34099c7d8ad5cb9c940
5107396f12796a193710f48b3136aae7
df1a5d3df9333b10e7d5d0d57a3593eb
e57cc42568d1047955b30b951a71dd11
5cb7ef79facbcc2f9e5cd2f9a63bc67c
5aa5c691a1ffe97abd12c2966efcb8d6
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1812134000494379008
spelling Al consultar y hacer uso de este recurso, está aceptando las condiciones de uso establecidas por los autores.http://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Hoegele, Michael Antonvirtual::12661-1Reinach-Baumgartner, Christian Davidd3b35c68-2be7-412f-a8e5-32b1e2e030b4600Junca Peláez, Mauricio José2022-03-08T19:43:07Z2022-03-08T19:43:07Z2022-02-08http://hdl.handle.net/1992/56221instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibler}, la cual permite establecer ciertas propiedades útiles de la entropía para el caso de variables aleatorias absolutamente continuas, y es intepretada como una especie de medida de ``distancia'' entre dos densidades de probabiidad; aunque en un sentido estricto, ésta no define una métrica. Además, se añade un apéndice que expone el concepto de entropía binaria; describe algunos problemas matemáticos asociados a la entropía para variables aleatorias continuas, así como una relación que permite trabajar con los conceptos usados en el resto del documento. En el mismo apéndice se añade, en sentido estético, una relación entre la entropía del caso continuo, y la información de Fisher. Aunque la teoría de la información (en conjunto con la teoría de análisis de señales) estudia los canales que reciben cualquier tipo de señales, el caso más general es cuando reciben señales de amplitud continua, bien sean continuas en el tiempo, bien sean discretas en el tiempo. Y, entre todos los canales que reciben señales de amplitud continua, el modelo de un canal \textit{gaussiano} es el más importante. Así, El tercer capítulo (§3) describe la construcción de un canal gaussiano discreto en el tiempo, que se modela con un output $Y_i=X_i+Z_i$ en tiempo $i=1,...,n$, donde $X_i$ es el input, y $Z_i\sim \mathcal{N}(0,N)$ (véase Fig. \ref{Fig. 2}). Una vez dado eso, se continúa directamente al \textit{teorema de capacidad} para un canal gaussiano discreto en el tiempo: El cual indica, en sentido intuitivo, el mayor valor al que puede aproximarse la tasa de transmisión de información a través del canal, de modo que exista una manera de codificar el mensaje original, y la probabilidad de que este sea transmitido con distorsión sea nula. En el cuarto capítulo (§4) se desarrolla la teoría asociada a procesos gaussianos, estableciéndose el concepto de estos procesos y variadas propiedades que serán de vital importancia para el desarrollo del cuarto capítulo. En partícular, se describen los conceptos de estacionariedad, ergodicidad y se construye la \textit{densidad espectral de potencia}. Esta última, junto al concepto de \textit{autocorrelación}, constituyen el eje central de la teoría de operadores integrales necesaria para generar una asociación entre los canales gaussianos discretos en el tiempo con aquellos continuos. En el quinto capítulo (§5) se construye un canal gaussiano continuo en el tiempo, en el cual la función input (o señal) $\alpha(t)$ es continua en el tiempo y se restringe a un intervalo, dígase $\left[\frac{-\tau}{2}, \frac{\tau}{2}\right]$, de longitud $\tau$. El output del canal se dará por $\alpha(t)+\eta(t)$ donde $\eta(t)$ es un proceso gaussiano estacionario restringido al mismo intervalo (véase Fig. \ref{Fig. 2}). Esta última construcción se da por las limitaciones físicas de un canal en la vida real. Además, el tiempo acá es tomado en un sentido más general que no se define en una dirección en la recta real (como el intervalo $[0,\tau]$ o $[0,\infty)$). La teoría desarrollada en el capítulo §\ref{chap:preliminares}, permitirá observar un canal gaussiano continuo en el tiempo como una generalización de un canal gaussiano discreto. En particular, el uso de la función autocorrelación (como transformada inversa de Fourier de la densidad espectral de potencia) indicará la posibilidad de utilizar el teorema de Karhunen-Loève, para establecer una representación del proceso $\eta(t)$ como una sucesión de variables gaussianas. Dado que, para lo anterior, se establece una base de $L^2[-\frac{\tau}{2},\frac{\tau}{2}]$, la señal $\alpha(t)$ también es representada como una sucesión en $\ell^2[\mathbb{R}]$. Con ello se considera una restricción de la potencia por $\tau M$, de la sucesión que define a $\alpha(t)$; donde $M$ es una constante positiva arbitraria. Lo que el \textit{teorema de capacidad} vendrá a decir es que, en el caso de un canal gaussiano continuo en el tiempo, el mayor valor al que la tasa de transmisión puede acercarse es $\frac{M}{2}$, sin comprometer el código y evitar su distorsión.MatemáticoPregrado51 páginasspaUniversidad de los AndesMatemáticasFacultad de CienciasDepartamento de MatemáticasUn acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canalesTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85Texthttp://purl.org/redcol/resource_type/TPInformation theoryProbabilityProbabilidadTeoría de informaciónTeoría de la medidaMeasure theoryFunctional analysisAnálisis funcionalCanal gaussianoShannonEntropíaEntropyTeoría de la medidaFlujos (Sistemas dinámicos diferenciales)ProbabilidadesEntropíaMatemáticasAsh, R. Information Theory, Dover Publications, Nueva York (1990).Billingsley, P. Probability and Measure. 3a ed., John Wiley & Sons, Inc., New Jersey (1995).Cover, M.T. & Thomas, J. Elements of Information Theory. John Wiley & Sons, Inc., New Jersey (2006).Conh, D. L. Measure Theory. 2a ed., Birkhäuser, New York (2013).Fano, R. M. Transmission of Information: A statistical theory of communications, MIT Press, Cambridge (1966).Ghanem R. G. & Spanos P. D. Stochastic Finite Elements: A Spectral Approach. Ed. revisada, Dover Publications, Nueva York (2003).Katznelson, Y. An Introduction to Harmonic Analysis. 3a ed., Cambridge University Press, Cambridge (2004).Liusternik, L. A. & Sobolev V. J. Elements of Functional Analysis. 1a ed., Frederick Ungar Publishing Co., Nueva York (1961).Riesz, F. & Sz.-Nagy, B. Functional Analysis. Frederick Ungar Publishing Co., Nueva York (1955).Scott, L.M. & Donald, C. Capítulo 10 - Power Spectral Density, Probability and Random Processes, 2a ed., Academic Press, pp. 429-471 (2012).Shunsuke, I. Information Theory for Continuous Systems, World Scientific Publishing Co, Singapur (1993).Stone, J.V. Information Theory: A Tutorial Introduction, Sebtel Press, Las Vegas (2015).Ash, R. "Capacity and Error Bounds for a Time-Continuous Gaussian Channel." Information and Control, 6, pp. 14-27 (1963).Hartley, R. V. L. "Transmission of Information." Bell System Technical Journal 7.3., pp.535-563 (1928).Shannon, C.E. "A mathematical theory of communication." The Bell System Technical Journal 27.3. pp. 379-423 (1948).201614571Publicationec8a37d7-ebef-44bf-823c-e5eed39e7600virtual::12661-1ec8a37d7-ebef-44bf-823c-e5eed39e7600virtual::12661-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001632250virtual::12661-1TEXTTrabajo de Grado - Teoría de la comunicación.pdf.txtTrabajo de Grado - Teoría de la comunicación.pdf.txtExtracted texttext/plain93330https://repositorio.uniandes.edu.co/bitstreams/e7145221-cd9d-46c3-ad8b-a8a50b37e148/download3e7886b1af4e83f02f56dd3dab2dca87MD56Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain1https://repositorio.uniandes.edu.co/bitstreams/5be8d615-5697-4027-9229-f4f1451e89ad/download68b329da9893e34099c7d8ad5cb9c940MD58THUMBNAILTrabajo de Grado - Teoría de la comunicación.pdf.jpgTrabajo de Grado - Teoría de la comunicación.pdf.jpgIM Thumbnailimage/jpeg9270https://repositorio.uniandes.edu.co/bitstreams/0f8c3480-9099-419a-85d9-0a36b712df6f/download5107396f12796a193710f48b3136aae7MD57Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg11531https://repositorio.uniandes.edu.co/bitstreams/848f172a-72f2-499c-867c-f9e2fdfa8dae/downloaddf1a5d3df9333b10e7d5d0d57a3593ebMD59ORIGINALTrabajo de Grado - Teoría de la comunicación.pdfTrabajo de Grado - Teoría de la comunicación.pdfTrabajo de gradoapplication/pdf547344https://repositorio.uniandes.edu.co/bitstreams/cdb4555a-6372-47c9-9b0d-63e78119a18a/downloade57cc42568d1047955b30b951a71dd11MD55Formato de autorización.pdfFormato de autorización.pdfHIDEapplication/pdf115446https://repositorio.uniandes.edu.co/bitstreams/c22d8cd3-ecc6-4aed-8b31-dd44ee676b59/download5cb7ef79facbcc2f9e5cd2f9a63bc67cMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/36e62db4-30f5-4041-8d2a-027c13408650/download5aa5c691a1ffe97abd12c2966efcb8d6MD541992/56221oai:repositorio.uniandes.edu.co:1992/562212024-03-13 14:44:37.811http://creativecommons.org/licenses/by-nc-sa/4.0/open.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg==