Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales
Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibl...
- Autores:
-
Reinach-Baumgartner, Christian David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/56221
- Acceso en línea:
- http://hdl.handle.net/1992/56221
- Palabra clave:
- Information theory
Probability
Probabilidad
Teoría de información
Teoría de la medida
Measure theory
Functional analysis
Análisis funcional
Canal gaussiano
Shannon
Entropía
Entropy
Teoría de la medida
Flujos (Sistemas dinámicos diferenciales)
Probabilidades
Entropía
Matemáticas
- Rights
- openAccess
- License
- http://creativecommons.org/licenses/by-nc-sa/4.0/
id |
UNIANDES2_2ae9407e3617a6838b544b0118bbaf52 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/56221 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.none.fl_str_mv |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
title |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
spellingShingle |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales Information theory Probability Probabilidad Teoría de información Teoría de la medida Measure theory Functional analysis Análisis funcional Canal gaussiano Shannon Entropía Entropy Teoría de la medida Flujos (Sistemas dinámicos diferenciales) Probabilidades Entropía Matemáticas |
title_short |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
title_full |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
title_fullStr |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
title_full_unstemmed |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
title_sort |
Un acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canales |
dc.creator.fl_str_mv |
Reinach-Baumgartner, Christian David |
dc.contributor.advisor.none.fl_str_mv |
Hoegele, Michael Anton |
dc.contributor.author.none.fl_str_mv |
Reinach-Baumgartner, Christian David |
dc.contributor.jury.none.fl_str_mv |
Junca Peláez, Mauricio José |
dc.subject.keyword.none.fl_str_mv |
Information theory Probability Probabilidad Teoría de información Teoría de la medida Measure theory Functional analysis Análisis funcional Canal gaussiano Shannon Entropía Entropy |
topic |
Information theory Probability Probabilidad Teoría de información Teoría de la medida Measure theory Functional analysis Análisis funcional Canal gaussiano Shannon Entropía Entropy Teoría de la medida Flujos (Sistemas dinámicos diferenciales) Probabilidades Entropía Matemáticas |
dc.subject.armarc.none.fl_str_mv |
Teoría de la medida Flujos (Sistemas dinámicos diferenciales) Probabilidades Entropía |
dc.subject.themes.es_CO.fl_str_mv |
Matemáticas |
description |
Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibler}, la cual permite establecer ciertas propiedades útiles de la entropía para el caso de variables aleatorias absolutamente continuas, y es intepretada como una especie de medida de ``distancia'' entre dos densidades de probabiidad; aunque en un sentido estricto, ésta no define una métrica. Además, se añade un apéndice que expone el concepto de entropía binaria; describe algunos problemas matemáticos asociados a la entropía para variables aleatorias continuas, así como una relación que permite trabajar con los conceptos usados en el resto del documento. En el mismo apéndice se añade, en sentido estético, una relación entre la entropía del caso continuo, y la información de Fisher. Aunque la teoría de la información (en conjunto con la teoría de análisis de señales) estudia los canales que reciben cualquier tipo de señales, el caso más general es cuando reciben señales de amplitud continua, bien sean continuas en el tiempo, bien sean discretas en el tiempo. Y, entre todos los canales que reciben señales de amplitud continua, el modelo de un canal \textit{gaussiano} es el más importante. Así, El tercer capítulo (§3) describe la construcción de un canal gaussiano discreto en el tiempo, que se modela con un output $Y_i=X_i+Z_i$ en tiempo $i=1,...,n$, donde $X_i$ es el input, y $Z_i\sim \mathcal{N}(0,N)$ (véase Fig. \ref{Fig. 2}). Una vez dado eso, se continúa directamente al \textit{teorema de capacidad} para un canal gaussiano discreto en el tiempo: El cual indica, en sentido intuitivo, el mayor valor al que puede aproximarse la tasa de transmisión de información a través del canal, de modo que exista una manera de codificar el mensaje original, y la probabilidad de que este sea transmitido con distorsión sea nula. En el cuarto capítulo (§4) se desarrolla la teoría asociada a procesos gaussianos, estableciéndose el concepto de estos procesos y variadas propiedades que serán de vital importancia para el desarrollo del cuarto capítulo. En partícular, se describen los conceptos de estacionariedad, ergodicidad y se construye la \textit{densidad espectral de potencia}. Esta última, junto al concepto de \textit{autocorrelación}, constituyen el eje central de la teoría de operadores integrales necesaria para generar una asociación entre los canales gaussianos discretos en el tiempo con aquellos continuos. En el quinto capítulo (§5) se construye un canal gaussiano continuo en el tiempo, en el cual la función input (o señal) $\alpha(t)$ es continua en el tiempo y se restringe a un intervalo, dígase $\left[\frac{-\tau}{2}, \frac{\tau}{2}\right]$, de longitud $\tau$. El output del canal se dará por $\alpha(t)+\eta(t)$ donde $\eta(t)$ es un proceso gaussiano estacionario restringido al mismo intervalo (véase Fig. \ref{Fig. 2}). Esta última construcción se da por las limitaciones físicas de un canal en la vida real. Además, el tiempo acá es tomado en un sentido más general que no se define en una dirección en la recta real (como el intervalo $[0,\tau]$ o $[0,\infty)$). La teoría desarrollada en el capítulo §\ref{chap:preliminares}, permitirá observar un canal gaussiano continuo en el tiempo como una generalización de un canal gaussiano discreto. En particular, el uso de la función autocorrelación (como transformada inversa de Fourier de la densidad espectral de potencia) indicará la posibilidad de utilizar el teorema de Karhunen-Loève, para establecer una representación del proceso $\eta(t)$ como una sucesión de variables gaussianas. Dado que, para lo anterior, se establece una base de $L^2[-\frac{\tau}{2},\frac{\tau}{2}]$, la señal $\alpha(t)$ también es representada como una sucesión en $\ell^2[\mathbb{R}]$. Con ello se considera una restricción de la potencia por $\tau M$, de la sucesión que define a $\alpha(t)$; donde $M$ es una constante positiva arbitraria. Lo que el \textit{teorema de capacidad} vendrá a decir es que, en el caso de un canal gaussiano continuo en el tiempo, el mayor valor al que la tasa de transmisión puede acercarse es $\frac{M}{2}$, sin comprometer el código y evitar su distorsión. |
publishDate |
2022 |
dc.date.accessioned.none.fl_str_mv |
2022-03-08T19:43:07Z |
dc.date.available.none.fl_str_mv |
2022-03-08T19:43:07Z |
dc.date.issued.none.fl_str_mv |
2022-02-08 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/1992/56221 |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
http://hdl.handle.net/1992/56221 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.es_CO.fl_str_mv |
spa |
language |
spa |
dc.relation.references.es_CO.fl_str_mv |
Ash, R. Information Theory, Dover Publications, Nueva York (1990). Billingsley, P. Probability and Measure. 3a ed., John Wiley & Sons, Inc., New Jersey (1995). Cover, M.T. & Thomas, J. Elements of Information Theory. John Wiley & Sons, Inc., New Jersey (2006). Conh, D. L. Measure Theory. 2a ed., Birkhäuser, New York (2013). Fano, R. M. Transmission of Information: A statistical theory of communications, MIT Press, Cambridge (1966). Ghanem R. G. & Spanos P. D. Stochastic Finite Elements: A Spectral Approach. Ed. revisada, Dover Publications, Nueva York (2003). Katznelson, Y. An Introduction to Harmonic Analysis. 3a ed., Cambridge University Press, Cambridge (2004). Liusternik, L. A. & Sobolev V. J. Elements of Functional Analysis. 1a ed., Frederick Ungar Publishing Co., Nueva York (1961). Riesz, F. & Sz.-Nagy, B. Functional Analysis. Frederick Ungar Publishing Co., Nueva York (1955). Scott, L.M. & Donald, C. Capítulo 10 - Power Spectral Density, Probability and Random Processes, 2a ed., Academic Press, pp. 429-471 (2012). Shunsuke, I. Information Theory for Continuous Systems, World Scientific Publishing Co, Singapur (1993). Stone, J.V. Information Theory: A Tutorial Introduction, Sebtel Press, Las Vegas (2015). Ash, R. "Capacity and Error Bounds for a Time-Continuous Gaussian Channel." Information and Control, 6, pp. 14-27 (1963). Hartley, R. V. L. "Transmission of Information." Bell System Technical Journal 7.3., pp.535-563 (1928). Shannon, C.E. "A mathematical theory of communication." The Bell System Technical Journal 27.3. pp. 379-423 (1948). |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.es_CO.fl_str_mv |
51 páginas |
dc.publisher.es_CO.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.es_CO.fl_str_mv |
Matemáticas |
dc.publisher.faculty.es_CO.fl_str_mv |
Facultad de Ciencias |
dc.publisher.department.es_CO.fl_str_mv |
Departamento de Matemáticas |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/e7145221-cd9d-46c3-ad8b-a8a50b37e148/download https://repositorio.uniandes.edu.co/bitstreams/5be8d615-5697-4027-9229-f4f1451e89ad/download https://repositorio.uniandes.edu.co/bitstreams/0f8c3480-9099-419a-85d9-0a36b712df6f/download https://repositorio.uniandes.edu.co/bitstreams/848f172a-72f2-499c-867c-f9e2fdfa8dae/download https://repositorio.uniandes.edu.co/bitstreams/cdb4555a-6372-47c9-9b0d-63e78119a18a/download https://repositorio.uniandes.edu.co/bitstreams/c22d8cd3-ecc6-4aed-8b31-dd44ee676b59/download https://repositorio.uniandes.edu.co/bitstreams/36e62db4-30f5-4041-8d2a-027c13408650/download |
bitstream.checksum.fl_str_mv |
3e7886b1af4e83f02f56dd3dab2dca87 68b329da9893e34099c7d8ad5cb9c940 5107396f12796a193710f48b3136aae7 df1a5d3df9333b10e7d5d0d57a3593eb e57cc42568d1047955b30b951a71dd11 5cb7ef79facbcc2f9e5cd2f9a63bc67c 5aa5c691a1ffe97abd12c2966efcb8d6 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812134000494379008 |
spelling |
Al consultar y hacer uso de este recurso, está aceptando las condiciones de uso establecidas por los autores.http://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Hoegele, Michael Antonvirtual::12661-1Reinach-Baumgartner, Christian Davidd3b35c68-2be7-412f-a8e5-32b1e2e030b4600Junca Peláez, Mauricio José2022-03-08T19:43:07Z2022-03-08T19:43:07Z2022-02-08http://hdl.handle.net/1992/56221instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Los conceptos de entropía e información son desarrollados en el Capítulo §2 de este documento. Se introducen a partir de un pequeño análisis en el mundo de lo discreto, pero luego son construidos en el contexto de lo continuo. También se introduce el concepto de \textit{divergencia de Kullback-Leibler}, la cual permite establecer ciertas propiedades útiles de la entropía para el caso de variables aleatorias absolutamente continuas, y es intepretada como una especie de medida de ``distancia'' entre dos densidades de probabiidad; aunque en un sentido estricto, ésta no define una métrica. Además, se añade un apéndice que expone el concepto de entropía binaria; describe algunos problemas matemáticos asociados a la entropía para variables aleatorias continuas, así como una relación que permite trabajar con los conceptos usados en el resto del documento. En el mismo apéndice se añade, en sentido estético, una relación entre la entropía del caso continuo, y la información de Fisher. Aunque la teoría de la información (en conjunto con la teoría de análisis de señales) estudia los canales que reciben cualquier tipo de señales, el caso más general es cuando reciben señales de amplitud continua, bien sean continuas en el tiempo, bien sean discretas en el tiempo. Y, entre todos los canales que reciben señales de amplitud continua, el modelo de un canal \textit{gaussiano} es el más importante. Así, El tercer capítulo (§3) describe la construcción de un canal gaussiano discreto en el tiempo, que se modela con un output $Y_i=X_i+Z_i$ en tiempo $i=1,...,n$, donde $X_i$ es el input, y $Z_i\sim \mathcal{N}(0,N)$ (véase Fig. \ref{Fig. 2}). Una vez dado eso, se continúa directamente al \textit{teorema de capacidad} para un canal gaussiano discreto en el tiempo: El cual indica, en sentido intuitivo, el mayor valor al que puede aproximarse la tasa de transmisión de información a través del canal, de modo que exista una manera de codificar el mensaje original, y la probabilidad de que este sea transmitido con distorsión sea nula. En el cuarto capítulo (§4) se desarrolla la teoría asociada a procesos gaussianos, estableciéndose el concepto de estos procesos y variadas propiedades que serán de vital importancia para el desarrollo del cuarto capítulo. En partícular, se describen los conceptos de estacionariedad, ergodicidad y se construye la \textit{densidad espectral de potencia}. Esta última, junto al concepto de \textit{autocorrelación}, constituyen el eje central de la teoría de operadores integrales necesaria para generar una asociación entre los canales gaussianos discretos en el tiempo con aquellos continuos. En el quinto capítulo (§5) se construye un canal gaussiano continuo en el tiempo, en el cual la función input (o señal) $\alpha(t)$ es continua en el tiempo y se restringe a un intervalo, dígase $\left[\frac{-\tau}{2}, \frac{\tau}{2}\right]$, de longitud $\tau$. El output del canal se dará por $\alpha(t)+\eta(t)$ donde $\eta(t)$ es un proceso gaussiano estacionario restringido al mismo intervalo (véase Fig. \ref{Fig. 2}). Esta última construcción se da por las limitaciones físicas de un canal en la vida real. Además, el tiempo acá es tomado en un sentido más general que no se define en una dirección en la recta real (como el intervalo $[0,\tau]$ o $[0,\infty)$). La teoría desarrollada en el capítulo §\ref{chap:preliminares}, permitirá observar un canal gaussiano continuo en el tiempo como una generalización de un canal gaussiano discreto. En particular, el uso de la función autocorrelación (como transformada inversa de Fourier de la densidad espectral de potencia) indicará la posibilidad de utilizar el teorema de Karhunen-Loève, para establecer una representación del proceso $\eta(t)$ como una sucesión de variables gaussianas. Dado que, para lo anterior, se establece una base de $L^2[-\frac{\tau}{2},\frac{\tau}{2}]$, la señal $\alpha(t)$ también es representada como una sucesión en $\ell^2[\mathbb{R}]$. Con ello se considera una restricción de la potencia por $\tau M$, de la sucesión que define a $\alpha(t)$; donde $M$ es una constante positiva arbitraria. Lo que el \textit{teorema de capacidad} vendrá a decir es que, en el caso de un canal gaussiano continuo en el tiempo, el mayor valor al que la tasa de transmisión puede acercarse es $\frac{M}{2}$, sin comprometer el código y evitar su distorsión.MatemáticoPregrado51 páginasspaUniversidad de los AndesMatemáticasFacultad de CienciasDepartamento de MatemáticasUn acercamiento formal a la teoría de la comunicación: Teoría de información de Shannon para variables aleatorias absolutamente continuas, procesos gaussianos, y teoría de canalesTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85Texthttp://purl.org/redcol/resource_type/TPInformation theoryProbabilityProbabilidadTeoría de informaciónTeoría de la medidaMeasure theoryFunctional analysisAnálisis funcionalCanal gaussianoShannonEntropíaEntropyTeoría de la medidaFlujos (Sistemas dinámicos diferenciales)ProbabilidadesEntropíaMatemáticasAsh, R. Information Theory, Dover Publications, Nueva York (1990).Billingsley, P. Probability and Measure. 3a ed., John Wiley & Sons, Inc., New Jersey (1995).Cover, M.T. & Thomas, J. Elements of Information Theory. John Wiley & Sons, Inc., New Jersey (2006).Conh, D. L. Measure Theory. 2a ed., Birkhäuser, New York (2013).Fano, R. M. Transmission of Information: A statistical theory of communications, MIT Press, Cambridge (1966).Ghanem R. G. & Spanos P. D. Stochastic Finite Elements: A Spectral Approach. Ed. revisada, Dover Publications, Nueva York (2003).Katznelson, Y. An Introduction to Harmonic Analysis. 3a ed., Cambridge University Press, Cambridge (2004).Liusternik, L. A. & Sobolev V. J. Elements of Functional Analysis. 1a ed., Frederick Ungar Publishing Co., Nueva York (1961).Riesz, F. & Sz.-Nagy, B. Functional Analysis. Frederick Ungar Publishing Co., Nueva York (1955).Scott, L.M. & Donald, C. Capítulo 10 - Power Spectral Density, Probability and Random Processes, 2a ed., Academic Press, pp. 429-471 (2012).Shunsuke, I. Information Theory for Continuous Systems, World Scientific Publishing Co, Singapur (1993).Stone, J.V. Information Theory: A Tutorial Introduction, Sebtel Press, Las Vegas (2015).Ash, R. "Capacity and Error Bounds for a Time-Continuous Gaussian Channel." Information and Control, 6, pp. 14-27 (1963).Hartley, R. V. L. "Transmission of Information." Bell System Technical Journal 7.3., pp.535-563 (1928).Shannon, C.E. "A mathematical theory of communication." The Bell System Technical Journal 27.3. pp. 379-423 (1948).201614571Publicationec8a37d7-ebef-44bf-823c-e5eed39e7600virtual::12661-1ec8a37d7-ebef-44bf-823c-e5eed39e7600virtual::12661-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001632250virtual::12661-1TEXTTrabajo de Grado - Teoría de la comunicación.pdf.txtTrabajo de Grado - Teoría de la comunicación.pdf.txtExtracted texttext/plain93330https://repositorio.uniandes.edu.co/bitstreams/e7145221-cd9d-46c3-ad8b-a8a50b37e148/download3e7886b1af4e83f02f56dd3dab2dca87MD56Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain1https://repositorio.uniandes.edu.co/bitstreams/5be8d615-5697-4027-9229-f4f1451e89ad/download68b329da9893e34099c7d8ad5cb9c940MD58THUMBNAILTrabajo de Grado - Teoría de la comunicación.pdf.jpgTrabajo de Grado - Teoría de la comunicación.pdf.jpgIM Thumbnailimage/jpeg9270https://repositorio.uniandes.edu.co/bitstreams/0f8c3480-9099-419a-85d9-0a36b712df6f/download5107396f12796a193710f48b3136aae7MD57Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg11531https://repositorio.uniandes.edu.co/bitstreams/848f172a-72f2-499c-867c-f9e2fdfa8dae/downloaddf1a5d3df9333b10e7d5d0d57a3593ebMD59ORIGINALTrabajo de Grado - Teoría de la comunicación.pdfTrabajo de Grado - Teoría de la comunicación.pdfTrabajo de gradoapplication/pdf547344https://repositorio.uniandes.edu.co/bitstreams/cdb4555a-6372-47c9-9b0d-63e78119a18a/downloade57cc42568d1047955b30b951a71dd11MD55Formato de autorización.pdfFormato de autorización.pdfHIDEapplication/pdf115446https://repositorio.uniandes.edu.co/bitstreams/c22d8cd3-ecc6-4aed-8b31-dd44ee676b59/download5cb7ef79facbcc2f9e5cd2f9a63bc67cMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/36e62db4-30f5-4041-8d2a-027c13408650/download5aa5c691a1ffe97abd12c2966efcb8d6MD541992/56221oai:repositorio.uniandes.edu.co:1992/562212024-03-13 14:44:37.811http://creativecommons.org/licenses/by-nc-sa/4.0/open.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg== |