Teoría de la información y la compresión de cadenas

El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costo...

Full description

Autores:
Tipo de recurso:
Fecha de publicación:
2022
Institución:
Universidad del Rosario
Repositorio:
Repositorio EdocUR - U. Rosario
Idioma:
spa
OAI Identifier:
oai:repository.urosario.edu.co:10336/38216
Acceso en línea:
https://doi.org/10.48713/10336_38216
https://repository.urosario.edu.co/handle/10336/38216
Palabra clave:
Teoría de la información
Teoría de la codificación
Compresión de archivos
Entropía de Shannon
Aprendizaje automático de máquina
Codificación de Huffman
Procesamiento del lenguaje natural
Árboles filogenéticos del lenguaje natural
Principio de máxima entropía
Divergencia Kullback-Leibler
Procesos estocásticos
Contenido de información de Hartley
Information theory
Coding theory
File compression
Machine learning
Shannon's entropy
Huffman coding
LZ77
Natural language processing
Phylogenetic trees of natural language
Principle of maximum entropy
Kullback-Leibler divergence
Stochastic processes
Rights
License
Attribution-NonCommercial-ShareAlike 4.0 International
id EDOCUR2_08afc1bf042f05ff0cb84faca40b5c45
oai_identifier_str oai:repository.urosario.edu.co:10336/38216
network_acronym_str EDOCUR2
network_name_str Repositorio EdocUR - U. Rosario
repository_id_str
dc.title.none.fl_str_mv Teoría de la información y la compresión de cadenas
dc.title.TranslatedTitle.none.fl_str_mv Information theory and file compression
title Teoría de la información y la compresión de cadenas
spellingShingle Teoría de la información y la compresión de cadenas
Teoría de la información
Teoría de la codificación
Compresión de archivos
Entropía de Shannon
Aprendizaje automático de máquina
Codificación de Huffman
Procesamiento del lenguaje natural
Árboles filogenéticos del lenguaje natural
Principio de máxima entropía
Divergencia Kullback-Leibler
Procesos estocásticos
Contenido de información de Hartley
Information theory
Coding theory
File compression
Machine learning
Shannon's entropy
Huffman coding
LZ77
Natural language processing
Phylogenetic trees of natural language
Principle of maximum entropy
Kullback-Leibler divergence
Stochastic processes
title_short Teoría de la información y la compresión de cadenas
title_full Teoría de la información y la compresión de cadenas
title_fullStr Teoría de la información y la compresión de cadenas
title_full_unstemmed Teoría de la información y la compresión de cadenas
title_sort Teoría de la información y la compresión de cadenas
dc.contributor.advisor.none.fl_str_mv Álvarez Cabrera, Carlos Eduardo
dc.subject.none.fl_str_mv Teoría de la información
Teoría de la codificación
Compresión de archivos
Entropía de Shannon
Aprendizaje automático de máquina
Codificación de Huffman
Procesamiento del lenguaje natural
Árboles filogenéticos del lenguaje natural
Principio de máxima entropía
Divergencia Kullback-Leibler
Procesos estocásticos
Contenido de información de Hartley
topic Teoría de la información
Teoría de la codificación
Compresión de archivos
Entropía de Shannon
Aprendizaje automático de máquina
Codificación de Huffman
Procesamiento del lenguaje natural
Árboles filogenéticos del lenguaje natural
Principio de máxima entropía
Divergencia Kullback-Leibler
Procesos estocásticos
Contenido de información de Hartley
Information theory
Coding theory
File compression
Machine learning
Shannon's entropy
Huffman coding
LZ77
Natural language processing
Phylogenetic trees of natural language
Principle of maximum entropy
Kullback-Leibler divergence
Stochastic processes
dc.subject.keyword.none.fl_str_mv Information theory
Coding theory
File compression
Machine learning
Shannon's entropy
Huffman coding
LZ77
Natural language processing
Phylogenetic trees of natural language
Principle of maximum entropy
Kullback-Leibler divergence
Stochastic processes
description El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costos en el espacio de almacenamiento, tiempo en transferencia de los datos o número de operaciones en su procesamiento, dentro de un computador. Lo anterior hace de la compresión sin perdida un objetivo razonable dentro de las Ciencias de la Computación y representa un reto importante durante el desarrollo de muchas soluciones tecnológicas. La teoría de la información, por su parte, ha establecido el formalismo matemático necesario para el estudio de medidas cuantitativas de información como la entropía de Shannon y ha encontrado su lugar dentro de la implementación de la compresión sin perdida al proveer algunas de las herramientas teóricas necesarias para el estudio de los modelos que describen las fuentes de datos en la teoría de la codificación. Por otro lado, la cercana relación que se ha encontrado entre la teoría de la información y la teoría de la compresión sin perdida ha motivado a muchos autores a ingeniar formas de medir a través de la compresión de archivos la información en ellos. Lo que ha resultado en interesantes aplicaciones de la compresión sin perdida en el aprendizaje automático, particularmente, en la clasificación de textos escritos en lenguaje natural o cadenas de ADN. En este escrito, se presenta una revisión monográfica acerca de cómo la teoría de la información se aplica a la compresión sin perdida. Para esto, se presentan algunas de las implementaciones de la compresión sin perdida en la teoría de códigos y sus respectivos análisis. Las demostraciones, gráficas, algoritmos e implementaciones en este escrito generalizan algunos de los hechos más importantes acerca de codificaciones binarias que se han enunciado en la literatura, al caso general de alfabetos de tamaños arbitrarios. Finalmente, se presenta una aplicación de la compresión sin perdida al aprendizaje automático de máquina, para la clasificación del lenguaje natural, mediante la aplicación del algoritmo de codificación LZ77 para estimar algunas medidas de información bien conocidas en la literatura, las cuales se emplean como medida de distancia para comparar los lenguajes entre sí. El resultado de la clasificación es presentado en la forma de árboles filogenéticos del lenguaje natural
publishDate 2022
dc.date.created.none.fl_str_mv 2022-11-23
dc.date.accessioned.none.fl_str_mv 2023-03-12T01:02:23Z
dc.date.available.none.fl_str_mv 2023-03-12T01:02:23Z
dc.type.none.fl_str_mv bachelorThesis
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.document.none.fl_str_mv Trabajo de grado
dc.type.spa.none.fl_str_mv Trabajo de grado
dc.identifier.doi.none.fl_str_mv https://doi.org/10.48713/10336_38216
dc.identifier.uri.none.fl_str_mv https://repository.urosario.edu.co/handle/10336/38216
url https://doi.org/10.48713/10336_38216
https://repository.urosario.edu.co/handle/10336/38216
dc.language.iso.none.fl_str_mv spa
language spa
dc.rights.*.fl_str_mv Attribution-NonCommercial-ShareAlike 4.0 International
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
rights_invalid_str_mv Attribution-NonCommercial-ShareAlike 4.0 International
Abierto (Texto Completo)
http://creativecommons.org/licenses/by-nc-sa/4.0/
http://purl.org/coar/access_right/c_abf2
dc.format.extent.none.fl_str_mv 108 pp
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad del Rosario
dc.publisher.department.none.fl_str_mv Escuela de Ingeniería, Ciencia y Tecnología
dc.publisher.program.none.fl_str_mv Programa de Matemáticas Aplicadas y Ciencias de la Computación - MACC
publisher.none.fl_str_mv Universidad del Rosario
institution Universidad del Rosario
dc.source.bibliographicCitation.none.fl_str_mv Dario Benedetto, Emanuele Caglioti y Vittorio Loreto. «Language Trees and Zipping». En: Physical Review Letters 88.4 (2002). doi: 10.1103/PhysRevLett.88.048702.
G. J. Chaitin. «A theory of program size formally identical to information theory». En: Journal of the ACM 22.3 (1975), págs. 329-340. doi: 10.1145/321892.321894.
Rudi Cilibrasi y Paul M.B Vitányi. «Clustering by compression». En: IEEE TRANSACTIONS OF INFORMATION THEORY VOL 51, NO.4 (2005).
Python community. scipy.cluster.hierarchy. 2022. url: https://docs.scipy.org/doc/scipy/reference/cluster.hierarchy.html.
Thomas. M. Cover y Joy. A. Thomas. Elements of information theory. Wiley-Interscience. A John Wiley & Sons, INC, publication, 2006.
Russell. D Gray, Simon. J Greenhill y Quentin. D Atkinson. «Lenguaje evolution and human history: what a difference a data makes». En: PHYLOSOPHICAL TRANSACTIONS OF THE ROYAL SOCIERY VOL 51, NO.4 (2011). doi: 10.1098/rstb.2010.0378.
Ralph. V. L. Hartley. «Transmission of Information». En: bell system technical journal (1928). url: http://keszei.chem.elte.hu/entropia/Hartley1928text.pdf.
Esteban Hernández Ramírez. Information-theory-Clustering. Nov. de 2022. url: https://github.com/estebanhernandezr/Information-theory-Clustering.
PHILIPP VON HILGERS y AMY N. LANGVILLE. «THE FIVE GREATEST APPLICATIONS OF MARKOV CHAINS». En: Information and Control 7 (2010). url: https://langvillea.people. cofc.edu/MCapps7.pdf.
Richard A. Johnson y Dean W. Wichern. Applied multivariate statistical analysis. Pearson, Prentice hall, 2007.
K.Lindgren. Information theory for complex systems. Complex systems group. Department of Energy y Environment, 2014. isbn: 9780198520115
A. N. Kolmogorov. «Three approaches to the quantitative definition of information». En: Problems in Information Transmission 1.1 (1965), págs. 1-7.
Stanislav Krajci et al. «Performance Analysis of Fano coding». En: Signal and Information Processing Lab (2012).
Ming Li y Paul Vitányi. An Introduction to Kolmogorov Complexity and Its Applications. Texts in computer science. Springer, 2019. isbn: 978-3-030-11297-4.
Toshiko Matsumoto. «Biological Sequence Compression Algorithms». En: Genome Informatics 11 (2000), págs. 43-52. doi: 10.11234/GI1990.11.43.
Organización de Naciones Unidas. Base de datos de la Declaración Universal de los Derechos Humanos. 2022. url: https://www.ohchr.org/es/universal-declaration-of-human-rights.
C. E. Shannon. «A mathematical theory of communication». En: The Bell System Technical Journal 27.3 (1948), págs. 379-423. doi: 10.1002/j.1538-7305.1948.tb01338.x.
R. J. Solomonoff. «A formal theory of inductive inference». En: Information and Control 7 Parts 1 and 2.1-22 (1964), págs. 224-254. doi: https://doi.org/10.1016/S0019-9958(64)90223-2.
Madhu Sudan y Xiang David. «A Self-Contained Analysis of the Lempel-Ziv Compression Algorithm». En: Harvard John A. Paulson School of Engineering and Applied Sciences (2019).
Andreia Teixeira et al. «Entropy Measures vs. Kolmogorov Complexity». En: Entropy 13.3 (2011), págs. 595-611. issn: 1099-4300. doi: 10.3390/e13030595. url: https://www.mdpi.com/1099-4300/13/3/595.
Benedetta Tondi y Mauro Barni. Lectures notes on Information Theory and Coding. Universita degli Studi di Siena Facolta di Ingegneria, 2012.
Paul M.B. Vitányi. «How Incomputable Is Kolmogorov Complexity?» En: Entropy 22.4 (2020). issn: 1099-4300. doi: 10.3390/e22040408. url: https://www.mdpi.com/1099-4300/22/4/408.
Mark M. Wilde. Quantum Information Theory. Cambridge University press, 2013. isbn: 978-1-107-03425-9.
Christina Zeeh. The Lempel Ziv Algorithm. Seminar ”Famous Algorithms”. 2003.
Jacob Ziv y Abraham Lempel. «A Universal Algorithm for Sequential Data Compression». En: IEEE TRANSACTIONS ON INFORMATION THEORY 23.3 (1977), págs. 337-343. doi: 10.1109/TIT.1977.1055714.
Peter Zörnig. Non-linear programming. De Gruyter Textbook. 2014. doi: https://doi.org/10.1515/9783110315288.
dc.source.instname.none.fl_str_mv instname:Universidad del Rosario
dc.source.reponame.none.fl_str_mv reponame:Repositorio Institucional EdocUR
bitstream.url.fl_str_mv https://repository.urosario.edu.co/bitstreams/258024b3-b37a-4d9f-a38f-06132e63d838/download
https://repository.urosario.edu.co/bitstreams/583cec29-d35f-4eb0-9853-8cdad4817c8e/download
https://repository.urosario.edu.co/bitstreams/3e6c96e5-6f6c-44b3-82fb-f1be0f0cde1f/download
https://repository.urosario.edu.co/bitstreams/8ac23675-c1a7-462c-9b91-17b7111607bf/download
https://repository.urosario.edu.co/bitstreams/b3d3ea18-ca2d-4bb4-af0e-6372f3032571/download
bitstream.checksum.fl_str_mv 6562486a6723b2483d9f8ca8588d1074
b2825df9f458e9d5d96ee8b7cd74fde6
5643bfd9bcf29d560eeec56d584edaa9
d2122d973dedfc8b05e34270834d48a4
f114c1352a763685473cb4e12e520d84
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional EdocUR
repository.mail.fl_str_mv edocur@urosario.edu.co
_version_ 1808391063808770048
spelling Álvarez Cabrera, Carlos Eduardo83ed304a-0319-419b-8920-c5a0424f2ca3-1Hernández Ramírez, EstebanProfesional en Matemáticas Aplicadas y Ciencias de la ComputaciónPregradoFull timed5df8f61-3f1d-4059-a7a0-f2c1c2780fdf-12023-03-12T01:02:23Z2023-03-12T01:02:23Z2022-11-23El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costos en el espacio de almacenamiento, tiempo en transferencia de los datos o número de operaciones en su procesamiento, dentro de un computador. Lo anterior hace de la compresión sin perdida un objetivo razonable dentro de las Ciencias de la Computación y representa un reto importante durante el desarrollo de muchas soluciones tecnológicas. La teoría de la información, por su parte, ha establecido el formalismo matemático necesario para el estudio de medidas cuantitativas de información como la entropía de Shannon y ha encontrado su lugar dentro de la implementación de la compresión sin perdida al proveer algunas de las herramientas teóricas necesarias para el estudio de los modelos que describen las fuentes de datos en la teoría de la codificación. Por otro lado, la cercana relación que se ha encontrado entre la teoría de la información y la teoría de la compresión sin perdida ha motivado a muchos autores a ingeniar formas de medir a través de la compresión de archivos la información en ellos. Lo que ha resultado en interesantes aplicaciones de la compresión sin perdida en el aprendizaje automático, particularmente, en la clasificación de textos escritos en lenguaje natural o cadenas de ADN. En este escrito, se presenta una revisión monográfica acerca de cómo la teoría de la información se aplica a la compresión sin perdida. Para esto, se presentan algunas de las implementaciones de la compresión sin perdida en la teoría de códigos y sus respectivos análisis. Las demostraciones, gráficas, algoritmos e implementaciones en este escrito generalizan algunos de los hechos más importantes acerca de codificaciones binarias que se han enunciado en la literatura, al caso general de alfabetos de tamaños arbitrarios. Finalmente, se presenta una aplicación de la compresión sin perdida al aprendizaje automático de máquina, para la clasificación del lenguaje natural, mediante la aplicación del algoritmo de codificación LZ77 para estimar algunas medidas de información bien conocidas en la literatura, las cuales se emplean como medida de distancia para comparar los lenguajes entre sí. El resultado de la clasificación es presentado en la forma de árboles filogenéticos del lenguaje naturalThe lossless compression problem consists in implementing the encoding (uniquely decodable) of an alphabet, which assigns to each string of symbols of the alphabet the shortest possible code length. Finding this smallest representation of data can save costs in storage space, data transfer time, or number of data processing operations within a computer. This makes lossless compression a reasonable goal in Computer Science and represents a significant challenge during the development of many technological solutions. Information theory, for its part, has established the necessary mathematical formalism for the study of quantitative measures of information such as Shannon entropy and has found its place within the implementation of lossless compression by providing some of the theoretical tools necessary for the study of models that describe data sources in coding theory. On the other hand, the close relationship that has been found between information theory and lossless compression theory has motivated many authors to devise ways to measure the information in them through file compression. This has resulted in interesting applications of lossless compression in machine learning, particularly in the classification of texts written in natural language or DNA strings. In this paper, a monographic review is presented about how information theory is applied to lossless compression. For this, some of the implementations of lossless compression in code theory and their respective analysis are presented. The proofs, graphs, algorithms, and implementations in this paper generalize some of the most important facts about binary encodings that have been stated in the literature, to the general case of alphabets of arbitrary sizes. Finally, an application of lossless compression to automatic machine learning is presented, for the classification of natural language, through the application of the LZ77 coding algorithm to estimate some information measures well known in the literature, which are used as a distance metric to compare the languages with each other. The result of the classification is presented in the form of phylogenetic trees of natural language108 ppapplication/pdfhttps://doi.org/10.48713/10336_38216 https://repository.urosario.edu.co/handle/10336/38216spaUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaPrograma de Matemáticas Aplicadas y Ciencias de la Computación - MACCAttribution-NonCommercial-ShareAlike 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-sa/4.0/http://purl.org/coar/access_right/c_abf2Dario Benedetto, Emanuele Caglioti y Vittorio Loreto. «Language Trees and Zipping». En: Physical Review Letters 88.4 (2002). doi: 10.1103/PhysRevLett.88.048702.G. J. Chaitin. «A theory of program size formally identical to information theory». En: Journal of the ACM 22.3 (1975), págs. 329-340. doi: 10.1145/321892.321894.Rudi Cilibrasi y Paul M.B Vitányi. «Clustering by compression». En: IEEE TRANSACTIONS OF INFORMATION THEORY VOL 51, NO.4 (2005).Python community. scipy.cluster.hierarchy. 2022. url: https://docs.scipy.org/doc/scipy/reference/cluster.hierarchy.html.Thomas. M. Cover y Joy. A. Thomas. Elements of information theory. Wiley-Interscience. A John Wiley & Sons, INC, publication, 2006.Russell. D Gray, Simon. J Greenhill y Quentin. D Atkinson. «Lenguaje evolution and human history: what a difference a data makes». En: PHYLOSOPHICAL TRANSACTIONS OF THE ROYAL SOCIERY VOL 51, NO.4 (2011). doi: 10.1098/rstb.2010.0378.Ralph. V. L. Hartley. «Transmission of Information». En: bell system technical journal (1928). url: http://keszei.chem.elte.hu/entropia/Hartley1928text.pdf.Esteban Hernández Ramírez. Information-theory-Clustering. Nov. de 2022. url: https://github.com/estebanhernandezr/Information-theory-Clustering.PHILIPP VON HILGERS y AMY N. LANGVILLE. «THE FIVE GREATEST APPLICATIONS OF MARKOV CHAINS». En: Information and Control 7 (2010). url: https://langvillea.people. cofc.edu/MCapps7.pdf.Richard A. Johnson y Dean W. Wichern. Applied multivariate statistical analysis. Pearson, Prentice hall, 2007.K.Lindgren. Information theory for complex systems. Complex systems group. Department of Energy y Environment, 2014. isbn: 9780198520115A. N. Kolmogorov. «Three approaches to the quantitative definition of information». En: Problems in Information Transmission 1.1 (1965), págs. 1-7.Stanislav Krajci et al. «Performance Analysis of Fano coding». En: Signal and Information Processing Lab (2012).Ming Li y Paul Vitányi. An Introduction to Kolmogorov Complexity and Its Applications. Texts in computer science. Springer, 2019. isbn: 978-3-030-11297-4.Toshiko Matsumoto. «Biological Sequence Compression Algorithms». En: Genome Informatics 11 (2000), págs. 43-52. doi: 10.11234/GI1990.11.43.Organización de Naciones Unidas. Base de datos de la Declaración Universal de los Derechos Humanos. 2022. url: https://www.ohchr.org/es/universal-declaration-of-human-rights.C. E. Shannon. «A mathematical theory of communication». En: The Bell System Technical Journal 27.3 (1948), págs. 379-423. doi: 10.1002/j.1538-7305.1948.tb01338.x.R. J. Solomonoff. «A formal theory of inductive inference». En: Information and Control 7 Parts 1 and 2.1-22 (1964), págs. 224-254. doi: https://doi.org/10.1016/S0019-9958(64)90223-2.Madhu Sudan y Xiang David. «A Self-Contained Analysis of the Lempel-Ziv Compression Algorithm». En: Harvard John A. Paulson School of Engineering and Applied Sciences (2019).Andreia Teixeira et al. «Entropy Measures vs. Kolmogorov Complexity». En: Entropy 13.3 (2011), págs. 595-611. issn: 1099-4300. doi: 10.3390/e13030595. url: https://www.mdpi.com/1099-4300/13/3/595.Benedetta Tondi y Mauro Barni. Lectures notes on Information Theory and Coding. Universita degli Studi di Siena Facolta di Ingegneria, 2012.Paul M.B. Vitányi. «How Incomputable Is Kolmogorov Complexity?» En: Entropy 22.4 (2020). issn: 1099-4300. doi: 10.3390/e22040408. url: https://www.mdpi.com/1099-4300/22/4/408.Mark M. Wilde. Quantum Information Theory. Cambridge University press, 2013. isbn: 978-1-107-03425-9.Christina Zeeh. The Lempel Ziv Algorithm. Seminar ”Famous Algorithms”. 2003.Jacob Ziv y Abraham Lempel. «A Universal Algorithm for Sequential Data Compression». En: IEEE TRANSACTIONS ON INFORMATION THEORY 23.3 (1977), págs. 337-343. doi: 10.1109/TIT.1977.1055714.Peter Zörnig. Non-linear programming. De Gruyter Textbook. 2014. doi: https://doi.org/10.1515/9783110315288.instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURTeoría de la informaciónTeoría de la codificaciónCompresión de archivosEntropía de ShannonAprendizaje automático de máquinaCodificación de HuffmanProcesamiento del lenguaje naturalÁrboles filogenéticos del lenguaje naturalPrincipio de máxima entropíaDivergencia Kullback-LeiblerProcesos estocásticosContenido de información de HartleyInformation theoryCoding theoryFile compressionMachine learningShannon's entropyHuffman codingLZ77Natural language processingPhylogenetic trees of natural languagePrinciple of maximum entropyKullback-Leibler divergenceStochastic processesTeoría de la información y la compresión de cadenasInformation theory and file compressionbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALTeoria_de_la_informacion_y-la compresion-de-cadenas.pdfTeoria_de_la_informacion_y-la compresion-de-cadenas.pdfapplication/pdf2331578https://repository.urosario.edu.co/bitstreams/258024b3-b37a-4d9f-a38f-06132e63d838/download6562486a6723b2483d9f8ca8588d1074MD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/583cec29-d35f-4eb0-9853-8cdad4817c8e/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81160https://repository.urosario.edu.co/bitstreams/3e6c96e5-6f6c-44b3-82fb-f1be0f0cde1f/download5643bfd9bcf29d560eeec56d584edaa9MD53TEXTTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.txtTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.txtExtracted texttext/plain104619https://repository.urosario.edu.co/bitstreams/8ac23675-c1a7-462c-9b91-17b7111607bf/downloadd2122d973dedfc8b05e34270834d48a4MD54THUMBNAILTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.jpgTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.jpgGenerated Thumbnailimage/jpeg2599https://repository.urosario.edu.co/bitstreams/b3d3ea18-ca2d-4bb4-af0e-6372f3032571/downloadf114c1352a763685473cb4e12e520d84MD5510336/38216oai:repository.urosario.edu.co:10336/382162023-03-12 03:02:47.802http://creativecommons.org/licenses/by-nc-sa/4.0/Attribution-NonCommercial-ShareAlike 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg==