Teoría de la información y la compresión de cadenas
El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costo...
- Autores:
- Tipo de recurso:
- Fecha de publicación:
- 2022
- Institución:
- Universidad del Rosario
- Repositorio:
- Repositorio EdocUR - U. Rosario
- Idioma:
- spa
- OAI Identifier:
- oai:repository.urosario.edu.co:10336/38216
- Acceso en línea:
- https://doi.org/10.48713/10336_38216
https://repository.urosario.edu.co/handle/10336/38216
- Palabra clave:
- Teoría de la información
Teoría de la codificación
Compresión de archivos
Entropía de Shannon
Aprendizaje automático de máquina
Codificación de Huffman
Procesamiento del lenguaje natural
Árboles filogenéticos del lenguaje natural
Principio de máxima entropía
Divergencia Kullback-Leibler
Procesos estocásticos
Contenido de información de Hartley
Information theory
Coding theory
File compression
Machine learning
Shannon's entropy
Huffman coding
LZ77
Natural language processing
Phylogenetic trees of natural language
Principle of maximum entropy
Kullback-Leibler divergence
Stochastic processes
- Rights
- License
- Attribution-NonCommercial-ShareAlike 4.0 International
id |
EDOCUR2_08afc1bf042f05ff0cb84faca40b5c45 |
---|---|
oai_identifier_str |
oai:repository.urosario.edu.co:10336/38216 |
network_acronym_str |
EDOCUR2 |
network_name_str |
Repositorio EdocUR - U. Rosario |
repository_id_str |
|
dc.title.none.fl_str_mv |
Teoría de la información y la compresión de cadenas |
dc.title.TranslatedTitle.none.fl_str_mv |
Information theory and file compression |
title |
Teoría de la información y la compresión de cadenas |
spellingShingle |
Teoría de la información y la compresión de cadenas Teoría de la información Teoría de la codificación Compresión de archivos Entropía de Shannon Aprendizaje automático de máquina Codificación de Huffman Procesamiento del lenguaje natural Árboles filogenéticos del lenguaje natural Principio de máxima entropía Divergencia Kullback-Leibler Procesos estocásticos Contenido de información de Hartley Information theory Coding theory File compression Machine learning Shannon's entropy Huffman coding LZ77 Natural language processing Phylogenetic trees of natural language Principle of maximum entropy Kullback-Leibler divergence Stochastic processes |
title_short |
Teoría de la información y la compresión de cadenas |
title_full |
Teoría de la información y la compresión de cadenas |
title_fullStr |
Teoría de la información y la compresión de cadenas |
title_full_unstemmed |
Teoría de la información y la compresión de cadenas |
title_sort |
Teoría de la información y la compresión de cadenas |
dc.contributor.advisor.none.fl_str_mv |
Álvarez Cabrera, Carlos Eduardo |
dc.subject.none.fl_str_mv |
Teoría de la información Teoría de la codificación Compresión de archivos Entropía de Shannon Aprendizaje automático de máquina Codificación de Huffman Procesamiento del lenguaje natural Árboles filogenéticos del lenguaje natural Principio de máxima entropía Divergencia Kullback-Leibler Procesos estocásticos Contenido de información de Hartley |
topic |
Teoría de la información Teoría de la codificación Compresión de archivos Entropía de Shannon Aprendizaje automático de máquina Codificación de Huffman Procesamiento del lenguaje natural Árboles filogenéticos del lenguaje natural Principio de máxima entropía Divergencia Kullback-Leibler Procesos estocásticos Contenido de información de Hartley Information theory Coding theory File compression Machine learning Shannon's entropy Huffman coding LZ77 Natural language processing Phylogenetic trees of natural language Principle of maximum entropy Kullback-Leibler divergence Stochastic processes |
dc.subject.keyword.none.fl_str_mv |
Information theory Coding theory File compression Machine learning Shannon's entropy Huffman coding LZ77 Natural language processing Phylogenetic trees of natural language Principle of maximum entropy Kullback-Leibler divergence Stochastic processes |
description |
El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costos en el espacio de almacenamiento, tiempo en transferencia de los datos o número de operaciones en su procesamiento, dentro de un computador. Lo anterior hace de la compresión sin perdida un objetivo razonable dentro de las Ciencias de la Computación y representa un reto importante durante el desarrollo de muchas soluciones tecnológicas. La teoría de la información, por su parte, ha establecido el formalismo matemático necesario para el estudio de medidas cuantitativas de información como la entropía de Shannon y ha encontrado su lugar dentro de la implementación de la compresión sin perdida al proveer algunas de las herramientas teóricas necesarias para el estudio de los modelos que describen las fuentes de datos en la teoría de la codificación. Por otro lado, la cercana relación que se ha encontrado entre la teoría de la información y la teoría de la compresión sin perdida ha motivado a muchos autores a ingeniar formas de medir a través de la compresión de archivos la información en ellos. Lo que ha resultado en interesantes aplicaciones de la compresión sin perdida en el aprendizaje automático, particularmente, en la clasificación de textos escritos en lenguaje natural o cadenas de ADN. En este escrito, se presenta una revisión monográfica acerca de cómo la teoría de la información se aplica a la compresión sin perdida. Para esto, se presentan algunas de las implementaciones de la compresión sin perdida en la teoría de códigos y sus respectivos análisis. Las demostraciones, gráficas, algoritmos e implementaciones en este escrito generalizan algunos de los hechos más importantes acerca de codificaciones binarias que se han enunciado en la literatura, al caso general de alfabetos de tamaños arbitrarios. Finalmente, se presenta una aplicación de la compresión sin perdida al aprendizaje automático de máquina, para la clasificación del lenguaje natural, mediante la aplicación del algoritmo de codificación LZ77 para estimar algunas medidas de información bien conocidas en la literatura, las cuales se emplean como medida de distancia para comparar los lenguajes entre sí. El resultado de la clasificación es presentado en la forma de árboles filogenéticos del lenguaje natural |
publishDate |
2022 |
dc.date.created.none.fl_str_mv |
2022-11-23 |
dc.date.accessioned.none.fl_str_mv |
2023-03-12T01:02:23Z |
dc.date.available.none.fl_str_mv |
2023-03-12T01:02:23Z |
dc.type.none.fl_str_mv |
bachelorThesis |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.document.none.fl_str_mv |
Trabajo de grado |
dc.type.spa.none.fl_str_mv |
Trabajo de grado |
dc.identifier.doi.none.fl_str_mv |
https://doi.org/10.48713/10336_38216 |
dc.identifier.uri.none.fl_str_mv |
https://repository.urosario.edu.co/handle/10336/38216 |
url |
https://doi.org/10.48713/10336_38216 https://repository.urosario.edu.co/handle/10336/38216 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.rights.*.fl_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.acceso.none.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
rights_invalid_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International Abierto (Texto Completo) http://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
dc.format.extent.none.fl_str_mv |
108 pp |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad del Rosario |
dc.publisher.department.none.fl_str_mv |
Escuela de Ingeniería, Ciencia y Tecnología |
dc.publisher.program.none.fl_str_mv |
Programa de Matemáticas Aplicadas y Ciencias de la Computación - MACC |
publisher.none.fl_str_mv |
Universidad del Rosario |
institution |
Universidad del Rosario |
dc.source.bibliographicCitation.none.fl_str_mv |
Dario Benedetto, Emanuele Caglioti y Vittorio Loreto. «Language Trees and Zipping». En: Physical Review Letters 88.4 (2002). doi: 10.1103/PhysRevLett.88.048702. G. J. Chaitin. «A theory of program size formally identical to information theory». En: Journal of the ACM 22.3 (1975), págs. 329-340. doi: 10.1145/321892.321894. Rudi Cilibrasi y Paul M.B Vitányi. «Clustering by compression». En: IEEE TRANSACTIONS OF INFORMATION THEORY VOL 51, NO.4 (2005). Python community. scipy.cluster.hierarchy. 2022. url: https://docs.scipy.org/doc/scipy/reference/cluster.hierarchy.html. Thomas. M. Cover y Joy. A. Thomas. Elements of information theory. Wiley-Interscience. A John Wiley & Sons, INC, publication, 2006. Russell. D Gray, Simon. J Greenhill y Quentin. D Atkinson. «Lenguaje evolution and human history: what a difference a data makes». En: PHYLOSOPHICAL TRANSACTIONS OF THE ROYAL SOCIERY VOL 51, NO.4 (2011). doi: 10.1098/rstb.2010.0378. Ralph. V. L. Hartley. «Transmission of Information». En: bell system technical journal (1928). url: http://keszei.chem.elte.hu/entropia/Hartley1928text.pdf. Esteban Hernández Ramírez. Information-theory-Clustering. Nov. de 2022. url: https://github.com/estebanhernandezr/Information-theory-Clustering. PHILIPP VON HILGERS y AMY N. LANGVILLE. «THE FIVE GREATEST APPLICATIONS OF MARKOV CHAINS». En: Information and Control 7 (2010). url: https://langvillea.people. cofc.edu/MCapps7.pdf. Richard A. Johnson y Dean W. Wichern. Applied multivariate statistical analysis. Pearson, Prentice hall, 2007. K.Lindgren. Information theory for complex systems. Complex systems group. Department of Energy y Environment, 2014. isbn: 9780198520115 A. N. Kolmogorov. «Three approaches to the quantitative definition of information». En: Problems in Information Transmission 1.1 (1965), págs. 1-7. Stanislav Krajci et al. «Performance Analysis of Fano coding». En: Signal and Information Processing Lab (2012). Ming Li y Paul Vitányi. An Introduction to Kolmogorov Complexity and Its Applications. Texts in computer science. Springer, 2019. isbn: 978-3-030-11297-4. Toshiko Matsumoto. «Biological Sequence Compression Algorithms». En: Genome Informatics 11 (2000), págs. 43-52. doi: 10.11234/GI1990.11.43. Organización de Naciones Unidas. Base de datos de la Declaración Universal de los Derechos Humanos. 2022. url: https://www.ohchr.org/es/universal-declaration-of-human-rights. C. E. Shannon. «A mathematical theory of communication». En: The Bell System Technical Journal 27.3 (1948), págs. 379-423. doi: 10.1002/j.1538-7305.1948.tb01338.x. R. J. Solomonoff. «A formal theory of inductive inference». En: Information and Control 7 Parts 1 and 2.1-22 (1964), págs. 224-254. doi: https://doi.org/10.1016/S0019-9958(64)90223-2. Madhu Sudan y Xiang David. «A Self-Contained Analysis of the Lempel-Ziv Compression Algorithm». En: Harvard John A. Paulson School of Engineering and Applied Sciences (2019). Andreia Teixeira et al. «Entropy Measures vs. Kolmogorov Complexity». En: Entropy 13.3 (2011), págs. 595-611. issn: 1099-4300. doi: 10.3390/e13030595. url: https://www.mdpi.com/1099-4300/13/3/595. Benedetta Tondi y Mauro Barni. Lectures notes on Information Theory and Coding. Universita degli Studi di Siena Facolta di Ingegneria, 2012. Paul M.B. Vitányi. «How Incomputable Is Kolmogorov Complexity?» En: Entropy 22.4 (2020). issn: 1099-4300. doi: 10.3390/e22040408. url: https://www.mdpi.com/1099-4300/22/4/408. Mark M. Wilde. Quantum Information Theory. Cambridge University press, 2013. isbn: 978-1-107-03425-9. Christina Zeeh. The Lempel Ziv Algorithm. Seminar ”Famous Algorithms”. 2003. Jacob Ziv y Abraham Lempel. «A Universal Algorithm for Sequential Data Compression». En: IEEE TRANSACTIONS ON INFORMATION THEORY 23.3 (1977), págs. 337-343. doi: 10.1109/TIT.1977.1055714. Peter Zörnig. Non-linear programming. De Gruyter Textbook. 2014. doi: https://doi.org/10.1515/9783110315288. |
dc.source.instname.none.fl_str_mv |
instname:Universidad del Rosario |
dc.source.reponame.none.fl_str_mv |
reponame:Repositorio Institucional EdocUR |
bitstream.url.fl_str_mv |
https://repository.urosario.edu.co/bitstreams/258024b3-b37a-4d9f-a38f-06132e63d838/download https://repository.urosario.edu.co/bitstreams/583cec29-d35f-4eb0-9853-8cdad4817c8e/download https://repository.urosario.edu.co/bitstreams/3e6c96e5-6f6c-44b3-82fb-f1be0f0cde1f/download https://repository.urosario.edu.co/bitstreams/8ac23675-c1a7-462c-9b91-17b7111607bf/download https://repository.urosario.edu.co/bitstreams/b3d3ea18-ca2d-4bb4-af0e-6372f3032571/download |
bitstream.checksum.fl_str_mv |
6562486a6723b2483d9f8ca8588d1074 b2825df9f458e9d5d96ee8b7cd74fde6 5643bfd9bcf29d560eeec56d584edaa9 d2122d973dedfc8b05e34270834d48a4 f114c1352a763685473cb4e12e520d84 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional EdocUR |
repository.mail.fl_str_mv |
edocur@urosario.edu.co |
_version_ |
1814167693873381376 |
spelling |
Álvarez Cabrera, Carlos Eduardo83ed304a-0319-419b-8920-c5a0424f2ca3-1Hernández Ramírez, EstebanProfesional en Matemáticas Aplicadas y Ciencias de la ComputaciónPregradoFull timed5df8f61-3f1d-4059-a7a0-f2c1c2780fdf-12023-03-12T01:02:23Z2023-03-12T01:02:23Z2022-11-23El problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costos en el espacio de almacenamiento, tiempo en transferencia de los datos o número de operaciones en su procesamiento, dentro de un computador. Lo anterior hace de la compresión sin perdida un objetivo razonable dentro de las Ciencias de la Computación y representa un reto importante durante el desarrollo de muchas soluciones tecnológicas. La teoría de la información, por su parte, ha establecido el formalismo matemático necesario para el estudio de medidas cuantitativas de información como la entropía de Shannon y ha encontrado su lugar dentro de la implementación de la compresión sin perdida al proveer algunas de las herramientas teóricas necesarias para el estudio de los modelos que describen las fuentes de datos en la teoría de la codificación. Por otro lado, la cercana relación que se ha encontrado entre la teoría de la información y la teoría de la compresión sin perdida ha motivado a muchos autores a ingeniar formas de medir a través de la compresión de archivos la información en ellos. Lo que ha resultado en interesantes aplicaciones de la compresión sin perdida en el aprendizaje automático, particularmente, en la clasificación de textos escritos en lenguaje natural o cadenas de ADN. En este escrito, se presenta una revisión monográfica acerca de cómo la teoría de la información se aplica a la compresión sin perdida. Para esto, se presentan algunas de las implementaciones de la compresión sin perdida en la teoría de códigos y sus respectivos análisis. Las demostraciones, gráficas, algoritmos e implementaciones en este escrito generalizan algunos de los hechos más importantes acerca de codificaciones binarias que se han enunciado en la literatura, al caso general de alfabetos de tamaños arbitrarios. Finalmente, se presenta una aplicación de la compresión sin perdida al aprendizaje automático de máquina, para la clasificación del lenguaje natural, mediante la aplicación del algoritmo de codificación LZ77 para estimar algunas medidas de información bien conocidas en la literatura, las cuales se emplean como medida de distancia para comparar los lenguajes entre sí. El resultado de la clasificación es presentado en la forma de árboles filogenéticos del lenguaje naturalThe lossless compression problem consists in implementing the encoding (uniquely decodable) of an alphabet, which assigns to each string of symbols of the alphabet the shortest possible code length. Finding this smallest representation of data can save costs in storage space, data transfer time, or number of data processing operations within a computer. This makes lossless compression a reasonable goal in Computer Science and represents a significant challenge during the development of many technological solutions. Information theory, for its part, has established the necessary mathematical formalism for the study of quantitative measures of information such as Shannon entropy and has found its place within the implementation of lossless compression by providing some of the theoretical tools necessary for the study of models that describe data sources in coding theory. On the other hand, the close relationship that has been found between information theory and lossless compression theory has motivated many authors to devise ways to measure the information in them through file compression. This has resulted in interesting applications of lossless compression in machine learning, particularly in the classification of texts written in natural language or DNA strings. In this paper, a monographic review is presented about how information theory is applied to lossless compression. For this, some of the implementations of lossless compression in code theory and their respective analysis are presented. The proofs, graphs, algorithms, and implementations in this paper generalize some of the most important facts about binary encodings that have been stated in the literature, to the general case of alphabets of arbitrary sizes. Finally, an application of lossless compression to automatic machine learning is presented, for the classification of natural language, through the application of the LZ77 coding algorithm to estimate some information measures well known in the literature, which are used as a distance metric to compare the languages with each other. The result of the classification is presented in the form of phylogenetic trees of natural language108 ppapplication/pdfhttps://doi.org/10.48713/10336_38216 https://repository.urosario.edu.co/handle/10336/38216spaUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaPrograma de Matemáticas Aplicadas y Ciencias de la Computación - MACCAttribution-NonCommercial-ShareAlike 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-sa/4.0/http://purl.org/coar/access_right/c_abf2Dario Benedetto, Emanuele Caglioti y Vittorio Loreto. «Language Trees and Zipping». En: Physical Review Letters 88.4 (2002). doi: 10.1103/PhysRevLett.88.048702.G. J. Chaitin. «A theory of program size formally identical to information theory». En: Journal of the ACM 22.3 (1975), págs. 329-340. doi: 10.1145/321892.321894.Rudi Cilibrasi y Paul M.B Vitányi. «Clustering by compression». En: IEEE TRANSACTIONS OF INFORMATION THEORY VOL 51, NO.4 (2005).Python community. scipy.cluster.hierarchy. 2022. url: https://docs.scipy.org/doc/scipy/reference/cluster.hierarchy.html.Thomas. M. Cover y Joy. A. Thomas. Elements of information theory. Wiley-Interscience. A John Wiley & Sons, INC, publication, 2006.Russell. D Gray, Simon. J Greenhill y Quentin. D Atkinson. «Lenguaje evolution and human history: what a difference a data makes». En: PHYLOSOPHICAL TRANSACTIONS OF THE ROYAL SOCIERY VOL 51, NO.4 (2011). doi: 10.1098/rstb.2010.0378.Ralph. V. L. Hartley. «Transmission of Information». En: bell system technical journal (1928). url: http://keszei.chem.elte.hu/entropia/Hartley1928text.pdf.Esteban Hernández Ramírez. Information-theory-Clustering. Nov. de 2022. url: https://github.com/estebanhernandezr/Information-theory-Clustering.PHILIPP VON HILGERS y AMY N. LANGVILLE. «THE FIVE GREATEST APPLICATIONS OF MARKOV CHAINS». En: Information and Control 7 (2010). url: https://langvillea.people. cofc.edu/MCapps7.pdf.Richard A. Johnson y Dean W. Wichern. Applied multivariate statistical analysis. Pearson, Prentice hall, 2007.K.Lindgren. Information theory for complex systems. Complex systems group. Department of Energy y Environment, 2014. isbn: 9780198520115A. N. Kolmogorov. «Three approaches to the quantitative definition of information». En: Problems in Information Transmission 1.1 (1965), págs. 1-7.Stanislav Krajci et al. «Performance Analysis of Fano coding». En: Signal and Information Processing Lab (2012).Ming Li y Paul Vitányi. An Introduction to Kolmogorov Complexity and Its Applications. Texts in computer science. Springer, 2019. isbn: 978-3-030-11297-4.Toshiko Matsumoto. «Biological Sequence Compression Algorithms». En: Genome Informatics 11 (2000), págs. 43-52. doi: 10.11234/GI1990.11.43.Organización de Naciones Unidas. Base de datos de la Declaración Universal de los Derechos Humanos. 2022. url: https://www.ohchr.org/es/universal-declaration-of-human-rights.C. E. Shannon. «A mathematical theory of communication». En: The Bell System Technical Journal 27.3 (1948), págs. 379-423. doi: 10.1002/j.1538-7305.1948.tb01338.x.R. J. Solomonoff. «A formal theory of inductive inference». En: Information and Control 7 Parts 1 and 2.1-22 (1964), págs. 224-254. doi: https://doi.org/10.1016/S0019-9958(64)90223-2.Madhu Sudan y Xiang David. «A Self-Contained Analysis of the Lempel-Ziv Compression Algorithm». En: Harvard John A. Paulson School of Engineering and Applied Sciences (2019).Andreia Teixeira et al. «Entropy Measures vs. Kolmogorov Complexity». En: Entropy 13.3 (2011), págs. 595-611. issn: 1099-4300. doi: 10.3390/e13030595. url: https://www.mdpi.com/1099-4300/13/3/595.Benedetta Tondi y Mauro Barni. Lectures notes on Information Theory and Coding. Universita degli Studi di Siena Facolta di Ingegneria, 2012.Paul M.B. Vitányi. «How Incomputable Is Kolmogorov Complexity?» En: Entropy 22.4 (2020). issn: 1099-4300. doi: 10.3390/e22040408. url: https://www.mdpi.com/1099-4300/22/4/408.Mark M. Wilde. Quantum Information Theory. Cambridge University press, 2013. isbn: 978-1-107-03425-9.Christina Zeeh. The Lempel Ziv Algorithm. Seminar ”Famous Algorithms”. 2003.Jacob Ziv y Abraham Lempel. «A Universal Algorithm for Sequential Data Compression». En: IEEE TRANSACTIONS ON INFORMATION THEORY 23.3 (1977), págs. 337-343. doi: 10.1109/TIT.1977.1055714.Peter Zörnig. Non-linear programming. De Gruyter Textbook. 2014. doi: https://doi.org/10.1515/9783110315288.instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURTeoría de la informaciónTeoría de la codificaciónCompresión de archivosEntropía de ShannonAprendizaje automático de máquinaCodificación de HuffmanProcesamiento del lenguaje naturalÁrboles filogenéticos del lenguaje naturalPrincipio de máxima entropíaDivergencia Kullback-LeiblerProcesos estocásticosContenido de información de HartleyInformation theoryCoding theoryFile compressionMachine learningShannon's entropyHuffman codingLZ77Natural language processingPhylogenetic trees of natural languagePrinciple of maximum entropyKullback-Leibler divergenceStochastic processesTeoría de la información y la compresión de cadenasInformation theory and file compressionbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALTeoria_de_la_informacion_y-la compresion-de-cadenas.pdfTeoria_de_la_informacion_y-la compresion-de-cadenas.pdfapplication/pdf2331578https://repository.urosario.edu.co/bitstreams/258024b3-b37a-4d9f-a38f-06132e63d838/download6562486a6723b2483d9f8ca8588d1074MD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/583cec29-d35f-4eb0-9853-8cdad4817c8e/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81160https://repository.urosario.edu.co/bitstreams/3e6c96e5-6f6c-44b3-82fb-f1be0f0cde1f/download5643bfd9bcf29d560eeec56d584edaa9MD53TEXTTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.txtTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.txtExtracted texttext/plain104619https://repository.urosario.edu.co/bitstreams/8ac23675-c1a7-462c-9b91-17b7111607bf/downloadd2122d973dedfc8b05e34270834d48a4MD54THUMBNAILTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.jpgTeoria_de_la_informacion_y-la compresion-de-cadenas.pdf.jpgGenerated Thumbnailimage/jpeg2599https://repository.urosario.edu.co/bitstreams/b3d3ea18-ca2d-4bb4-af0e-6372f3032571/downloadf114c1352a763685473cb4e12e520d84MD5510336/38216oai:repository.urosario.edu.co:10336/382162023-03-12 03:02:47.802http://creativecommons.org/licenses/by-nc-sa/4.0/Attribution-NonCommercial-ShareAlike 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg== |