Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad

Este trabajo continúa un trabajo previo, desarrollado por Andrés Takashi Bravo Yaguchi, que identificó la escasez de expertos en ciberseguridad [9] y busca evaluar la utilidad de los modelos LLM (Large Language Model) como herramientas para resolver preguntas de ciberseguridad. La escasez de experto...

Full description

Autores:
Castellanos Bonilla, Juan Diego
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/74392
Acceso en línea:
https://hdl.handle.net/1992/74392
Palabra clave:
Ciberseguridad
Modelos de lenguajes de gran tamaño
Ingeniería
Rights
embargoedAccess
License
Attribution 4.0 International
id UNIANDES2_ab4160894d37a1f9e130c5b70bbd6902
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/74392
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.spa.fl_str_mv Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
title Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
spellingShingle Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
Ciberseguridad
Modelos de lenguajes de gran tamaño
Ingeniería
title_short Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
title_full Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
title_fullStr Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
title_full_unstemmed Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
title_sort Evaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridad
dc.creator.fl_str_mv Castellanos Bonilla, Juan Diego
dc.contributor.advisor.none.fl_str_mv Rueda Rodríguez, Sandra Julieta
dc.contributor.author.none.fl_str_mv Castellanos Bonilla, Juan Diego
dc.subject.keyword.spa.fl_str_mv Ciberseguridad
Modelos de lenguajes de gran tamaño
topic Ciberseguridad
Modelos de lenguajes de gran tamaño
Ingeniería
dc.subject.themes.spa.fl_str_mv Ingeniería
description Este trabajo continúa un trabajo previo, desarrollado por Andrés Takashi Bravo Yaguchi, que identificó la escasez de expertos en ciberseguridad [9] y busca evaluar la utilidad de los modelos LLM (Large Language Model) como herramientas para resolver preguntas de ciberseguridad. La escasez de expertos en ciberseguridad aumenta la exposición de las organizaciones, a nivel mundial, a ciberataques. Esta afirmación es respaldada por el consorcio internacional de certificación de seguridad de sistemas de información (ISC) cuando menciona que hay una fuerte demanda para la seguridad de la nube y manejo de AI, mientras que la escasez de mano calificada aumenta [25]. Adicionalmente, en el 2023 un grupo de expertos de SECURE de Asia pacífico evalúa el desafío de la AI y la oportunidad de crecimiento de fuerza laboral. Ellos encontraron que dicha fuerza laboral en 11.8 % en el mundo y un 23.8 % en Japón, pero al mismo tiempo la demanda laboral aumentó 23.4 %. La diferencia entre la disponibilidad y la demanda muestra un vacío en fuerza de trabajo y habilidades requeridas [26]. Para disminuir este vacío ISC decidió dar a sus afiliados créditos para tomar cursos los cuales incluyen los temas: 1. El creciente papel de la IA en la ciberdefensa 2. bordar la brecha de mano de obra y habilidades en APAC 3. Por qué la ciberseguridad debería prestar atención a la desinformación y el ’hacking cognitivo’ 4. Las realidades de lograr la resiliencia en ciberseguridad 5. Gestión del riesgo cibernético utilizando marcos como NIST 6. La evolución de los controles de acceso a la nube Estos temas fueron tocados durante dos días con el fin de disminuir un poco la brecha entre la oferta y la demanda. Teniendo en cuenta el auge que han tenido los LLM (large language models) y con el estudio que hizo el grupo de expertos de SECURE se quiere comprobar si mediante el uso de diferentes LLM se puede llegar a obtener soluciones viables y comprensibles para disminuir la brecha existente entre oferta y demanda en el campo de ciberseguridad. Este proyecto busca evaluar y realizar una comparación de la utilidad de diferentes modelos de lenguaje para responder correctamente las preguntas relacionadas al tema de seguridad y la información. Después de esto realizar una comparación con el modelo mas conocido CHATGPT. Con el fin de tener una comparación precisa, se utilizaron los mismos datos usados en el trabajo previo. Para poder obtener las respuestas de los otros tres modelos, se realizó lo siguiente: Claude utiliza el API de anthropic para generar respuestas a partir de una solicitud del usuario. Llama utiliza el API de Meta para generar respuestas a partir de una solicitud del usuario. Falcon Utiliza las librerias necesarias y luego de esto carga el modelo de FALCON mediante un pipeline. 1. transformers 2. einops 3. accelerate 4. langchain 5. bitsandbytes. Dado que el trabajo previo pudo establecer que ChatGPT puede ser utilizado para generar respuestas que mantienen similitudes gramaticales con las respuestas escritas por humanos y que el modelo tiene el potencial de funcionar como una herramienta de consulta, generando respuestas útiles a preguntas relacionadas con la seguridad de la información. En este estudio, no solo se busca determinar si los tres nuevos modelos pueden igualar la eficacia de ChatGPT, sino que también se explora la posibilidad de encontrar alternativas que puedan ofrecer una calidad superior a la del modelo más reconocido. El objetivo es ampliar el conjunto de herramientas disponibles en el campo de la ciberseguridad, proporcionando así más opciones para abordar la creciente demanda de expertos en este ámbito. Al final de esto se busca determinar el nivel de similitud que guardan las respuestas generadas por los modelos con las respuestas dadas por los usuarios en el foro y obtenidas en chatGPT. Mediante el uso de pruebas de similitud semántica de textos y revisión manual de algunas respuestas con verificación humana. En el trabajo previo, el autor estableció que ChatGPT puede generar respuestas útiles a preguntas en ciberseguridad. Este estudio amplía la investigación previa comparando ChatGPT con otros tres modelos de lenguaje: Claude, Llama y Falcon, para determinar si estos modelos pueden ofrecer respuestas de igual o mejor calidad. El contexto del problema se sitúa tanto a nivel global como en Colombia, donde se destaca la escasez de profesionales capacitados en ciberseguridad y las graves consecuencias que esto tiene para las organizaciones. La creciente demanda de expertos en ´áreas emergentes como la seguridad de la nube y la inteligencia artificial agrava esta situación. Para abordar este desafío, se discuten nuevas herramientas y modelos de lenguaje que podrían ayudar a reducir la brecha entre la oferta y la demanda de habilidades en ciberseguridad. La solución propuesta se basa en el uso de datos y métricas específicas para evaluar las respuestas generadas por los modelos de lenguaje. Las métricas utilizadas incluyen BLEU, ROUGE y METEOR, estándares en la evaluación de la calidad de traducciones y respuestas generadas por inteligencia artificial. Además, las respuestas se anotan manualmente para asegurar una evaluación precisa y confiable, lo que refuerza la validez de los resultados obtenidos. El proceso de implementación de las pruebas implicó analizar publicaciones en Stack Exchange y seleccionar preguntas relevantes para el estudio. Se configuraron y utilizaron herramientas específicas para ejecutar los modelos de lenguaje (Claude, Vicuna y Falcon). Este documento presenta los resultados de las pruebas en tablas y figuras, y los resultados de las métricas calculadas para evaluar la calidad de las respuestas generadas por los modelos de lenguaje. Las métricas BLEU, ROUGE y METEOR permitieron comparar la precisión y relevancia de las respuestas en relación con las respuestas humanas. Además, una evaluación manual realizada por verificadores humanos proporcionó una visión más completa de la eficacia de cada modelo, añadiendo una capa adicional de rigor a los hallazgos. Finalmente, los resultados del estudio mostraron que el modelo Claude tuvo un mejor desempeñó en tres de las cinco métricas consideradas: BLEU, ROUGE1 y METEOR, con puntajes de 0.0629, 0.2090 y 0.2287 respectivamente. Estos resultados sugieren que Claude es más eficaz en la generación de texto coherente y relevante. Falcon obtuvo el mejor desempeñó en la métrica ROUGE1 con un puntaje de 0.2378, mientras que Llama destacó en ROUGE2 con un puntaje de 0.0342, indicando su habilidad para capturar detalles específicos en las respuestas. Aunque Claude demostró ser el más versátil, cada modelo tiene fortalezas que pueden ser ´útiles en diferentes contextos de ciberseguridad. Para futuras investigaciones, sería beneficioso evaluar una gama más amplia de modelos y métricas, explorar su desempeño en diversas aplicaciones de ciberseguridad y realizar estudios longitudinales para observar la evolución de estos modelos y su impacto en la industria. También se podría investigar la integración de estos modelos en sistemas de ciberdefensa automatizados para probar su eficacia en escenarios reales. Además, la colaboración con expertos en ciberseguridad para la creación de conjuntos de datos más relevantes y desafiantes podría proporcionar una mejor base para evaluar y mejorar estos modelos.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-06-26T16:51:25Z
dc.date.issued.none.fl_str_mv 2024-06-14
dc.date.accepted.none.fl_str_mv 2024-06-26
dc.date.available.none.fl_str_mv 2025-12-31
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/1992/74392
dc.identifier.instname.none.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.none.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url https://hdl.handle.net/1992/74392
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.none.fl_str_mv spa
language spa
dc.rights.en.fl_str_mv Attribution 4.0 International
dc.rights.uri.none.fl_str_mv http://creativecommons.org/licenses/by/4.0/
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/embargoedAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_f1cf
rights_invalid_str_mv Attribution 4.0 International
http://creativecommons.org/licenses/by/4.0/
http://purl.org/coar/access_right/c_f1cf
eu_rights_str_mv embargoedAccess
dc.format.extent.none.fl_str_mv 58 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de los Andes
dc.publisher.program.none.fl_str_mv Ingeniería de Sistemas y Computación
dc.publisher.faculty.none.fl_str_mv Facultad de Ingeniería
dc.publisher.department.none.fl_str_mv Departamento de Ingeniería de Sistemas y Computación
publisher.none.fl_str_mv Universidad de los Andes
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/bbfb12e5-cbfc-4da7-a940-5fa2dfca6b52/download
https://repositorio.uniandes.edu.co/bitstreams/c1707b85-21fa-45a9-9eaf-88ee94e82276/download
https://repositorio.uniandes.edu.co/bitstreams/145a6c19-6b51-4e42-8d50-291b99edce91/download
https://repositorio.uniandes.edu.co/bitstreams/43a82aae-d94c-4b25-aced-6cb9c87b6e41/download
https://repositorio.uniandes.edu.co/bitstreams/f737e882-a5d7-48ba-a019-a3fcac2c281a/download
https://repositorio.uniandes.edu.co/bitstreams/bfe91227-3673-4f2b-a533-5bc47f79f6b2/download
https://repositorio.uniandes.edu.co/bitstreams/b34e05f6-e4f5-4429-8ca8-06ada11d1aac/download
https://repositorio.uniandes.edu.co/bitstreams/38074896-72c1-4121-a849-d46fb013dfc2/download
bitstream.checksum.fl_str_mv a3823f6ec6106ceaa2865237c372a9b5
5bcc6d835327cba60eef58c5fd7b50ad
0175ea4a2d4caec4bbcc37e300941108
ae9e573a68e7f92501b6913cc846c39f
129365a599dc23034a1faf772806ae13
78958dcb6ec21f0e3e6b36cae66c6534
bdc765fbafd5509e18162ec03059aa82
4891ec5836910f67f3d0a4c2453c6407
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1812133973941288960
spelling Rueda Rodríguez, Sandra Julietavirtual::18394-1Castellanos Bonilla, Juan Diego2024-06-26T16:51:25Z2025-12-312024-06-142024-06-26https://hdl.handle.net/1992/74392instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este trabajo continúa un trabajo previo, desarrollado por Andrés Takashi Bravo Yaguchi, que identificó la escasez de expertos en ciberseguridad [9] y busca evaluar la utilidad de los modelos LLM (Large Language Model) como herramientas para resolver preguntas de ciberseguridad. La escasez de expertos en ciberseguridad aumenta la exposición de las organizaciones, a nivel mundial, a ciberataques. Esta afirmación es respaldada por el consorcio internacional de certificación de seguridad de sistemas de información (ISC) cuando menciona que hay una fuerte demanda para la seguridad de la nube y manejo de AI, mientras que la escasez de mano calificada aumenta [25]. Adicionalmente, en el 2023 un grupo de expertos de SECURE de Asia pacífico evalúa el desafío de la AI y la oportunidad de crecimiento de fuerza laboral. Ellos encontraron que dicha fuerza laboral en 11.8 % en el mundo y un 23.8 % en Japón, pero al mismo tiempo la demanda laboral aumentó 23.4 %. La diferencia entre la disponibilidad y la demanda muestra un vacío en fuerza de trabajo y habilidades requeridas [26]. Para disminuir este vacío ISC decidió dar a sus afiliados créditos para tomar cursos los cuales incluyen los temas: 1. El creciente papel de la IA en la ciberdefensa 2. bordar la brecha de mano de obra y habilidades en APAC 3. Por qué la ciberseguridad debería prestar atención a la desinformación y el ’hacking cognitivo’ 4. Las realidades de lograr la resiliencia en ciberseguridad 5. Gestión del riesgo cibernético utilizando marcos como NIST 6. La evolución de los controles de acceso a la nube Estos temas fueron tocados durante dos días con el fin de disminuir un poco la brecha entre la oferta y la demanda. Teniendo en cuenta el auge que han tenido los LLM (large language models) y con el estudio que hizo el grupo de expertos de SECURE se quiere comprobar si mediante el uso de diferentes LLM se puede llegar a obtener soluciones viables y comprensibles para disminuir la brecha existente entre oferta y demanda en el campo de ciberseguridad. Este proyecto busca evaluar y realizar una comparación de la utilidad de diferentes modelos de lenguaje para responder correctamente las preguntas relacionadas al tema de seguridad y la información. Después de esto realizar una comparación con el modelo mas conocido CHATGPT. Con el fin de tener una comparación precisa, se utilizaron los mismos datos usados en el trabajo previo. Para poder obtener las respuestas de los otros tres modelos, se realizó lo siguiente: Claude utiliza el API de anthropic para generar respuestas a partir de una solicitud del usuario. Llama utiliza el API de Meta para generar respuestas a partir de una solicitud del usuario. Falcon Utiliza las librerias necesarias y luego de esto carga el modelo de FALCON mediante un pipeline. 1. transformers 2. einops 3. accelerate 4. langchain 5. bitsandbytes. Dado que el trabajo previo pudo establecer que ChatGPT puede ser utilizado para generar respuestas que mantienen similitudes gramaticales con las respuestas escritas por humanos y que el modelo tiene el potencial de funcionar como una herramienta de consulta, generando respuestas útiles a preguntas relacionadas con la seguridad de la información. En este estudio, no solo se busca determinar si los tres nuevos modelos pueden igualar la eficacia de ChatGPT, sino que también se explora la posibilidad de encontrar alternativas que puedan ofrecer una calidad superior a la del modelo más reconocido. El objetivo es ampliar el conjunto de herramientas disponibles en el campo de la ciberseguridad, proporcionando así más opciones para abordar la creciente demanda de expertos en este ámbito. Al final de esto se busca determinar el nivel de similitud que guardan las respuestas generadas por los modelos con las respuestas dadas por los usuarios en el foro y obtenidas en chatGPT. Mediante el uso de pruebas de similitud semántica de textos y revisión manual de algunas respuestas con verificación humana. En el trabajo previo, el autor estableció que ChatGPT puede generar respuestas útiles a preguntas en ciberseguridad. Este estudio amplía la investigación previa comparando ChatGPT con otros tres modelos de lenguaje: Claude, Llama y Falcon, para determinar si estos modelos pueden ofrecer respuestas de igual o mejor calidad. El contexto del problema se sitúa tanto a nivel global como en Colombia, donde se destaca la escasez de profesionales capacitados en ciberseguridad y las graves consecuencias que esto tiene para las organizaciones. La creciente demanda de expertos en ´áreas emergentes como la seguridad de la nube y la inteligencia artificial agrava esta situación. Para abordar este desafío, se discuten nuevas herramientas y modelos de lenguaje que podrían ayudar a reducir la brecha entre la oferta y la demanda de habilidades en ciberseguridad. La solución propuesta se basa en el uso de datos y métricas específicas para evaluar las respuestas generadas por los modelos de lenguaje. Las métricas utilizadas incluyen BLEU, ROUGE y METEOR, estándares en la evaluación de la calidad de traducciones y respuestas generadas por inteligencia artificial. Además, las respuestas se anotan manualmente para asegurar una evaluación precisa y confiable, lo que refuerza la validez de los resultados obtenidos. El proceso de implementación de las pruebas implicó analizar publicaciones en Stack Exchange y seleccionar preguntas relevantes para el estudio. Se configuraron y utilizaron herramientas específicas para ejecutar los modelos de lenguaje (Claude, Vicuna y Falcon). Este documento presenta los resultados de las pruebas en tablas y figuras, y los resultados de las métricas calculadas para evaluar la calidad de las respuestas generadas por los modelos de lenguaje. Las métricas BLEU, ROUGE y METEOR permitieron comparar la precisión y relevancia de las respuestas en relación con las respuestas humanas. Además, una evaluación manual realizada por verificadores humanos proporcionó una visión más completa de la eficacia de cada modelo, añadiendo una capa adicional de rigor a los hallazgos. Finalmente, los resultados del estudio mostraron que el modelo Claude tuvo un mejor desempeñó en tres de las cinco métricas consideradas: BLEU, ROUGE1 y METEOR, con puntajes de 0.0629, 0.2090 y 0.2287 respectivamente. Estos resultados sugieren que Claude es más eficaz en la generación de texto coherente y relevante. Falcon obtuvo el mejor desempeñó en la métrica ROUGE1 con un puntaje de 0.2378, mientras que Llama destacó en ROUGE2 con un puntaje de 0.0342, indicando su habilidad para capturar detalles específicos en las respuestas. Aunque Claude demostró ser el más versátil, cada modelo tiene fortalezas que pueden ser ´útiles en diferentes contextos de ciberseguridad. Para futuras investigaciones, sería beneficioso evaluar una gama más amplia de modelos y métricas, explorar su desempeño en diversas aplicaciones de ciberseguridad y realizar estudios longitudinales para observar la evolución de estos modelos y su impacto en la industria. También se podría investigar la integración de estos modelos en sistemas de ciberdefensa automatizados para probar su eficacia en escenarios reales. Además, la colaboración con expertos en ciberseguridad para la creación de conjuntos de datos más relevantes y desafiantes podría proporcionar una mejor base para evaluar y mejorar estos modelos.Pregrado58 páginasapplication/pdfspaUniversidad de los AndesIngeniería de Sistemas y ComputaciónFacultad de IngenieríaDepartamento de Ingeniería de Sistemas y ComputaciónAttribution 4.0 Internationalhttp://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/embargoedAccesshttp://purl.org/coar/access_right/c_f1cfEvaluación de modelos de lenguaje de gran tamaño (LLM) en ciberseguridadTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPCiberseguridadModelos de lenguajes de gran tamañoIngeniería201816067Publicationhttps://scholar.google.es/citations?user=picn4ngAAAAJvirtual::18394-10000-0002-2111-9348virtual::18394-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000143111virtual::18394-1e336d2eb-f251-470f-b975-2d5e63ce65c9virtual::18394-1e336d2eb-f251-470f-b975-2d5e63ce65c9virtual::18394-1ORIGINALEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdfEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdfRestricción de acceso hasta diciembre 31 del año 2025, la asesora lo esta considerando para un artículo y por eso el contenido no debe ser público inmediatamente.application/pdf480137https://repositorio.uniandes.edu.co/bitstreams/bbfb12e5-cbfc-4da7-a940-5fa2dfca6b52/downloada3823f6ec6106ceaa2865237c372a9b5MD57autorizacionTesis_JDCAstellanos.pdfautorizacionTesis_JDCAstellanos.pdfHIDEapplication/pdf232421https://repositorio.uniandes.edu.co/bitstreams/c1707b85-21fa-45a9-9eaf-88ee94e82276/download5bcc6d835327cba60eef58c5fd7b50adMD58CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8908https://repositorio.uniandes.edu.co/bitstreams/145a6c19-6b51-4e42-8d50-291b99edce91/download0175ea4a2d4caec4bbcc37e300941108MD59LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/43a82aae-d94c-4b25-aced-6cb9c87b6e41/downloadae9e573a68e7f92501b6913cc846c39fMD510TEXTEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdf.txtEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdf.txtExtracted texttext/plain101626https://repositorio.uniandes.edu.co/bitstreams/f737e882-a5d7-48ba-a019-a3fcac2c281a/download129365a599dc23034a1faf772806ae13MD511autorizacionTesis_JDCAstellanos.pdf.txtautorizacionTesis_JDCAstellanos.pdf.txtExtracted texttext/plain2051https://repositorio.uniandes.edu.co/bitstreams/bfe91227-3673-4f2b-a533-5bc47f79f6b2/download78958dcb6ec21f0e3e6b36cae66c6534MD513THUMBNAILEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdf.jpgEvaluación de modelos de lenguajes de gran tamaño (LLM) en ciberseguridad.pdf.jpgGenerated Thumbnailimage/jpeg7213https://repositorio.uniandes.edu.co/bitstreams/b34e05f6-e4f5-4429-8ca8-06ada11d1aac/downloadbdc765fbafd5509e18162ec03059aa82MD512autorizacionTesis_JDCAstellanos.pdf.jpgautorizacionTesis_JDCAstellanos.pdf.jpgGenerated Thumbnailimage/jpeg10883https://repositorio.uniandes.edu.co/bitstreams/38074896-72c1-4121-a849-d46fb013dfc2/download4891ec5836910f67f3d0a4c2453c6407MD5141992/74392oai:repositorio.uniandes.edu.co:1992/743922024-06-29 03:09:27.842http://creativecommons.org/licenses/by/4.0/Attribution 4.0 Internationalrestrictedhttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K