IA explicable en administración de riesgo de crédito

La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en...

Full description

Autores:
Tipo de recurso:
Fecha de publicación:
2023
Institución:
Universidad del Rosario
Repositorio:
Repositorio EdocUR - U. Rosario
Idioma:
spa
OAI Identifier:
oai:repository.urosario.edu.co:10336/40956
Acceso en línea:
https://doi.org/10.48713/10336_40956
https://repository.urosario.edu.co/handle/10336/40956
Palabra clave:
Inteligencia artificial
Riesgo de crédito
IA Explicable
IA especializada
Análisis predictivo
Aprendizaje automático
Técnicas de impulso
Probabilidad de incumplimiento
Artificial intelligence
Credit risk
Explainable AI
Specialized AI
Predictive analysis
Machine learning
Boosting techniques
Interpretability
Probability of default
Rights
License
Attribution-NonCommercial-NoDerivatives 4.0 International
id EDOCUR2_7c71d74b1ad2e004b116e88c1881c1b0
oai_identifier_str oai:repository.urosario.edu.co:10336/40956
network_acronym_str EDOCUR2
network_name_str Repositorio EdocUR - U. Rosario
repository_id_str
dc.title.none.fl_str_mv IA explicable en administración de riesgo de crédito
dc.title.TranslatedTitle.none.fl_str_mv Explainable AI in credit risk management
title IA explicable en administración de riesgo de crédito
spellingShingle IA explicable en administración de riesgo de crédito
Inteligencia artificial
Riesgo de crédito
IA Explicable
IA especializada
Análisis predictivo
Aprendizaje automático
Técnicas de impulso
Probabilidad de incumplimiento
Artificial intelligence
Credit risk
Explainable AI
Specialized AI
Predictive analysis
Machine learning
Boosting techniques
Interpretability
Probability of default
title_short IA explicable en administración de riesgo de crédito
title_full IA explicable en administración de riesgo de crédito
title_fullStr IA explicable en administración de riesgo de crédito
title_full_unstemmed IA explicable en administración de riesgo de crédito
title_sort IA explicable en administración de riesgo de crédito
dc.contributor.advisor.none.fl_str_mv Fernández Barreto, Oscar Samuel
dc.subject.none.fl_str_mv Inteligencia artificial
Riesgo de crédito
IA Explicable
IA especializada
Análisis predictivo
Aprendizaje automático
Técnicas de impulso
Probabilidad de incumplimiento
topic Inteligencia artificial
Riesgo de crédito
IA Explicable
IA especializada
Análisis predictivo
Aprendizaje automático
Técnicas de impulso
Probabilidad de incumplimiento
Artificial intelligence
Credit risk
Explainable AI
Specialized AI
Predictive analysis
Machine learning
Boosting techniques
Interpretability
Probability of default
dc.subject.keyword.none.fl_str_mv Artificial intelligence
Credit risk
Explainable AI
Specialized AI
Predictive analysis
Machine learning
Boosting techniques
Interpretability
Probability of default
description La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en el campo de riego de crédito, el principal objetivo es estimar probabilidades de incumplimiento lo más cercanas al incumplimiento observado en la realidad, este objetivo puede alcanzarse mediante la aplicación de algoritmos nuevos y potentes que logran mejorar las medidas de precisión con respecto a métodos más tradicionales. Sin embargo, estos algoritmos pierden transparencia y explicabilidad, por lo que generalmente son denominados como “cajas negras”, lo que significa que se conocen las entradas y salidas del algoritmo, pero es difícil de entender y explicar lo que hace el algoritmo en su interior. Dicha falta de inteligibilidad de los métodos es contraria a los requerimientos de los reguladores financieros, llevando a que exista un rezago en el campo respecto al estado del arte en IA. El propósito de este proyecto es motivar la adopción de métodos de IA en el campo de riego de crédito, mediante la aplicación de un modelo de XGBoost a un conjunto de datos, y la aplicación de un conjunto de metodologías que incluyen la aplicación de Shapeley Values, expectativa condicional individual, diagramas de dependencia parcial, extracción de reglas, entre otras. Estas metodologías se enmarcan en un esquema de preguntas correctamente formuladas que permiten explicar el funcionamiento del modelo a las partes interesadas.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-09-13T13:18:09Z
dc.date.available.none.fl_str_mv 2023-09-13T13:18:09Z
dc.date.created.none.fl_str_mv 2023-08-11
dc.type.none.fl_str_mv bachelorThesis
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.document.none.fl_str_mv Trabajo de grado
dc.type.spa.none.fl_str_mv Trabajo de grado
dc.identifier.doi.none.fl_str_mv https://doi.org/10.48713/10336_40956
dc.identifier.uri.none.fl_str_mv https://repository.urosario.edu.co/handle/10336/40956
url https://doi.org/10.48713/10336_40956
https://repository.urosario.edu.co/handle/10336/40956
dc.language.iso.none.fl_str_mv spa
language spa
dc.rights.*.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
rights_invalid_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
Abierto (Texto Completo)
http://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
dc.format.extent.none.fl_str_mv 50 pp
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad del Rosario
dc.publisher.department.spa.fl_str_mv Escuela de Ingeniería, Ciencia y Tecnología
dc.publisher.program.spa.fl_str_mv Maestría en Matemáticas Aplicadas y Ciencias de la Computación
institution Universidad del Rosario
dc.source.bibliographicCitation.none.fl_str_mv B. S. Caffo, F. A. D’Asaro, A. Garcez, y E. Raffinetti, «Editorial: Explainable artificial intelligence models and methods in finance and healthcare», Front. Artif. Intell., vol. 5, p. 970246, ago. 2022, doi: 10.3389/frai.2022.970246.
M. T. Ribeiro, S. Singh, y C. Guestrin, «“Why Should I Trust You?”: Explaining the Predictions of Any Classifier». arXiv, 9 de agosto de 2016. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1602.04938
L. Edwards y M. Veale, «Slave to the Algorithm? Why a “right to an explanation” is probably not the remedy you are looking for», LawArXiv, preprint, nov. 2017. doi: 10.31228/osf.io/97upg.
«Study: Big Data meets artificial intelligence», BaFin. https://www.bafin.de/SharedDocs/Downloads/EN/dl_bdai_studie_en.html (accedido 19 de noviembre de 2022).
P. Gohel, P. Singh, y M. Mohanty, «Explainable AI: current status and future directions». arXiv, 12 de julio de 2021. Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2107.07045
V. Turri, «What is Explainable AI?», SEI Blog. https://insights.sei.cmu.edu/blog/what-is-explainable-ai/ (accedido 19 de noviembre de 2022).
T. Miller, «Explanation in Artificial Intelligence: Insights from the Social Sciences». arXiv, 14 de agosto de 2018. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1706.07269
B. H. Misheva, J. Osterrieder, A. Hirsa, O. Kulkarni, y S. F. Lin, «Explainable AI in Credit Risk Management». arXiv, 1 de marzo de 2021. Accedido: 8 de agosto de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2103.00949
H. Kvamme, N. Sellereite, K. Aas, y S. Sjursen, «Predicting mortgage default using convolutional neural networks», Expert Syst. Appl., vol. 102, pp. 207-217, jul. 2018, doi: 10.1016/j.eswa.2018.02.029.
T. Chen y C. Guestrin, «XGBoost: A Scalable Tree Boosting System», en Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2016, pp. 785-794. doi: 10.1145/2939672.2939785.
A. Gramegna y P. Giudici, «SHAP and LIME: An Evaluation of Discriminative Power in Credit Risk», Front. Artif. Intell., vol. 4, p. 752558, sep. 2021, doi: 10.3389/frai.2021.752558.
N. Bussmann, P. Giudici, D. Marinelli, y J. Papenbrock, «Explainable Machine Learning in Credit Risk Management», Comput. Econ., vol. 57, n.o 1, pp. 203-216, ene. 2021, doi: 10.1007/s10614-020-10042-0.
P. Giudici y E. Raffinetti, «Shapley-Lorenz eXplainable Artificial Intelligence», Expert Syst. Appl., vol. 167, p. 114104, abr. 2021, doi: 10.1016/j.eswa.2020.114104.
C. Molnar, Interpretable Machine Learning. Accedido: 19 de noviembre de 2022. [En línea]. Disponible en: https://christophm.github.io/interpretable-ml-book/index.html
Y. Zhou y M. Kantarcioglu, «On Transparency of Machine Learning Models: A Position Paper», p. 5.
V. Belle y I. Papantonis, «Principles and Practice of Explainable Machine Learning», Front. Big Data, vol. 4, p. 688969, jul. 2021, doi: 10.3389/fdata.2021.688969.
A. Barredo Arrieta et al., «Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI», Inf. Fusion, vol. 58, pp. 82-115, jun. 2020, doi: 10.1016/j.inffus.2019.12.012.
Z. C. Lipton, «The Mythos of Model Interpretability». arXiv, 6 de marzo de 2017. Accedido: 2 de octubre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1606.03490
J. H. Friedman, «Greedy function approximation: A gradient boosting machine.», Ann. Stat., vol. 29, n.o 5, oct. 2001, doi: 10.1214/aos/1013203451.
A. Goldstein, A. Kapelner, J. Bleich, y E. Pitkin, «Peeking Inside the Black Box: Visualizing Statistical Learning With Plots of Individual Conditional Expectation», J. Comput. Graph. Stat., vol. 24, n.o 1, pp. 44-65, ene. 2015, doi: 10.1080/10618600.2014.907095.
ashutosh nayak, «Idea Behind LIME and SHAP», Medium, 22 de diciembre de 2019. https://towardsdatascience.com/idea-behind-lime-and-shap-b603d35d34eb (accedido 3 de noviembre de 2022).
L. Breiman, «Random Forests», Mach. Learn., vol. 45, n.o 1, pp. 5-32, oct. 2001, doi: 10.1023/A:1010933404324.
G. Tolomei, F. Silvestri, A. Haines, y M. Lalmas, «Interpretable Predictions of Tree-based Ensembles via Actionable Feature Tweaking», en Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2017, pp. 465-474. doi: 10.1145/3097983.3098039.
M. T. Ribeiro, S. Singh, y C. Guestrin, «Anchors: High-Precision Model-Agnostic Explanations», Proc. AAAI Conf. Artif. Intell., vol. 32, n.o 1, abr. 2018, doi: 10.1609/aaai.v32i1.11491.
«American Express - Default Prediction». https://kaggle.com/competitions/amex-default-prediction (accedido 6 de noviembre de 2022).
dc.source.instname.none.fl_str_mv instname:Universidad del Rosario
dc.source.reponame.spa.fl_str_mv reponame:Repositorio Institucional EdocUR
bitstream.url.fl_str_mv https://repository.urosario.edu.co/bitstreams/f236c36f-ede4-4acc-905b-981ec3881312/download
https://repository.urosario.edu.co/bitstreams/40c9fb9f-7c63-45a6-99f4-d0ea5d734250/download
https://repository.urosario.edu.co/bitstreams/f023a63f-9264-41dc-a927-fdb141670997/download
https://repository.urosario.edu.co/bitstreams/b63f6e6c-cbcb-4550-9e4d-147c65622a1a/download
https://repository.urosario.edu.co/bitstreams/fcb1580a-c8ec-4856-ae27-9a233b0ee0c9/download
bitstream.checksum.fl_str_mv c887fa1b1ca115a25490a0b70b2ad11e
b2825df9f458e9d5d96ee8b7cd74fde6
3b6ce8e9e36c89875e8cf39962fe8920
abab64015124198003f5e0db9c7dd1b3
d1dfd1ede824c454e9d72be7ae2c56c5
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional EdocUR
repository.mail.fl_str_mv edocur@urosario.edu.co
_version_ 1808391043182231552
spelling Fernández Barreto, Oscar Samuelfd100e74-b978-4006-866b-e75102465ed8-1Zamora Mahecha, Cristhian CamiloMagíster en Matemáticas Aplicadas y Ciencias de la ComputaciónFull time3759f99e-434b-410a-887d-3d696a8f6b8e-12023-09-13T13:18:09Z2023-09-13T13:18:09Z2023-08-11La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en el campo de riego de crédito, el principal objetivo es estimar probabilidades de incumplimiento lo más cercanas al incumplimiento observado en la realidad, este objetivo puede alcanzarse mediante la aplicación de algoritmos nuevos y potentes que logran mejorar las medidas de precisión con respecto a métodos más tradicionales. Sin embargo, estos algoritmos pierden transparencia y explicabilidad, por lo que generalmente son denominados como “cajas negras”, lo que significa que se conocen las entradas y salidas del algoritmo, pero es difícil de entender y explicar lo que hace el algoritmo en su interior. Dicha falta de inteligibilidad de los métodos es contraria a los requerimientos de los reguladores financieros, llevando a que exista un rezago en el campo respecto al estado del arte en IA. El propósito de este proyecto es motivar la adopción de métodos de IA en el campo de riego de crédito, mediante la aplicación de un modelo de XGBoost a un conjunto de datos, y la aplicación de un conjunto de metodologías que incluyen la aplicación de Shapeley Values, expectativa condicional individual, diagramas de dependencia parcial, extracción de reglas, entre otras. Estas metodologías se enmarcan en un esquema de preguntas correctamente formuladas que permiten explicar el funcionamiento del modelo a las partes interesadas.The adoption of artificial intelligence (AI) methods in the financial sector can lead to significant improvements in customer experience, banking of remote populations, the fight against money laundering, and credit risk management, among others. Particularly in the field of credit risk, the main objective is to estimate probabilities of default as close to the default observed in reality, this objective can be achieved through the application of new and powerful algorithms that manage to improve the precision measures with respect to traditional methods. However, these algorithms lose transparency and explainability, so they are generally referred to as “black boxes”, which means that the inputs and outputs of the algorithm are known, but it is difficult to understand and explain what the algorithm does inside. The lack of intelligibility of the methods is contrary to the requirements of financial regulators, leading to a lag in the field concerning the state of the art in AI. The purpose of this project is to motivate the adoption of AI methods in the field of credit risk, by applying an XGBoost model to a data set, and applying a set of methodologies that include the application of Shapeley Values, individual conditional expectation, partial dependency plots, rule extraction, among others. These methodologies are framed in a scheme of correctly formulated questions that allow explaining the operation of the model to the stakeholders.50 ppapplication/pdfhttps://doi.org/10.48713/10336_40956 https://repository.urosario.edu.co/handle/10336/40956spaUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaMaestría en Matemáticas Aplicadas y Ciencias de la ComputaciónAttribution-NonCommercial-NoDerivatives 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2B. S. Caffo, F. A. D’Asaro, A. Garcez, y E. Raffinetti, «Editorial: Explainable artificial intelligence models and methods in finance and healthcare», Front. Artif. Intell., vol. 5, p. 970246, ago. 2022, doi: 10.3389/frai.2022.970246.M. T. Ribeiro, S. Singh, y C. Guestrin, «“Why Should I Trust You?”: Explaining the Predictions of Any Classifier». arXiv, 9 de agosto de 2016. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1602.04938L. Edwards y M. Veale, «Slave to the Algorithm? Why a “right to an explanation” is probably not the remedy you are looking for», LawArXiv, preprint, nov. 2017. doi: 10.31228/osf.io/97upg.«Study: Big Data meets artificial intelligence», BaFin. https://www.bafin.de/SharedDocs/Downloads/EN/dl_bdai_studie_en.html (accedido 19 de noviembre de 2022).P. Gohel, P. Singh, y M. Mohanty, «Explainable AI: current status and future directions». arXiv, 12 de julio de 2021. Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2107.07045V. Turri, «What is Explainable AI?», SEI Blog. https://insights.sei.cmu.edu/blog/what-is-explainable-ai/ (accedido 19 de noviembre de 2022).T. Miller, «Explanation in Artificial Intelligence: Insights from the Social Sciences». arXiv, 14 de agosto de 2018. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1706.07269B. H. Misheva, J. Osterrieder, A. Hirsa, O. Kulkarni, y S. F. Lin, «Explainable AI in Credit Risk Management». arXiv, 1 de marzo de 2021. Accedido: 8 de agosto de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2103.00949H. Kvamme, N. Sellereite, K. Aas, y S. Sjursen, «Predicting mortgage default using convolutional neural networks», Expert Syst. Appl., vol. 102, pp. 207-217, jul. 2018, doi: 10.1016/j.eswa.2018.02.029.T. Chen y C. Guestrin, «XGBoost: A Scalable Tree Boosting System», en Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2016, pp. 785-794. doi: 10.1145/2939672.2939785.A. Gramegna y P. Giudici, «SHAP and LIME: An Evaluation of Discriminative Power in Credit Risk», Front. Artif. Intell., vol. 4, p. 752558, sep. 2021, doi: 10.3389/frai.2021.752558.N. Bussmann, P. Giudici, D. Marinelli, y J. Papenbrock, «Explainable Machine Learning in Credit Risk Management», Comput. Econ., vol. 57, n.o 1, pp. 203-216, ene. 2021, doi: 10.1007/s10614-020-10042-0.P. Giudici y E. Raffinetti, «Shapley-Lorenz eXplainable Artificial Intelligence», Expert Syst. Appl., vol. 167, p. 114104, abr. 2021, doi: 10.1016/j.eswa.2020.114104.C. Molnar, Interpretable Machine Learning. Accedido: 19 de noviembre de 2022. [En línea]. Disponible en: https://christophm.github.io/interpretable-ml-book/index.htmlY. Zhou y M. Kantarcioglu, «On Transparency of Machine Learning Models: A Position Paper», p. 5.V. Belle y I. Papantonis, «Principles and Practice of Explainable Machine Learning», Front. Big Data, vol. 4, p. 688969, jul. 2021, doi: 10.3389/fdata.2021.688969.A. Barredo Arrieta et al., «Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI», Inf. Fusion, vol. 58, pp. 82-115, jun. 2020, doi: 10.1016/j.inffus.2019.12.012.Z. C. Lipton, «The Mythos of Model Interpretability». arXiv, 6 de marzo de 2017. Accedido: 2 de octubre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1606.03490J. H. Friedman, «Greedy function approximation: A gradient boosting machine.», Ann. Stat., vol. 29, n.o 5, oct. 2001, doi: 10.1214/aos/1013203451.A. Goldstein, A. Kapelner, J. Bleich, y E. Pitkin, «Peeking Inside the Black Box: Visualizing Statistical Learning With Plots of Individual Conditional Expectation», J. Comput. Graph. Stat., vol. 24, n.o 1, pp. 44-65, ene. 2015, doi: 10.1080/10618600.2014.907095.ashutosh nayak, «Idea Behind LIME and SHAP», Medium, 22 de diciembre de 2019. https://towardsdatascience.com/idea-behind-lime-and-shap-b603d35d34eb (accedido 3 de noviembre de 2022).L. Breiman, «Random Forests», Mach. Learn., vol. 45, n.o 1, pp. 5-32, oct. 2001, doi: 10.1023/A:1010933404324.G. Tolomei, F. Silvestri, A. Haines, y M. Lalmas, «Interpretable Predictions of Tree-based Ensembles via Actionable Feature Tweaking», en Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2017, pp. 465-474. doi: 10.1145/3097983.3098039.M. T. Ribeiro, S. Singh, y C. Guestrin, «Anchors: High-Precision Model-Agnostic Explanations», Proc. AAAI Conf. Artif. Intell., vol. 32, n.o 1, abr. 2018, doi: 10.1609/aaai.v32i1.11491.«American Express - Default Prediction». https://kaggle.com/competitions/amex-default-prediction (accedido 6 de noviembre de 2022).instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURInteligencia artificialRiesgo de créditoIA ExplicableIA especializadaAnálisis predictivoAprendizaje automáticoTécnicas de impulsoProbabilidad de incumplimientoArtificial intelligenceCredit riskExplainable AISpecialized AIPredictive analysisMachine learningBoosting techniquesInterpretabilityProbability of defaultIA explicable en administración de riesgo de créditoExplainable AI in credit risk managementbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALIA-Explicable-administracion- riesgo-credito.pdfIA-Explicable-administracion- riesgo-credito.pdfapplication/pdf1308709https://repository.urosario.edu.co/bitstreams/f236c36f-ede4-4acc-905b-981ec3881312/downloadc887fa1b1ca115a25490a0b70b2ad11eMD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/40c9fb9f-7c63-45a6-99f4-d0ea5d734250/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8899https://repository.urosario.edu.co/bitstreams/f023a63f-9264-41dc-a927-fdb141670997/download3b6ce8e9e36c89875e8cf39962fe8920MD53TEXTIA-Explicable-administracion- riesgo-credito.pdf.txtIA-Explicable-administracion- riesgo-credito.pdf.txtExtracted texttext/plain84649https://repository.urosario.edu.co/bitstreams/b63f6e6c-cbcb-4550-9e4d-147c65622a1a/downloadabab64015124198003f5e0db9c7dd1b3MD54THUMBNAILIA-Explicable-administracion- riesgo-credito.pdf.jpgIA-Explicable-administracion- riesgo-credito.pdf.jpgGenerated Thumbnailimage/jpeg2608https://repository.urosario.edu.co/bitstreams/fcb1580a-c8ec-4856-ae27-9a233b0ee0c9/downloadd1dfd1ede824c454e9d72be7ae2c56c5MD5510336/40956oai:repository.urosario.edu.co:10336/409562023-09-14 03:02:52.105http://creativecommons.org/licenses/by-nc-nd/4.0/Attribution-NonCommercial-NoDerivatives 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg==