IA explicable en administración de riesgo de crédito
La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en...
- Autores:
- Tipo de recurso:
- Fecha de publicación:
- 2023
- Institución:
- Universidad del Rosario
- Repositorio:
- Repositorio EdocUR - U. Rosario
- Idioma:
- spa
- OAI Identifier:
- oai:repository.urosario.edu.co:10336/40956
- Acceso en línea:
- https://doi.org/10.48713/10336_40956
https://repository.urosario.edu.co/handle/10336/40956
- Palabra clave:
- Inteligencia artificial
Riesgo de crédito
IA Explicable
IA especializada
Análisis predictivo
Aprendizaje automático
Técnicas de impulso
Probabilidad de incumplimiento
Artificial intelligence
Credit risk
Explainable AI
Specialized AI
Predictive analysis
Machine learning
Boosting techniques
Interpretability
Probability of default
- Rights
- License
- Attribution-NonCommercial-NoDerivatives 4.0 International
id |
EDOCUR2_7c71d74b1ad2e004b116e88c1881c1b0 |
---|---|
oai_identifier_str |
oai:repository.urosario.edu.co:10336/40956 |
network_acronym_str |
EDOCUR2 |
network_name_str |
Repositorio EdocUR - U. Rosario |
repository_id_str |
|
dc.title.none.fl_str_mv |
IA explicable en administración de riesgo de crédito |
dc.title.TranslatedTitle.none.fl_str_mv |
Explainable AI in credit risk management |
title |
IA explicable en administración de riesgo de crédito |
spellingShingle |
IA explicable en administración de riesgo de crédito Inteligencia artificial Riesgo de crédito IA Explicable IA especializada Análisis predictivo Aprendizaje automático Técnicas de impulso Probabilidad de incumplimiento Artificial intelligence Credit risk Explainable AI Specialized AI Predictive analysis Machine learning Boosting techniques Interpretability Probability of default |
title_short |
IA explicable en administración de riesgo de crédito |
title_full |
IA explicable en administración de riesgo de crédito |
title_fullStr |
IA explicable en administración de riesgo de crédito |
title_full_unstemmed |
IA explicable en administración de riesgo de crédito |
title_sort |
IA explicable en administración de riesgo de crédito |
dc.contributor.advisor.none.fl_str_mv |
Fernández Barreto, Oscar Samuel |
dc.subject.none.fl_str_mv |
Inteligencia artificial Riesgo de crédito IA Explicable IA especializada Análisis predictivo Aprendizaje automático Técnicas de impulso Probabilidad de incumplimiento |
topic |
Inteligencia artificial Riesgo de crédito IA Explicable IA especializada Análisis predictivo Aprendizaje automático Técnicas de impulso Probabilidad de incumplimiento Artificial intelligence Credit risk Explainable AI Specialized AI Predictive analysis Machine learning Boosting techniques Interpretability Probability of default |
dc.subject.keyword.none.fl_str_mv |
Artificial intelligence Credit risk Explainable AI Specialized AI Predictive analysis Machine learning Boosting techniques Interpretability Probability of default |
description |
La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en el campo de riego de crédito, el principal objetivo es estimar probabilidades de incumplimiento lo más cercanas al incumplimiento observado en la realidad, este objetivo puede alcanzarse mediante la aplicación de algoritmos nuevos y potentes que logran mejorar las medidas de precisión con respecto a métodos más tradicionales. Sin embargo, estos algoritmos pierden transparencia y explicabilidad, por lo que generalmente son denominados como “cajas negras”, lo que significa que se conocen las entradas y salidas del algoritmo, pero es difícil de entender y explicar lo que hace el algoritmo en su interior. Dicha falta de inteligibilidad de los métodos es contraria a los requerimientos de los reguladores financieros, llevando a que exista un rezago en el campo respecto al estado del arte en IA. El propósito de este proyecto es motivar la adopción de métodos de IA en el campo de riego de crédito, mediante la aplicación de un modelo de XGBoost a un conjunto de datos, y la aplicación de un conjunto de metodologías que incluyen la aplicación de Shapeley Values, expectativa condicional individual, diagramas de dependencia parcial, extracción de reglas, entre otras. Estas metodologías se enmarcan en un esquema de preguntas correctamente formuladas que permiten explicar el funcionamiento del modelo a las partes interesadas. |
publishDate |
2023 |
dc.date.accessioned.none.fl_str_mv |
2023-09-13T13:18:09Z |
dc.date.available.none.fl_str_mv |
2023-09-13T13:18:09Z |
dc.date.created.none.fl_str_mv |
2023-08-11 |
dc.type.none.fl_str_mv |
bachelorThesis |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.document.none.fl_str_mv |
Trabajo de grado |
dc.type.spa.none.fl_str_mv |
Trabajo de grado |
dc.identifier.doi.none.fl_str_mv |
https://doi.org/10.48713/10336_40956 |
dc.identifier.uri.none.fl_str_mv |
https://repository.urosario.edu.co/handle/10336/40956 |
url |
https://doi.org/10.48713/10336_40956 https://repository.urosario.edu.co/handle/10336/40956 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.rights.*.fl_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.acceso.none.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International Abierto (Texto Completo) http://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
dc.format.extent.none.fl_str_mv |
50 pp |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad del Rosario |
dc.publisher.department.spa.fl_str_mv |
Escuela de Ingeniería, Ciencia y Tecnología |
dc.publisher.program.spa.fl_str_mv |
Maestría en Matemáticas Aplicadas y Ciencias de la Computación |
institution |
Universidad del Rosario |
dc.source.bibliographicCitation.none.fl_str_mv |
B. S. Caffo, F. A. D’Asaro, A. Garcez, y E. Raffinetti, «Editorial: Explainable artificial intelligence models and methods in finance and healthcare», Front. Artif. Intell., vol. 5, p. 970246, ago. 2022, doi: 10.3389/frai.2022.970246. M. T. Ribeiro, S. Singh, y C. Guestrin, «“Why Should I Trust You?”: Explaining the Predictions of Any Classifier». arXiv, 9 de agosto de 2016. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1602.04938 L. Edwards y M. Veale, «Slave to the Algorithm? Why a “right to an explanation” is probably not the remedy you are looking for», LawArXiv, preprint, nov. 2017. doi: 10.31228/osf.io/97upg. «Study: Big Data meets artificial intelligence», BaFin. https://www.bafin.de/SharedDocs/Downloads/EN/dl_bdai_studie_en.html (accedido 19 de noviembre de 2022). P. Gohel, P. Singh, y M. Mohanty, «Explainable AI: current status and future directions». arXiv, 12 de julio de 2021. Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2107.07045 V. Turri, «What is Explainable AI?», SEI Blog. https://insights.sei.cmu.edu/blog/what-is-explainable-ai/ (accedido 19 de noviembre de 2022). T. Miller, «Explanation in Artificial Intelligence: Insights from the Social Sciences». arXiv, 14 de agosto de 2018. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1706.07269 B. H. Misheva, J. Osterrieder, A. Hirsa, O. Kulkarni, y S. F. Lin, «Explainable AI in Credit Risk Management». arXiv, 1 de marzo de 2021. Accedido: 8 de agosto de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2103.00949 H. Kvamme, N. Sellereite, K. Aas, y S. Sjursen, «Predicting mortgage default using convolutional neural networks», Expert Syst. Appl., vol. 102, pp. 207-217, jul. 2018, doi: 10.1016/j.eswa.2018.02.029. T. Chen y C. Guestrin, «XGBoost: A Scalable Tree Boosting System», en Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2016, pp. 785-794. doi: 10.1145/2939672.2939785. A. Gramegna y P. Giudici, «SHAP and LIME: An Evaluation of Discriminative Power in Credit Risk», Front. Artif. Intell., vol. 4, p. 752558, sep. 2021, doi: 10.3389/frai.2021.752558. N. Bussmann, P. Giudici, D. Marinelli, y J. Papenbrock, «Explainable Machine Learning in Credit Risk Management», Comput. Econ., vol. 57, n.o 1, pp. 203-216, ene. 2021, doi: 10.1007/s10614-020-10042-0. P. Giudici y E. Raffinetti, «Shapley-Lorenz eXplainable Artificial Intelligence», Expert Syst. Appl., vol. 167, p. 114104, abr. 2021, doi: 10.1016/j.eswa.2020.114104. C. Molnar, Interpretable Machine Learning. Accedido: 19 de noviembre de 2022. [En línea]. Disponible en: https://christophm.github.io/interpretable-ml-book/index.html Y. Zhou y M. Kantarcioglu, «On Transparency of Machine Learning Models: A Position Paper», p. 5. V. Belle y I. Papantonis, «Principles and Practice of Explainable Machine Learning», Front. Big Data, vol. 4, p. 688969, jul. 2021, doi: 10.3389/fdata.2021.688969. A. Barredo Arrieta et al., «Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI», Inf. Fusion, vol. 58, pp. 82-115, jun. 2020, doi: 10.1016/j.inffus.2019.12.012. Z. C. Lipton, «The Mythos of Model Interpretability». arXiv, 6 de marzo de 2017. Accedido: 2 de octubre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1606.03490 J. H. Friedman, «Greedy function approximation: A gradient boosting machine.», Ann. Stat., vol. 29, n.o 5, oct. 2001, doi: 10.1214/aos/1013203451. A. Goldstein, A. Kapelner, J. Bleich, y E. Pitkin, «Peeking Inside the Black Box: Visualizing Statistical Learning With Plots of Individual Conditional Expectation», J. Comput. Graph. Stat., vol. 24, n.o 1, pp. 44-65, ene. 2015, doi: 10.1080/10618600.2014.907095. ashutosh nayak, «Idea Behind LIME and SHAP», Medium, 22 de diciembre de 2019. https://towardsdatascience.com/idea-behind-lime-and-shap-b603d35d34eb (accedido 3 de noviembre de 2022). L. Breiman, «Random Forests», Mach. Learn., vol. 45, n.o 1, pp. 5-32, oct. 2001, doi: 10.1023/A:1010933404324. G. Tolomei, F. Silvestri, A. Haines, y M. Lalmas, «Interpretable Predictions of Tree-based Ensembles via Actionable Feature Tweaking», en Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2017, pp. 465-474. doi: 10.1145/3097983.3098039. M. T. Ribeiro, S. Singh, y C. Guestrin, «Anchors: High-Precision Model-Agnostic Explanations», Proc. AAAI Conf. Artif. Intell., vol. 32, n.o 1, abr. 2018, doi: 10.1609/aaai.v32i1.11491. «American Express - Default Prediction». https://kaggle.com/competitions/amex-default-prediction (accedido 6 de noviembre de 2022). |
dc.source.instname.none.fl_str_mv |
instname:Universidad del Rosario |
dc.source.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional EdocUR |
bitstream.url.fl_str_mv |
https://repository.urosario.edu.co/bitstreams/f236c36f-ede4-4acc-905b-981ec3881312/download https://repository.urosario.edu.co/bitstreams/40c9fb9f-7c63-45a6-99f4-d0ea5d734250/download https://repository.urosario.edu.co/bitstreams/f023a63f-9264-41dc-a927-fdb141670997/download https://repository.urosario.edu.co/bitstreams/b63f6e6c-cbcb-4550-9e4d-147c65622a1a/download https://repository.urosario.edu.co/bitstreams/fcb1580a-c8ec-4856-ae27-9a233b0ee0c9/download |
bitstream.checksum.fl_str_mv |
c887fa1b1ca115a25490a0b70b2ad11e b2825df9f458e9d5d96ee8b7cd74fde6 3b6ce8e9e36c89875e8cf39962fe8920 abab64015124198003f5e0db9c7dd1b3 d1dfd1ede824c454e9d72be7ae2c56c5 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional EdocUR |
repository.mail.fl_str_mv |
edocur@urosario.edu.co |
_version_ |
1814167682202730496 |
spelling |
Fernández Barreto, Oscar Samuelfd100e74-b978-4006-866b-e75102465ed8-1Zamora Mahecha, Cristhian CamiloMagíster en Matemáticas Aplicadas y Ciencias de la ComputaciónFull time3759f99e-434b-410a-887d-3d696a8f6b8e-12023-09-13T13:18:09Z2023-09-13T13:18:09Z2023-08-11La adopción de métodos de inteligencia artificial (IA) en el sector financiero puede conducir a mejoras significativas en temas de experiencia de cliente, bancarización de poblaciones remotas, lucha contra el lavado de capitales, administración del riesgo de crédito, entre otros. Particularmente en el campo de riego de crédito, el principal objetivo es estimar probabilidades de incumplimiento lo más cercanas al incumplimiento observado en la realidad, este objetivo puede alcanzarse mediante la aplicación de algoritmos nuevos y potentes que logran mejorar las medidas de precisión con respecto a métodos más tradicionales. Sin embargo, estos algoritmos pierden transparencia y explicabilidad, por lo que generalmente son denominados como “cajas negras”, lo que significa que se conocen las entradas y salidas del algoritmo, pero es difícil de entender y explicar lo que hace el algoritmo en su interior. Dicha falta de inteligibilidad de los métodos es contraria a los requerimientos de los reguladores financieros, llevando a que exista un rezago en el campo respecto al estado del arte en IA. El propósito de este proyecto es motivar la adopción de métodos de IA en el campo de riego de crédito, mediante la aplicación de un modelo de XGBoost a un conjunto de datos, y la aplicación de un conjunto de metodologías que incluyen la aplicación de Shapeley Values, expectativa condicional individual, diagramas de dependencia parcial, extracción de reglas, entre otras. Estas metodologías se enmarcan en un esquema de preguntas correctamente formuladas que permiten explicar el funcionamiento del modelo a las partes interesadas.The adoption of artificial intelligence (AI) methods in the financial sector can lead to significant improvements in customer experience, banking of remote populations, the fight against money laundering, and credit risk management, among others. Particularly in the field of credit risk, the main objective is to estimate probabilities of default as close to the default observed in reality, this objective can be achieved through the application of new and powerful algorithms that manage to improve the precision measures with respect to traditional methods. However, these algorithms lose transparency and explainability, so they are generally referred to as “black boxes”, which means that the inputs and outputs of the algorithm are known, but it is difficult to understand and explain what the algorithm does inside. The lack of intelligibility of the methods is contrary to the requirements of financial regulators, leading to a lag in the field concerning the state of the art in AI. The purpose of this project is to motivate the adoption of AI methods in the field of credit risk, by applying an XGBoost model to a data set, and applying a set of methodologies that include the application of Shapeley Values, individual conditional expectation, partial dependency plots, rule extraction, among others. These methodologies are framed in a scheme of correctly formulated questions that allow explaining the operation of the model to the stakeholders.50 ppapplication/pdfhttps://doi.org/10.48713/10336_40956 https://repository.urosario.edu.co/handle/10336/40956spaUniversidad del RosarioEscuela de Ingeniería, Ciencia y TecnologíaMaestría en Matemáticas Aplicadas y Ciencias de la ComputaciónAttribution-NonCommercial-NoDerivatives 4.0 InternationalAbierto (Texto Completo)http://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2B. S. Caffo, F. A. D’Asaro, A. Garcez, y E. Raffinetti, «Editorial: Explainable artificial intelligence models and methods in finance and healthcare», Front. Artif. Intell., vol. 5, p. 970246, ago. 2022, doi: 10.3389/frai.2022.970246.M. T. Ribeiro, S. Singh, y C. Guestrin, «“Why Should I Trust You?”: Explaining the Predictions of Any Classifier». arXiv, 9 de agosto de 2016. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1602.04938L. Edwards y M. Veale, «Slave to the Algorithm? Why a “right to an explanation” is probably not the remedy you are looking for», LawArXiv, preprint, nov. 2017. doi: 10.31228/osf.io/97upg.«Study: Big Data meets artificial intelligence», BaFin. https://www.bafin.de/SharedDocs/Downloads/EN/dl_bdai_studie_en.html (accedido 19 de noviembre de 2022).P. Gohel, P. Singh, y M. Mohanty, «Explainable AI: current status and future directions». arXiv, 12 de julio de 2021. Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2107.07045V. Turri, «What is Explainable AI?», SEI Blog. https://insights.sei.cmu.edu/blog/what-is-explainable-ai/ (accedido 19 de noviembre de 2022).T. Miller, «Explanation in Artificial Intelligence: Insights from the Social Sciences». arXiv, 14 de agosto de 2018. Accedido: 4 de septiembre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1706.07269B. H. Misheva, J. Osterrieder, A. Hirsa, O. Kulkarni, y S. F. Lin, «Explainable AI in Credit Risk Management». arXiv, 1 de marzo de 2021. Accedido: 8 de agosto de 2022. [En línea]. Disponible en: http://arxiv.org/abs/2103.00949H. Kvamme, N. Sellereite, K. Aas, y S. Sjursen, «Predicting mortgage default using convolutional neural networks», Expert Syst. Appl., vol. 102, pp. 207-217, jul. 2018, doi: 10.1016/j.eswa.2018.02.029.T. Chen y C. Guestrin, «XGBoost: A Scalable Tree Boosting System», en Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2016, pp. 785-794. doi: 10.1145/2939672.2939785.A. Gramegna y P. Giudici, «SHAP and LIME: An Evaluation of Discriminative Power in Credit Risk», Front. Artif. Intell., vol. 4, p. 752558, sep. 2021, doi: 10.3389/frai.2021.752558.N. Bussmann, P. Giudici, D. Marinelli, y J. Papenbrock, «Explainable Machine Learning in Credit Risk Management», Comput. Econ., vol. 57, n.o 1, pp. 203-216, ene. 2021, doi: 10.1007/s10614-020-10042-0.P. Giudici y E. Raffinetti, «Shapley-Lorenz eXplainable Artificial Intelligence», Expert Syst. Appl., vol. 167, p. 114104, abr. 2021, doi: 10.1016/j.eswa.2020.114104.C. Molnar, Interpretable Machine Learning. Accedido: 19 de noviembre de 2022. [En línea]. Disponible en: https://christophm.github.io/interpretable-ml-book/index.htmlY. Zhou y M. Kantarcioglu, «On Transparency of Machine Learning Models: A Position Paper», p. 5.V. Belle y I. Papantonis, «Principles and Practice of Explainable Machine Learning», Front. Big Data, vol. 4, p. 688969, jul. 2021, doi: 10.3389/fdata.2021.688969.A. Barredo Arrieta et al., «Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI», Inf. Fusion, vol. 58, pp. 82-115, jun. 2020, doi: 10.1016/j.inffus.2019.12.012.Z. C. Lipton, «The Mythos of Model Interpretability». arXiv, 6 de marzo de 2017. Accedido: 2 de octubre de 2022. [En línea]. Disponible en: http://arxiv.org/abs/1606.03490J. H. Friedman, «Greedy function approximation: A gradient boosting machine.», Ann. Stat., vol. 29, n.o 5, oct. 2001, doi: 10.1214/aos/1013203451.A. Goldstein, A. Kapelner, J. Bleich, y E. Pitkin, «Peeking Inside the Black Box: Visualizing Statistical Learning With Plots of Individual Conditional Expectation», J. Comput. Graph. Stat., vol. 24, n.o 1, pp. 44-65, ene. 2015, doi: 10.1080/10618600.2014.907095.ashutosh nayak, «Idea Behind LIME and SHAP», Medium, 22 de diciembre de 2019. https://towardsdatascience.com/idea-behind-lime-and-shap-b603d35d34eb (accedido 3 de noviembre de 2022).L. Breiman, «Random Forests», Mach. Learn., vol. 45, n.o 1, pp. 5-32, oct. 2001, doi: 10.1023/A:1010933404324.G. Tolomei, F. Silvestri, A. Haines, y M. Lalmas, «Interpretable Predictions of Tree-based Ensembles via Actionable Feature Tweaking», en Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ago. 2017, pp. 465-474. doi: 10.1145/3097983.3098039.M. T. Ribeiro, S. Singh, y C. Guestrin, «Anchors: High-Precision Model-Agnostic Explanations», Proc. AAAI Conf. Artif. Intell., vol. 32, n.o 1, abr. 2018, doi: 10.1609/aaai.v32i1.11491.«American Express - Default Prediction». https://kaggle.com/competitions/amex-default-prediction (accedido 6 de noviembre de 2022).instname:Universidad del Rosarioreponame:Repositorio Institucional EdocURInteligencia artificialRiesgo de créditoIA ExplicableIA especializadaAnálisis predictivoAprendizaje automáticoTécnicas de impulsoProbabilidad de incumplimientoArtificial intelligenceCredit riskExplainable AISpecialized AIPredictive analysisMachine learningBoosting techniquesInterpretabilityProbability of defaultIA explicable en administración de riesgo de créditoExplainable AI in credit risk managementbachelorThesisTrabajo de gradoTrabajo de gradohttp://purl.org/coar/resource_type/c_7a1fEscuela de Ingeniería, Ciencia y TecnologíaORIGINALIA-Explicable-administracion- riesgo-credito.pdfIA-Explicable-administracion- riesgo-credito.pdfapplication/pdf1308709https://repository.urosario.edu.co/bitstreams/f236c36f-ede4-4acc-905b-981ec3881312/downloadc887fa1b1ca115a25490a0b70b2ad11eMD51LICENSElicense.txtlicense.txttext/plain1483https://repository.urosario.edu.co/bitstreams/40c9fb9f-7c63-45a6-99f4-d0ea5d734250/downloadb2825df9f458e9d5d96ee8b7cd74fde6MD52CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8899https://repository.urosario.edu.co/bitstreams/f023a63f-9264-41dc-a927-fdb141670997/download3b6ce8e9e36c89875e8cf39962fe8920MD53TEXTIA-Explicable-administracion- riesgo-credito.pdf.txtIA-Explicable-administracion- riesgo-credito.pdf.txtExtracted texttext/plain84649https://repository.urosario.edu.co/bitstreams/b63f6e6c-cbcb-4550-9e4d-147c65622a1a/downloadabab64015124198003f5e0db9c7dd1b3MD54THUMBNAILIA-Explicable-administracion- riesgo-credito.pdf.jpgIA-Explicable-administracion- riesgo-credito.pdf.jpgGenerated Thumbnailimage/jpeg2608https://repository.urosario.edu.co/bitstreams/fcb1580a-c8ec-4856-ae27-9a233b0ee0c9/downloadd1dfd1ede824c454e9d72be7ae2c56c5MD5510336/40956oai:repository.urosario.edu.co:10336/409562023-09-14 03:02:52.105http://creativecommons.org/licenses/by-nc-nd/4.0/Attribution-NonCommercial-NoDerivatives 4.0 Internationalhttps://repository.urosario.edu.coRepositorio institucional EdocURedocur@urosario.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8gbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KPGJyLz4KUEFSQUdSQUZPOiBFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgRUwgQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KPGhyLz4KRUwgQVVUT1IsIGF1dG9yaXphIGEgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8sICBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCAgdXRpbGljZSB5IHVzZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuLgoKLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0tLS0KClBPTElUSUNBIERFIFRSQVRBTUlFTlRPIERFIERBVE9TIFBFUlNPTkFMRVMuIERlY2xhcm8gcXVlIGF1dG9yaXpvIHByZXZpYSB5IGRlIGZvcm1hIGluZm9ybWFkYSBlbCB0cmF0YW1pZW50byBkZSBtaXMgZGF0b3MgcGVyc29uYWxlcyBwb3IgcGFydGUgZGUgTEEgVU5JVkVSU0lEQUQgREVMIFJPU0FSSU8gIHBhcmEgZmluZXMgYWNhZMOpbWljb3MgeSBlbiBhcGxpY2FjacOzbiBkZSBjb252ZW5pb3MgY29uIHRlcmNlcm9zIG8gc2VydmljaW9zIGNvbmV4b3MgY29uIGFjdGl2aWRhZGVzIHByb3BpYXMgZGUgbGEgYWNhZGVtaWEsIGNvbiBlc3RyaWN0byBjdW1wbGltaWVudG8gZGUgbG9zIHByaW5jaXBpb3MgZGUgbGV5LiBQYXJhIGVsIGNvcnJlY3RvIGVqZXJjaWNpbyBkZSBtaSBkZXJlY2hvIGRlIGhhYmVhcyBkYXRhICBjdWVudG8gY29uIGxhIGN1ZW50YSBkZSBjb3JyZW8gaGFiZWFzZGF0YUB1cm9zYXJpby5lZHUuY28sIGRvbmRlIHByZXZpYSBpZGVudGlmaWNhY2nDs24gIHBvZHLDqSBzb2xpY2l0YXIgbGEgY29uc3VsdGEsIGNvcnJlY2Npw7NuIHkgc3VwcmVzacOzbiBkZSBtaXMgZGF0b3MuCg== |