Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecu...
- Autores:
-
Ortega Alzate, Santiago
- Tipo de recurso:
- Fecha de publicación:
- 2021
- Institución:
- Universidad Nacional de Colombia
- Repositorio:
- Universidad Nacional de Colombia
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unal.edu.co:unal/81256
- Palabra clave:
- 510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas
Procesos de poisson
Poisson processes
Redes neuronales (Computación)
Riesgo (Seguros)
IBNR
RNN
Artificial neural networks
Claims reserve
Pension insurance policy
Poisson regression
Recurrent neural networks -RNN
Póliza de seguro previsional
Redes neuronales artificiales
Red neuronal recurrente
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 4.0 Internacional
id |
UNACIONAL2_c4ce0ad4afcc4bfad4892e106ed221fd |
---|---|
oai_identifier_str |
oai:repositorio.unal.edu.co:unal/81256 |
network_acronym_str |
UNACIONAL2 |
network_name_str |
Universidad Nacional de Colombia |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
dc.title.translated.none.fl_str_mv |
Exploration of neural networks for the projection of the maximum expected loss of an insurance policy: application for pension insurance |
title |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
spellingShingle |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional 510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas Procesos de poisson Poisson processes Redes neuronales (Computación) Riesgo (Seguros) IBNR RNN Artificial neural networks Claims reserve Pension insurance policy Poisson regression Recurrent neural networks -RNN Póliza de seguro previsional Redes neuronales artificiales Red neuronal recurrente |
title_short |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
title_full |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
title_fullStr |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
title_full_unstemmed |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
title_sort |
Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional |
dc.creator.fl_str_mv |
Ortega Alzate, Santiago |
dc.contributor.advisor.none.fl_str_mv |
Gómez Vélez, César Augusto |
dc.contributor.author.none.fl_str_mv |
Ortega Alzate, Santiago |
dc.subject.ddc.spa.fl_str_mv |
510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas |
topic |
510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas Procesos de poisson Poisson processes Redes neuronales (Computación) Riesgo (Seguros) IBNR RNN Artificial neural networks Claims reserve Pension insurance policy Poisson regression Recurrent neural networks -RNN Póliza de seguro previsional Redes neuronales artificiales Red neuronal recurrente |
dc.subject.lemb.none.fl_str_mv |
Procesos de poisson Poisson processes Redes neuronales (Computación) Riesgo (Seguros) |
dc.subject.proposal.eng.fl_str_mv |
IBNR RNN Artificial neural networks Claims reserve Pension insurance policy Poisson regression Recurrent neural networks -RNN |
dc.subject.proposal.spa.fl_str_mv |
Póliza de seguro previsional Redes neuronales artificiales Red neuronal recurrente |
description |
Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecuencia de la póliza). En este trabajo de grado se estima la frecuencia para una póliza del seguro previsional con vigencia en el año 2020, para la cobertura de sobrevivencia. Esto mediante el ajuste de un modelo de regresión cuasi-Poisson y el entrenamiento de una red neuronal recurrente. Se requirió en el histórico de siniestros pagados en los t = 10 años anteriores al 2020. Debido a que el pago de los siniestros cubiertos por el seguro previsional puede realizarse en cualquier momento posterior a la ocurrencia de estos, es necesario el cálculo intermedio de una variable conocida como Siniestros Incurridos, pero no Reportados - IBNR, por sus siglas en inglés (un siniestro ocurrido en 2019 puede ser avisado y pagado en el año 2024, por lo que aún se desconoce). De esta manera, primero se estimó la IBNR para las pólizas 2010 − 2019 partiendo de un triángulo de siniestros incurridos. Para el cálculo de la IBNR y la frecuencia existen metodologías con bases teóricas bien establecidas, tales como la regresión cuasi-Poisson. Sin embargo, es común encontrar en la literatura avances sobre el uso de inteligencia artificial en este tipo de aplicaciones. Por lo tanto, se aplican las redes neuronales recurrentes - RNN con el propósito de contrastar su desempeño con el de la regresión cuasi-Poisson y contribuir con este esfuerzo. En general, los resultados de IBNR y frecuencia son inferiores cuando se utiliza la RNN, en comparación con los resultados vía regresión cuasi-Poisson, sobre todo en las pólizas más recientes (2015−2019). Una intuición primaria sería que la RNN tiende a subestimar el riesgo a cubrir por la póliza. Probablemente, se necesitan más datos para la estimación (como, por ejemplo, características de los asegurados). En conclusión, el uso de RNN se presenta como una alternativa prometedora para el pronóstico de la frecuencia de una póliza. En futuros estudios, se recomienda incluir durante el entrenamiento de esta, variables adicionales vinculadas al riesgo que se busca tarifar y que describan mejor a la población asegurada. (Texto tomado de la fuente) |
publishDate |
2021 |
dc.date.issued.none.fl_str_mv |
2021-03-11 |
dc.date.accessioned.none.fl_str_mv |
2022-03-16T19:57:53Z |
dc.date.available.none.fl_str_mv |
2022-03-16T19:57:53Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Maestría |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/masterThesis |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TM |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://repositorio.unal.edu.co/handle/unal/81256 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Nacional de Colombia |
dc.identifier.reponame.spa.fl_str_mv |
Repositorio Institucional Universidad Nacional de Colombia |
dc.identifier.repourl.spa.fl_str_mv |
https://repositorio.unal.edu.co/ |
url |
https://repositorio.unal.edu.co/handle/unal/81256 https://repositorio.unal.edu.co/ |
identifier_str_mv |
Universidad Nacional de Colombia Repositorio Institucional Universidad Nacional de Colombia |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
Ackley, D. H., Hinton, G. E., y Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive science, 9 (1), 147–169. Agarap, A. F. (2018). Deep learning using rectified linear units (ReLu). arXiv preprint arXiv:1803.08375 . AI In The 1980s And Beyond: An MIT Survey. (s.f.). , 6 . Anderson, J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S. (1977). Distinctive features, categorical perception, and probability learning: Some applications of a neural model. Psychological review, 84 (5), 413. Bianchi, F. M., Maiorino, E., Kampffmeyer, M. C., Rizzi, A., y Jenssen, R. (2017). Recurrent neural networks for short-term load forecasting: an overview and comparative analysis. Board, I. A. S. (2015). Proyecto de Norma Marco Conceptual para la Información Financiera. Bornhuetter, R., y Ferguson, R. (1972). The actuary and IBNR. ASTIN Bulletin, 59 (1), 181–195. Carpenter, G. A., y Grossberg, S. (1985). Category learning and adaptive pattern recognition: A neural network model. En Proceedings, Third Army Conference on Applied Mathematics and Computing, ARO Report (pp. 86–1). Caruana, R. (1997). Multitask learning. Machine learning, 28 (1), 41–75. Castañer, A., y Claramunt, M. (2017). Solvencia II (2ªed.). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona. Cayre, M., Malaterre, J., Scotto-Lomassese, S., Strambi, C., y Strambi, A. (2002). The common properties of neurogenesis in the adult brain: from invertebrates to vertebrates. Comparative Biochemistry and Physiology Part B: Biochemistry and Molecular Biology, 132 (1), 1–15. Charpentier, A. (2014). Computational actuarial science with R. CRC press. Che, Z., Purushotham, S., Cho, K., Sontag, D., y Liu, Y. (2018). Recurrent neural networks for multivariate time series with missing values. Scientific reports, 8 (1), 1–12. Cho, K., Van Merri¨enboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., y Bengio, Y. (2014). Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078 . Ciaburro, G., y Venkateswaran, B. (2017). Neural networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles. Packt Publishing Ltd. Claramunt, M., y Costa, T. (2003). Matemática actuarial no vida: Un enfoque práctico. En Colección de publicaciones (Vol. 63). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona. Connor, J. T., Martin, R. D., y Atlas, L. E. (1994). Recurrent neural networks and robust time series prediction. IEEE transactions on neural networks, 5 (2), 240–254. Consul, P., y Famoye, F. (1992). Generalized Poisson regression model. Communications in Statistics-Theory and Methods, 21 (1), 89–109. Decreto 2973. (2013). Bogotá DC, Colombia: Ministerio de Hacienda y Crédito Público. Dey, R., y Salem, F. M. (s.f.). Gate-variants of gated recurrent unit (GRU) neural networks. En 2017 IEEE 60th international midwest symposium on circuits and systems (mwscas. Duan, J.-C., y Yu, M.-T. (1999). Capital standard, forbearance and deposit insurance pricing under GARCH. Journal of banking & finance, 23 (11), 1691–1706. Dubey, A. K., y Jain, V. (2019). Comparative study of convolution neural network’s relu and leaky-relu activation functions. En Applications of Computing, Automation and Wireless Systems in Electrical Engineering (pp. 873–880). Springer. Eckle, K., y Schmidt-Hieber, J. (2019). A comparison of deep networks with relu activation function and linear spline-type methods. Neural Networks, 110 , 232–242. England, P., y Verrall, R. (1998). Analytic and bootstrap estimates of prediction errors in claims reserving. Insurance: Mathematics and Economics, 25 (3), 459–478. England, P., y Verrall, R. (2002). Stochastic claims reserving in general insurance. Journal of the Institute of Actuaries, 8 (3), 443-518. Fausett, L. V. (2006). Fundamentals of neural networks: architectures, algorithms and applications. Pearson Education India. Fernandez-Arjona, L. (2021). A neural network model for solvency calculations in life insurance. Annals of Actuarial Science, 15 (2), 259–275. Fodor, J. A., y Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28 (1-2), 3–71. Forsyth, R. (1989). Neural Works Professional II. Expert Systems, 6 (2), 116–120. Frees, E. W. (2009). Regression modeling with actuarial and financial applications. Cambridge University Press. Freund, Y., y Schapire, R. E. (1999). Large margin classification using the perceptron algorithm. Machine learning, 37 (3), 277–296. Friedland, J. (2010). Estimating Unpaid Claims Using Basic Techniques. Virginia, United States: © Casualty Actuarial Society. Fukushima, K. (1975). Cognitron: A self-organizing multilayered neural network. Biological cybernetics, 20 (3), 121–136. Fukushima, K. (1988). Neocognitron: A hierarchical neural network capable of visual pattern recognition. Neural networks, 1 (2), 119–130. Gabrielli, A. (2020). A neural network boosted double overdispersed poisson claims reserving model. ASTIN Bulletin: The Journal of the IAA, 50 (1), 25–60. Gabrielli, A., Richman, R., y W¨uthrich, M. V. (2020). Neural network embedding of the over-dispersed poisson reserving model. Scandinavian Actuarial Journal, 2020 (1), 1–29. Gallant, S. I., y cols. (1990). Perceptron-based learning algorithms. IEEE Transactions on neural networks, 1 (2), 179–191. Garz´on Tafur, L. C., y Torres Aya, A. L. (2019). Análisis de la metodología Chain Ladder para el cálculo de la reserva técnica de siniestros no avisados (IBNR) del seguro obligatorio de accidentes de tránsito (SOAT) en Colombia (Tesis Doctoral no publicada). Glorot, X., y Bengio, Y. (2010). Understanding the difficulty of training deep feedforward neural networks. En Proceedings of the thirteenth international conference on artificial intelligence and statistics (pp. 249–256). Goldberg, D. E., y Holland, J. H. (1988). Genetic algorithms and machine learning. Gourieroux, C., Holly, A., y Monfort, A. (1982). Likelihood ratio test, Wald test, and Kuhn-Tucker test in linear models with inequality constraints on the regression parameters. Econometrica: journal of the Econometric Society, 63–80. Greff, K., Srivastava, R. K., Koutn´ık, J., Steunebrink, B. R., y Schmidhuber, J. (2016). Lstm: A search space odyssey. IEEE transactions on neural networks and learning systems, 28 (10), 2222–2232. Grossberg, S. (1982). Classical and instrumental learning by neural networks. Studies of Mind and Brain, 65–156. Guardiola, A. (1990). Manual de introducción al seguro. Editorial MAPFRE, S. A. Guzmán Gutiérrez, C. S., y cols. (2019). Sistema Pensional Colombiano: implicaciones de la educación financiera sobre las decisiones de traslado de los individuos. Hachemeister, C. A., y Stanard, J. N. (1975). IBNR claims count estimation with static lag functions. En Astin colloquium, portimao, portugal. Hebb, D. O. (2005). The organization of behavior: A neuropsychological theory. Psychology Press. Hochreiter, S. (1998). The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 6 (02), 107–116. Hochreiter, S., y Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9 (8), 1735–1780. Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the national academy of sciences, 79 (8), 2554–2558. Horn, R. A. (1990). The hadamard product. En Proc. symp. appl. math (Vol. 40, pp.87–169). Ismail, N., y Jemain, A. A. (2007). Handling overdispersion with negative binomial and generalized poisson regression models. En Casualty actuarial society forum (Vol. 2007, pp. 103–58). Jong, P., y Heller, G. (2008). Generalized linear models for insurance data. Cambridge: Cambridge University Press. Jozefowicz, R., Zaremba, W., y Sutskever, I. (2015). An empirical exploration of recurrent network architectures. En International conference on machine learning (pp. 2342–2350). Kaas, R., Goovaerts, M., Dhaene, J., y Denuit, M. (2008). Modern actuarial risk theory: using r (Vol. 128). Springer Science & Business Media. Kaas, R., Goovaerts, M., y Dhaene, M., J.and Denuit. (2008). Modern Actuarial Risk Theory - using R, second ed. Springer-Verlag Berlin Heidelberg. Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological cybernetics, 43 (1), 59–69. Kohonen, T., Lehti¨o, P., Rovamo, J., Hyv¨arinen, J., Bry, K., y Vainio, L. (1977). A principle of neural associative memory. Neuroscience, 2 (6), 1065–1076. Kremer, E. (1982). IBNR claims and the two-way model of ANOVA. Scandinavian Actuarial Journal, 1982 (1), 47-55. Kv˚alseth, T. O. (1985). Cautionary note about r2. The American Statistician, 39 (4),279–285. Ley número 100. (1993). Bogotá DC, Colombia: Congreso de la República de Colombia. Li, Q., Li, Y., Gao, J., Su, L., Zhao, B., Demirbas, M., . . . Han, J. (2014). A confidence-aware approach for truth discovery on long-tail data. Proceedings of the VLDB Endowment, 8 (4), 425–436. Lin, T., Horne, B. G., Tino, P., y Giles, C. L. (1996). Learning long-term dependencies in NARX recurrent neural networks. IEEE Transactions on Neural Networks, 7 (6), 1329–1338. L´opez, R. F., y Fernandez, J. M. F. (2008). Las redes neuronales artificiales. Netbiblo. MacCuLLAGH, P., y Nelder, J. (1983). Generalized linear models. Mack, T. (1982). Measuring the variability of Chain Ladder reserve estimates. Insurance: Mathematics and Economics, 15 (1), 133-138. Mack, T. (1991). A simple parametric model for rating automobile insurance or estimating IBNR claims reserves. ASTIN Bulletin: The Journal of the IAA, 21 (1), 93–109. Mack, T. (1993). Distribution-free calculation of the standard error of Chain Ladder reserve estimates. ASTIN Bulletin, 23 (2), 213-225. Mack, T. (1999). The standard error of Chain Ladder reserve estimates: Recursive calculation and inclusion of a tail factor. ASTIN Bulletin: The Journal of the IAA, 29 (2), 361–366. McCulloch, W. S., y Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5 (4), 115–133. McFadden, D. (1974). The measurement of urban travel demand. Journal of public economics, 3 (4), 303–328. Medsker, L. R., y Jain, L. (2001). Recurrent neural networks. Design and Applications, 5 ,64–67. Mora, H. E. B. (2018). Cálculo de IBNR, un ejemplo práctico. En Colección de publicaciones. Colombia: Universidad Antonio Nariño. Murphy, D. M. (1994). Unbiased loss development factors. En CAS Forum (Vol. 1, p. 183). Nakisa, B., Rastgoo, M. N., Rakotonirainy, A., Maire, F., y Chandran, V. (2018). Long short term memory hyperparameter optimization for a neural network based emotion recognition framework. IEEE Access, 6 , 49325–49338. Norberg, R. (1986). A contribution to modelling of IBNR claims. Scandinavian Actuarial Journal, 1986 (3-4), 155-203. Olazaran, M. (1993). A sociological history of the neural network controversy. Advances in computers, 37 , 335–425. Olbricht, W. (2012). Tree-based methods: a useful tool for life insurance. European Actuarial Journal volume, 2 , 129–147. Pascanu, R., Mikolov, T., y Bengio, Y. (2013). On the difficulty of training recurrent neural networks. En International conference on machine learning (pp. 1310–1318). Picard, R. R., y Cook, R. D. (1984). Cross-validation of regression models. Journal of the American Statistical Association, 79 (387), 575–583. Platt, J. (1991). A resource-allocating network for function interpolation. Neural Computation, 3 (2), 213–225. Pr¨ohl, K. D., C.and Schmidt. (2005). Multivariate Chain-Ladder. Dresdner Schriften zur Versicherungsmathematik. Quinlan, P. T. (2003). Connectionist models of development: Developmental processes in real and artificial neural networks. Taylor & Francis. Ramachandran, P., Zoph, B., y Le, Q. V. (2017). Searching for activation functions. arXiv preprint arXiv:1710.05941 . Rather, A. M., Agarwal, A., y Sastry, V. (2015). Recurrent neural network and a hybrid model for prediction of stock returns. Expert Systems with Applications, 42 (6), 3234–3241. Renato, S. (2003). Neurons and Synapses: The History of Its Discovery. Brain & Mind Magazine, 17 . Renshaw, A., y Verrall, R. (1998). A stochastic model underlying the Chain Ladder technique. British Actuarial Journal, 4 (4), 903–923. Riedmiller, M. (1994). Advanced supervised learning in multi-layer perceptrons—from backpropagation to adaptive learning algorithms. Computer Standards & Interfaces, 16 (3), 265–278. Rocco, I., Arandjelovic, R., y Sivic, J. (2017). Convolutional neural network architecture for geometric matching. En Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 6148–6157). Rogers, T. T., y McClelland, J. L. (2014). Parallel distributed processing at 25: Further explorations in the microstructure of Cognition. Cognitive science, 38 (6), 1024–1077. Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review, 65 (6), 386. Rumelhart, D. E., Durbin, R., Golden, R., y Chauvin, Y. (1995). Backpropagation: The basic theory. Backpropagation: Theory, architectures and applications, 1–34. Sahoo, B. B., Jha, R., Singh, A., y Kumar, D. (2019). Long short-term memory (LSTM) recurrent neural network for low-flow hydrological time series forecasting. Acta Geophysica, 67 (5), 1471–1481. Sak, H., Senior, A. W., y Beaufays, F. (2014). Long short-term memory recurrent neural network architectures for large scale acoustic modeling. Schiegl, M. (2008). Parameter estimation for a stochastic claim reserving model. Presented at DPG Conference,Berlin. Schiegl, M. (2009). A three dimensional stochastic model for claim reserving. Proceedings 39th ASTIN Colloquium. Schmidt-Hieber, J. (2020). Nonparametric regression using deep neural networks with relu activation function. The Annals of Statistics, 48 (4), 1875–1897. Shanmuganathan, S. (2016). Artificial neural network modelling: An introduction. En Artificial neural network modelling (pp. 1–14). Springer Sousa, D. A. (2014). Neurociencia educativa: Mente, cerebro y educaci´on (Vol. 131). Narcea Ediciones. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., y Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15 (1), 1929–1958. Suzuki, K. (2013). Artificial neural networks: Architectures and applications. BoD–Books on Demand. Taylor, G. (1986). Claims reserving in non-life insurance. Elsevier Science. Taylor, G. (2000). Loss Reserving: An Actuarial Perspective. Nueva York, Estados Unidos de América: Springer. Taylor, G., y Ashe, F. (1983). Second moments of estimates of outstanding claims. Journal of Econometrics, 23 , 37–61. Tsantekidis, A., Passalis, N., Tefas, A., Kanniainen, J., Gabbouj, M., y Iosifidis, A. (2017). Forecasting stock prices from the limit order book using convolutional neural networks. En 2017 IEEE 19th conference on business informatics (CBI) (Vol. 1, pp. 7–12). Venkatesh, Y., y Raja, S. K. (2003). On the classification of multispectral satellite images using the multilayer perceptron. Pattern Recognition, 36 (9), 2161–2175. Verrall, R. (1989). A state space representation of the Chain Ladder linear model. Journal of the Institute of Actuaries, 116 , 589-609. Verrall, R. (1994). Statistical methods for the Chain Ladder technique. Casuality Actuarial Society(1), 393–445. Verrall, R., Nielsen, J. P., y Jessen, A. H. (2010). Prediction of rbns and ibnr claims using claim amounts and claim counts. ASTIN Bulletin: The Journal of the IAA, 40 (2), 871–887. Vogl, T. P., Mangis, J., Rigler, A., Zink, W., y Alkon, D. (1988). Accelerating the convergence of the back-propagation method. Biological cybernetics, 59 (4), 257–263. Von der Malsburg, C. (1973). Self-organization of orientation sensitive cells in the striate cortex. Kybernetik , 14 (2), 85–100. Werbos, P. J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural networks, 1 (4), 339–356. Werbos, P. J. (1990). Backpropagation through time: what it does and how to do it.Proceedings of the IEEE, 78 (10), 1550–1560. White, H., y cols. (1992). Artificial neural networks. Blackwell Cambridge, Mass. Widrow, B., y Hoff, M. E. (1960). Adaptive switching circuits (Inf. Tec.). Stanford Univ Ca Stanford Electronics Labs. W¨uthrich, M. (2018). Neural networks applied to Chain–Ladder reserving. European Actuarial Journal, 2018:8 , 407–436. W¨uthrich, M. (2019). Bias regularization in neural network models for general insurance pricing. European Actuarial Journal, 1–24. W¨uthrich, M., y Merz, M. (2008). Stochastic Claims Reserving Methods in Insurance. New York, United States: Wiley Finance. Yegnanarayana, B. (2009). Artificial neural networks. PHI Learning Pvt. Ltd. Zhang, Y. (2010). A general multivariate Chain Ladder model. Insurance: Mathematics and Economics, 46 (3), 588-599. |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.license.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional |
dc.rights.uri.spa.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional http://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.spa.fl_str_mv |
xvi, 101 páginas |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad Nacional de Colombia |
dc.publisher.program.spa.fl_str_mv |
Medellín - Ciencias - Maestría en Ciencias - Estadística |
dc.publisher.department.spa.fl_str_mv |
Escuela de estadística |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ciencias |
dc.publisher.place.spa.fl_str_mv |
Medellín, Colombia |
dc.publisher.branch.spa.fl_str_mv |
Universidad Nacional de Colombia - Sede Medellín |
institution |
Universidad Nacional de Colombia |
bitstream.url.fl_str_mv |
https://repositorio.unal.edu.co/bitstream/unal/81256/3/1036952578.2021.pdf https://repositorio.unal.edu.co/bitstream/unal/81256/4/license.txt https://repositorio.unal.edu.co/bitstream/unal/81256/5/1036952578.2021.pdf.jpg |
bitstream.checksum.fl_str_mv |
14ccb414a68e12888cc2f8dfa4ca368e 8153f7789df02f0a4c9e079953658ab2 5782c3395bc373fc9bcc52f688ce714b |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad Nacional de Colombia |
repository.mail.fl_str_mv |
repositorio_nal@unal.edu.co |
_version_ |
1814090169413795840 |
spelling |
Atribución-NoComercial-SinDerivadas 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Gómez Vélez, César Augusto5f313d9d6a03f53f290c99eff12913a8Ortega Alzate, Santiago9a1d821eb4ef973fe2f18fdab68e488e2022-03-16T19:57:53Z2022-03-16T19:57:53Z2021-03-11https://repositorio.unal.edu.co/handle/unal/81256Universidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecuencia de la póliza). En este trabajo de grado se estima la frecuencia para una póliza del seguro previsional con vigencia en el año 2020, para la cobertura de sobrevivencia. Esto mediante el ajuste de un modelo de regresión cuasi-Poisson y el entrenamiento de una red neuronal recurrente. Se requirió en el histórico de siniestros pagados en los t = 10 años anteriores al 2020. Debido a que el pago de los siniestros cubiertos por el seguro previsional puede realizarse en cualquier momento posterior a la ocurrencia de estos, es necesario el cálculo intermedio de una variable conocida como Siniestros Incurridos, pero no Reportados - IBNR, por sus siglas en inglés (un siniestro ocurrido en 2019 puede ser avisado y pagado en el año 2024, por lo que aún se desconoce). De esta manera, primero se estimó la IBNR para las pólizas 2010 − 2019 partiendo de un triángulo de siniestros incurridos. Para el cálculo de la IBNR y la frecuencia existen metodologías con bases teóricas bien establecidas, tales como la regresión cuasi-Poisson. Sin embargo, es común encontrar en la literatura avances sobre el uso de inteligencia artificial en este tipo de aplicaciones. Por lo tanto, se aplican las redes neuronales recurrentes - RNN con el propósito de contrastar su desempeño con el de la regresión cuasi-Poisson y contribuir con este esfuerzo. En general, los resultados de IBNR y frecuencia son inferiores cuando se utiliza la RNN, en comparación con los resultados vía regresión cuasi-Poisson, sobre todo en las pólizas más recientes (2015−2019). Una intuición primaria sería que la RNN tiende a subestimar el riesgo a cubrir por la póliza. Probablemente, se necesitan más datos para la estimación (como, por ejemplo, características de los asegurados). En conclusión, el uso de RNN se presenta como una alternativa prometedora para el pronóstico de la frecuencia de una póliza. En futuros estudios, se recomienda incluir durante el entrenamiento de esta, variables adicionales vinculadas al riesgo que se busca tarifar y que describan mejor a la población asegurada. (Texto tomado de la fuente)In the pricing of an insurance policy, insurance companies must quantify the value of the assumed risk in order to constitute sufficient reserves and face future claims. During that process, it is highly important to estimate the number of claims to be paid by the policy (frequency of the policy). In this thesis, the frequency is estimated for a pension insurance policy effective in the year 2020, specifically for survival coverage. This is done by fitting a quasi-Poisson regression model and training a recurrent neural network. The input is the historical claims count of t = 10 years prior to 2020. Due to the fact that the payment of the claims covered by the social security insurance can be made at any time after their occurrence, the intermediate calculation of a variable known as Incurred but Not Reported Claims - IBNR is required (a loss that occurred in 2019 can be notified in the year 2024, so it is still unknown). In this way, IBNR was first estimated for the 2010 − 2019 policies using a triangle of incurred claims. For the IBNR calculation and frequency, there are methodologies with well-established theoretical bases, such as quasi-Poisson regression. However, it is common to find in the literature advances on the use of artificial intelligence in this type of application. Therefore, recurrent neural networks - RNN are applied with the purpose of contrasting their performance with that of quasi-Poisson regression and contributing to this effort. In general, IBNR and frequency results are lower when using RNN for estimation compared to results with quasi-Poisson regression, especially for more recent policies (2015 − 2019). Since the quasi-Poisson regression model resulted in higher estimates, it can be inferred that the RNN tends to underestimate the risk to be covered by the policy. Probably, the data considered for its estimation (the number of insured people) provide more information to the model than the sequential input patterns used in the RNN. In conclusion, the use of RNN is presented as a promising alternative for forecasting the frequency of a policy. In future studies, during the neural network training, it is recommended to include additional variables linked to the risk to be priced and that better describe the insured population.MaestríaMagíster en Ciencias - EstadísticaMétodos estadísticos en finanzas y actuariaÁrea Curricular Estadísticaxvi, 101 páginasapplication/pdfspaUniversidad Nacional de ColombiaMedellín - Ciencias - Maestría en Ciencias - EstadísticaEscuela de estadísticaFacultad de CienciasMedellín, ColombiaUniversidad Nacional de Colombia - Sede Medellín510 - Matemáticas::519 - Probabilidades y matemáticas aplicadasProcesos de poissonPoisson processesRedes neuronales (Computación)Riesgo (Seguros)IBNRRNNArtificial neural networksClaims reservePension insurance policyPoisson regressionRecurrent neural networks -RNNPóliza de seguro previsionalRedes neuronales artificialesRed neuronal recurrenteExploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsionalExploration of neural networks for the projection of the maximum expected loss of an insurance policy: application for pension insuranceTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMAckley, D. H., Hinton, G. E., y Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive science, 9 (1), 147–169.Agarap, A. F. (2018). Deep learning using rectified linear units (ReLu). arXiv preprint arXiv:1803.08375 .AI In The 1980s And Beyond: An MIT Survey. (s.f.). , 6 .Anderson, J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S. (1977). Distinctive features, categorical perception, and probability learning: Some applications of a neural model. Psychological review, 84 (5), 413.Bianchi, F. M., Maiorino, E., Kampffmeyer, M. C., Rizzi, A., y Jenssen, R. (2017). Recurrent neural networks for short-term load forecasting: an overview and comparative analysis.Board, I. A. S. (2015). Proyecto de Norma Marco Conceptual para la Información Financiera.Bornhuetter, R., y Ferguson, R. (1972). The actuary and IBNR. ASTIN Bulletin, 59 (1), 181–195.Carpenter, G. A., y Grossberg, S. (1985). Category learning and adaptive pattern recognition: A neural network model. En Proceedings, Third Army Conference on Applied Mathematics and Computing, ARO Report (pp. 86–1).Caruana, R. (1997). Multitask learning. Machine learning, 28 (1), 41–75.Castañer, A., y Claramunt, M. (2017). Solvencia II (2ªed.). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.Cayre, M., Malaterre, J., Scotto-Lomassese, S., Strambi, C., y Strambi, A. (2002). The common properties of neurogenesis in the adult brain: from invertebrates to vertebrates. Comparative Biochemistry and Physiology Part B: Biochemistry and Molecular Biology, 132 (1), 1–15.Charpentier, A. (2014). Computational actuarial science with R. CRC press.Che, Z., Purushotham, S., Cho, K., Sontag, D., y Liu, Y. (2018). Recurrent neural networks for multivariate time series with missing values. Scientific reports, 8 (1), 1–12.Cho, K., Van Merri¨enboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., y Bengio, Y. (2014). Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078 .Ciaburro, G., y Venkateswaran, B. (2017). Neural networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles. Packt Publishing Ltd.Claramunt, M., y Costa, T. (2003). Matemática actuarial no vida: Un enfoque práctico. En Colección de publicaciones (Vol. 63). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.Connor, J. T., Martin, R. D., y Atlas, L. E. (1994). Recurrent neural networks and robust time series prediction. IEEE transactions on neural networks, 5 (2), 240–254.Consul, P., y Famoye, F. (1992). Generalized Poisson regression model. Communications in Statistics-Theory and Methods, 21 (1), 89–109.Decreto 2973. (2013). Bogotá DC, Colombia: Ministerio de Hacienda y Crédito Público.Dey, R., y Salem, F. M. (s.f.). Gate-variants of gated recurrent unit (GRU) neural networks. En 2017 IEEE 60th international midwest symposium on circuits and systems (mwscas.Duan, J.-C., y Yu, M.-T. (1999). Capital standard, forbearance and deposit insurance pricing under GARCH. Journal of banking & finance, 23 (11), 1691–1706.Dubey, A. K., y Jain, V. (2019). Comparative study of convolution neural network’s relu and leaky-relu activation functions. En Applications of Computing, Automation and Wireless Systems in Electrical Engineering (pp. 873–880). Springer.Eckle, K., y Schmidt-Hieber, J. (2019). A comparison of deep networks with relu activation function and linear spline-type methods. Neural Networks, 110 , 232–242.England, P., y Verrall, R. (1998). Analytic and bootstrap estimates of prediction errors in claims reserving. Insurance: Mathematics and Economics, 25 (3), 459–478.England, P., y Verrall, R. (2002). Stochastic claims reserving in general insurance. Journal of the Institute of Actuaries, 8 (3), 443-518.Fausett, L. V. (2006). Fundamentals of neural networks: architectures, algorithms and applications. Pearson Education India.Fernandez-Arjona, L. (2021). A neural network model for solvency calculations in life insurance. Annals of Actuarial Science, 15 (2), 259–275.Fodor, J. A., y Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28 (1-2), 3–71.Forsyth, R. (1989). Neural Works Professional II. Expert Systems, 6 (2), 116–120.Frees, E. W. (2009). Regression modeling with actuarial and financial applications. Cambridge University Press.Freund, Y., y Schapire, R. E. (1999). Large margin classification using the perceptron algorithm. Machine learning, 37 (3), 277–296.Friedland, J. (2010). Estimating Unpaid Claims Using Basic Techniques. Virginia, United States: © Casualty Actuarial Society.Fukushima, K. (1975). Cognitron: A self-organizing multilayered neural network. Biological cybernetics, 20 (3), 121–136.Fukushima, K. (1988). Neocognitron: A hierarchical neural network capable of visual pattern recognition. Neural networks, 1 (2), 119–130.Gabrielli, A. (2020). A neural network boosted double overdispersed poisson claims reserving model. ASTIN Bulletin: The Journal of the IAA, 50 (1), 25–60.Gabrielli, A., Richman, R., y W¨uthrich, M. V. (2020). Neural network embedding of the over-dispersed poisson reserving model. Scandinavian Actuarial Journal, 2020 (1), 1–29.Gallant, S. I., y cols. (1990). Perceptron-based learning algorithms. IEEE Transactions on neural networks, 1 (2), 179–191.Garz´on Tafur, L. C., y Torres Aya, A. L. (2019). Análisis de la metodología Chain Ladder para el cálculo de la reserva técnica de siniestros no avisados (IBNR) del seguro obligatorio de accidentes de tránsito (SOAT) en Colombia (Tesis Doctoral no publicada).Glorot, X., y Bengio, Y. (2010). Understanding the difficulty of training deep feedforward neural networks. En Proceedings of the thirteenth international conference on artificial intelligence and statistics (pp. 249–256).Goldberg, D. E., y Holland, J. H. (1988). Genetic algorithms and machine learning.Gourieroux, C., Holly, A., y Monfort, A. (1982). Likelihood ratio test, Wald test, and Kuhn-Tucker test in linear models with inequality constraints on the regression parameters. Econometrica: journal of the Econometric Society, 63–80.Greff, K., Srivastava, R. K., Koutn´ık, J., Steunebrink, B. R., y Schmidhuber, J. (2016). Lstm: A search space odyssey. IEEE transactions on neural networks and learning systems, 28 (10), 2222–2232.Grossberg, S. (1982). Classical and instrumental learning by neural networks. Studies of Mind and Brain, 65–156.Guardiola, A. (1990). Manual de introducción al seguro. Editorial MAPFRE, S. A.Guzmán Gutiérrez, C. S., y cols. (2019). Sistema Pensional Colombiano: implicaciones de la educación financiera sobre las decisiones de traslado de los individuos.Hachemeister, C. A., y Stanard, J. N. (1975). IBNR claims count estimation with static lag functions. En Astin colloquium, portimao, portugal.Hebb, D. O. (2005). The organization of behavior: A neuropsychological theory. Psychology Press.Hochreiter, S. (1998). The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 6 (02), 107–116.Hochreiter, S., y Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9 (8), 1735–1780.Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the national academy of sciences, 79 (8), 2554–2558.Horn, R. A. (1990). The hadamard product. En Proc. symp. appl. math (Vol. 40, pp.87–169).Ismail, N., y Jemain, A. A. (2007). Handling overdispersion with negative binomial and generalized poisson regression models. En Casualty actuarial society forum (Vol. 2007, pp. 103–58).Jong, P., y Heller, G. (2008). Generalized linear models for insurance data. Cambridge: Cambridge University Press.Jozefowicz, R., Zaremba, W., y Sutskever, I. (2015). An empirical exploration of recurrent network architectures. En International conference on machine learning (pp. 2342–2350).Kaas, R., Goovaerts, M., Dhaene, J., y Denuit, M. (2008). Modern actuarial risk theory: using r (Vol. 128). Springer Science & Business Media.Kaas, R., Goovaerts, M., y Dhaene, M., J.and Denuit. (2008). Modern Actuarial Risk Theory - using R, second ed. Springer-Verlag Berlin Heidelberg.Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological cybernetics, 43 (1), 59–69.Kohonen, T., Lehti¨o, P., Rovamo, J., Hyv¨arinen, J., Bry, K., y Vainio, L. (1977). A principle of neural associative memory. Neuroscience, 2 (6), 1065–1076.Kremer, E. (1982). IBNR claims and the two-way model of ANOVA. Scandinavian Actuarial Journal, 1982 (1), 47-55.Kv˚alseth, T. O. (1985). Cautionary note about r2. The American Statistician, 39 (4),279–285.Ley número 100. (1993). Bogotá DC, Colombia: Congreso de la República de Colombia.Li, Q., Li, Y., Gao, J., Su, L., Zhao, B., Demirbas, M., . . . Han, J. (2014). A confidence-aware approach for truth discovery on long-tail data. Proceedings of the VLDB Endowment, 8 (4), 425–436.Lin, T., Horne, B. G., Tino, P., y Giles, C. L. (1996). Learning long-term dependencies in NARX recurrent neural networks. IEEE Transactions on Neural Networks, 7 (6), 1329–1338.L´opez, R. F., y Fernandez, J. M. F. (2008). Las redes neuronales artificiales. Netbiblo.MacCuLLAGH, P., y Nelder, J. (1983). Generalized linear models.Mack, T. (1982). Measuring the variability of Chain Ladder reserve estimates. Insurance: Mathematics and Economics, 15 (1), 133-138.Mack, T. (1991). A simple parametric model for rating automobile insurance or estimating IBNR claims reserves. ASTIN Bulletin: The Journal of the IAA, 21 (1), 93–109.Mack, T. (1993). Distribution-free calculation of the standard error of Chain Ladder reserve estimates. ASTIN Bulletin, 23 (2), 213-225.Mack, T. (1999). The standard error of Chain Ladder reserve estimates: Recursive calculation and inclusion of a tail factor. ASTIN Bulletin: The Journal of the IAA, 29 (2), 361–366.McCulloch, W. S., y Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5 (4), 115–133.McFadden, D. (1974). The measurement of urban travel demand. Journal of public economics, 3 (4), 303–328.Medsker, L. R., y Jain, L. (2001). Recurrent neural networks. Design and Applications, 5 ,64–67.Mora, H. E. B. (2018). Cálculo de IBNR, un ejemplo práctico. En Colección de publicaciones. Colombia: Universidad Antonio Nariño.Murphy, D. M. (1994). Unbiased loss development factors. En CAS Forum (Vol. 1, p. 183).Nakisa, B., Rastgoo, M. N., Rakotonirainy, A., Maire, F., y Chandran, V. (2018). Long short term memory hyperparameter optimization for a neural network based emotion recognition framework. IEEE Access, 6 , 49325–49338.Norberg, R. (1986). A contribution to modelling of IBNR claims. Scandinavian Actuarial Journal, 1986 (3-4), 155-203.Olazaran, M. (1993). A sociological history of the neural network controversy. Advances in computers, 37 , 335–425.Olbricht, W. (2012). Tree-based methods: a useful tool for life insurance. European Actuarial Journal volume, 2 , 129–147.Pascanu, R., Mikolov, T., y Bengio, Y. (2013). On the difficulty of training recurrent neural networks. En International conference on machine learning (pp. 1310–1318).Picard, R. R., y Cook, R. D. (1984). Cross-validation of regression models. Journal of the American Statistical Association, 79 (387), 575–583.Platt, J. (1991). A resource-allocating network for function interpolation. Neural Computation, 3 (2), 213–225.Pr¨ohl, K. D., C.and Schmidt. (2005). Multivariate Chain-Ladder. Dresdner Schriften zur Versicherungsmathematik.Quinlan, P. T. (2003). Connectionist models of development: Developmental processes in real and artificial neural networks. Taylor & Francis.Ramachandran, P., Zoph, B., y Le, Q. V. (2017). Searching for activation functions. arXiv preprint arXiv:1710.05941 .Rather, A. M., Agarwal, A., y Sastry, V. (2015). Recurrent neural network and a hybrid model for prediction of stock returns. Expert Systems with Applications, 42 (6), 3234–3241.Renato, S. (2003). Neurons and Synapses: The History of Its Discovery. Brain & Mind Magazine, 17 .Renshaw, A., y Verrall, R. (1998). A stochastic model underlying the Chain Ladder technique. British Actuarial Journal, 4 (4), 903–923.Riedmiller, M. (1994). Advanced supervised learning in multi-layer perceptrons—from backpropagation to adaptive learning algorithms. Computer Standards & Interfaces, 16 (3), 265–278.Rocco, I., Arandjelovic, R., y Sivic, J. (2017). Convolutional neural network architecture for geometric matching. En Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 6148–6157).Rogers, T. T., y McClelland, J. L. (2014). Parallel distributed processing at 25: Further explorations in the microstructure of Cognition. Cognitive science, 38 (6), 1024–1077.Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review, 65 (6), 386.Rumelhart, D. E., Durbin, R., Golden, R., y Chauvin, Y. (1995). Backpropagation: The basic theory. Backpropagation: Theory, architectures and applications, 1–34.Sahoo, B. B., Jha, R., Singh, A., y Kumar, D. (2019). Long short-term memory (LSTM) recurrent neural network for low-flow hydrological time series forecasting. Acta Geophysica, 67 (5), 1471–1481.Sak, H., Senior, A. W., y Beaufays, F. (2014). Long short-term memory recurrent neural network architectures for large scale acoustic modeling.Schiegl, M. (2008). Parameter estimation for a stochastic claim reserving model. Presented at DPG Conference,Berlin.Schiegl, M. (2009). A three dimensional stochastic model for claim reserving. Proceedings 39th ASTIN Colloquium.Schmidt-Hieber, J. (2020). Nonparametric regression using deep neural networks with relu activation function. The Annals of Statistics, 48 (4), 1875–1897.Shanmuganathan, S. (2016). Artificial neural network modelling: An introduction. En Artificial neural network modelling (pp. 1–14). SpringerSousa, D. A. (2014). Neurociencia educativa: Mente, cerebro y educaci´on (Vol. 131). Narcea Ediciones.Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., y Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15 (1), 1929–1958.Suzuki, K. (2013). Artificial neural networks: Architectures and applications. BoD–Books on Demand.Taylor, G. (1986). Claims reserving in non-life insurance. Elsevier Science.Taylor, G. (2000). Loss Reserving: An Actuarial Perspective. Nueva York, Estados Unidos de América: Springer.Taylor, G., y Ashe, F. (1983). Second moments of estimates of outstanding claims. Journal of Econometrics, 23 , 37–61.Tsantekidis, A., Passalis, N., Tefas, A., Kanniainen, J., Gabbouj, M., y Iosifidis, A. (2017). Forecasting stock prices from the limit order book using convolutional neural networks. En 2017 IEEE 19th conference on business informatics (CBI) (Vol. 1, pp. 7–12).Venkatesh, Y., y Raja, S. K. (2003). On the classification of multispectral satellite images using the multilayer perceptron. Pattern Recognition, 36 (9), 2161–2175.Verrall, R. (1989). A state space representation of the Chain Ladder linear model. Journal of the Institute of Actuaries, 116 , 589-609.Verrall, R. (1994). Statistical methods for the Chain Ladder technique. Casuality Actuarial Society(1), 393–445.Verrall, R., Nielsen, J. P., y Jessen, A. H. (2010). Prediction of rbns and ibnr claims using claim amounts and claim counts. ASTIN Bulletin: The Journal of the IAA, 40 (2), 871–887.Vogl, T. P., Mangis, J., Rigler, A., Zink, W., y Alkon, D. (1988). Accelerating the convergence of the back-propagation method. Biological cybernetics, 59 (4), 257–263.Von der Malsburg, C. (1973). Self-organization of orientation sensitive cells in the striate cortex. Kybernetik , 14 (2), 85–100.Werbos, P. J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural networks, 1 (4), 339–356.Werbos, P. J. (1990). Backpropagation through time: what it does and how to do it.Proceedings of the IEEE, 78 (10), 1550–1560.White, H., y cols. (1992). Artificial neural networks. Blackwell Cambridge, Mass.Widrow, B., y Hoff, M. E. (1960). Adaptive switching circuits (Inf. Tec.). Stanford Univ Ca Stanford Electronics Labs.W¨uthrich, M. (2018). Neural networks applied to Chain–Ladder reserving. European Actuarial Journal, 2018:8 , 407–436.W¨uthrich, M. (2019). Bias regularization in neural network models for general insurance pricing. European Actuarial Journal, 1–24.W¨uthrich, M., y Merz, M. (2008). Stochastic Claims Reserving Methods in Insurance. New York, United States: Wiley Finance.Yegnanarayana, B. (2009). Artificial neural networks. PHI Learning Pvt. Ltd.Zhang, Y. (2010). A general multivariate Chain Ladder model. Insurance: Mathematics and Economics, 46 (3), 588-599.EstudiantesInvestigadoresMaestrosPúblico generalORIGINAL1036952578.2021.pdf1036952578.2021.pdfTesis de Maestría en Ciencias - Estadísticaapplication/pdf2618812https://repositorio.unal.edu.co/bitstream/unal/81256/3/1036952578.2021.pdf14ccb414a68e12888cc2f8dfa4ca368eMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-84074https://repositorio.unal.edu.co/bitstream/unal/81256/4/license.txt8153f7789df02f0a4c9e079953658ab2MD54THUMBNAIL1036952578.2021.pdf.jpg1036952578.2021.pdf.jpgGenerated Thumbnailimage/jpeg4917https://repositorio.unal.edu.co/bitstream/unal/81256/5/1036952578.2021.pdf.jpg5782c3395bc373fc9bcc52f688ce714bMD55unal/81256oai:repositorio.unal.edu.co:unal/812562023-08-03 23:03:36.121Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.coUExBTlRJTExBIERFUMOTU0lUTwoKQ29tbyBlZGl0b3IgZGUgZXN0ZSDDrXRlbSwgdXN0ZWQgcHVlZGUgbW92ZXJsbyBhIHJldmlzacOzbiBzaW4gYW50ZXMgcmVzb2x2ZXIgbG9zIHByb2JsZW1hcyBpZGVudGlmaWNhZG9zLCBkZSBsbyBjb250cmFyaW8sIGhhZ2EgY2xpYyBlbiBHdWFyZGFyIHBhcmEgZ3VhcmRhciBlbCDDrXRlbSB5IHNvbHVjaW9uYXIgZXN0b3MgcHJvYmxlbWFzIG1hcyB0YXJkZS4KClBhcmEgdHJhYmFqb3MgZGVwb3NpdGFkb3MgcG9yIHN1IHByb3BpbyBhdXRvcjoKIApBbCBhdXRvYXJjaGl2YXIgZXN0ZSBncnVwbyBkZSBhcmNoaXZvcyBkaWdpdGFsZXMgeSBzdXMgbWV0YWRhdG9zLCB5byBnYXJhbnRpem8gYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBVbmFsIGVsIGRlcmVjaG8gYSBhbG1hY2VuYXJsb3MgeSBtYW50ZW5lcmxvcyBkaXNwb25pYmxlcyBlbiBsw61uZWEgZGUgbWFuZXJhIGdyYXR1aXRhLiBEZWNsYXJvIHF1ZSBsYSBvYnJhIGVzIGRlIG1pIHByb3BpZWRhZCBpbnRlbGVjdHVhbCB5IHF1ZSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIFVuYWwgbm8gYXN1bWUgbmluZ3VuYSByZXNwb25zYWJpbGlkYWQgc2kgaGF5IGFsZ3VuYSB2aW9sYWNpw7NuIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIGFsIGRpc3RyaWJ1aXIgZXN0b3MgYXJjaGl2b3MgeSBtZXRhZGF0b3MuIChTZSByZWNvbWllbmRhIGEgdG9kb3MgbG9zIGF1dG9yZXMgYSBpbmRpY2FyIHN1cyBkZXJlY2hvcyBkZSBhdXRvciBlbiBsYSBww6FnaW5hIGRlIHTDrXR1bG8gZGUgc3UgZG9jdW1lbnRvLikgRGUgbGEgbWlzbWEgbWFuZXJhLCBhY2VwdG8gbG9zIHTDqXJtaW5vcyBkZSBsYSBzaWd1aWVudGUgbGljZW5jaWE6IExvcyBhdXRvcmVzIG8gdGl0dWxhcmVzIGRlbCBkZXJlY2hvIGRlIGF1dG9yIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8gY29uZmllcmVuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgdW5hIGxpY2VuY2lhIG5vIGV4Y2x1c2l2YSwgbGltaXRhZGEgeSBncmF0dWl0YSBzb2JyZSBsYSBvYnJhIHF1ZSBzZSBpbnRlZ3JhIGVuIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwsIHF1ZSBzZSBhanVzdGEgYSBsYXMgc2lndWllbnRlcyBjYXJhY3RlcsOtc3RpY2FzOiBhKSBFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWUgZW4gZWwgcmVwb3NpdG9yaW8sIHF1ZSBzZXLDoW4gcHJvcnJvZ2FibGVzIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gcGF0cmltb25pYWwgZGVsIGF1dG9yLiBFbCBhdXRvciBwb2Ryw6EgZGFyIHBvciB0ZXJtaW5hZGEgbGEgbGljZW5jaWEgc29saWNpdMOhbmRvbG8gYSBsYSBVbml2ZXJzaWRhZC4gYikgTG9zIGF1dG9yZXMgYXV0b3JpemFuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgcGFyYSBwdWJsaWNhciBsYSBvYnJhIGVuIGVsIGZvcm1hdG8gcXVlIGVsIHJlcG9zaXRvcmlvIGxvIHJlcXVpZXJhIChpbXByZXNvLCBkaWdpdGFsLCBlbGVjdHLDs25pY28gbyBjdWFscXVpZXIgb3RybyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSB5IGNvbm9jZW4gcXVlIGRhZG8gcXVlIHNlIHB1YmxpY2EgZW4gSW50ZXJuZXQgcG9yIGVzdGUgaGVjaG8gY2lyY3VsYSBjb24gYWxjYW5jZSBtdW5kaWFsLiBjKSBMb3MgYXV0b3JlcyBhY2VwdGFuIHF1ZSBsYSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgYSB0w610dWxvIGdyYXR1aXRvLCBwb3IgbG8gdGFudG8sIHJlbnVuY2lhbiBhIHJlY2liaXIgZW1vbHVtZW50byBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgQ3JlYXRpdmUgQ29tbW9ucyBjb24gcXVlIHNlIHB1YmxpY2EuIGQpIExvcyBhdXRvcmVzIG1hbmlmaWVzdGFuIHF1ZSBzZSB0cmF0YSBkZSB1bmEgb2JyYSBvcmlnaW5hbCBzb2JyZSBsYSBxdWUgdGllbmVuIGxvcyBkZXJlY2hvcyBxdWUgYXV0b3JpemFuIHkgcXVlIHNvbiBlbGxvcyBxdWllbmVzIGFzdW1lbiB0b3RhbCByZXNwb25zYWJpbGlkYWQgcG9yIGVsIGNvbnRlbmlkbyBkZSBzdSBvYnJhIGFudGUgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgeSBhbnRlIHRlcmNlcm9zLiBFbiB0b2RvIGNhc28gbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgc2UgY29tcHJvbWV0ZSBhIGluZGljYXIgc2llbXByZSBsYSBhdXRvcsOtYSBpbmNsdXllbmRvIGVsIG5vbWJyZSBkZWwgYXV0b3IgeSBsYSBmZWNoYSBkZSBwdWJsaWNhY2nDs24uIGUpIExvcyBhdXRvcmVzIGF1dG9yaXphbiBhIGxhIFVuaXZlcnNpZGFkIHBhcmEgaW5jbHVpciBsYSBvYnJhIGVuIGxvcyBhZ3JlZ2Fkb3JlcywgaW5kaWNlc3MgeSBidXNjYWRvcmVzIHF1ZSBzZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBwcm9tb3ZlciBzdSBkaWZ1c2nDs24uIGYpIExvcyBhdXRvcmVzIGFjZXB0YW4gcXVlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHB1ZWRhIGNvbnZlcnRpciBlbCBkb2N1bWVudG8gYSBjdWFscXVpZXIgbWVkaW8gbyBmb3JtYXRvIHBhcmEgcHJvcMOzc2l0b3MgZGUgcHJlc2VydmFjacOzbiBkaWdpdGFsLiBTSSBFTCBET0NVTUVOVE8gU0UgQkFTQSBFTiBVTiBUUkFCQUpPIFFVRSBIQSBTSURPIFBBVFJPQ0lOQURPIE8gQVBPWUFETyBQT1IgVU5BIEFHRU5DSUEgTyBVTkEgT1JHQU5JWkFDScOTTiwgQ09OIEVYQ0VQQ0nDk04gREUgTEEgVU5JVkVSU0lEQUQgTkFDSU9OQUwgREUgQ09MT01CSUEsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MgREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uIAoKUGFyYSB0cmFiYWpvcyBkZXBvc2l0YWRvcyBwb3Igb3RyYXMgcGVyc29uYXMgZGlzdGludGFzIGEgc3UgYXV0b3I6IAoKRGVjbGFybyBxdWUgZWwgZ3J1cG8gZGUgYXJjaGl2b3MgZGlnaXRhbGVzIHkgbWV0YWRhdG9zIGFzb2NpYWRvcyBxdWUgZXN0b3kgYXJjaGl2YW5kbyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIFVOKSBlcyBkZSBkb21pbmlvIHDDumJsaWNvLiBTaSBubyBmdWVzZSBlbCBjYXNvLCBhY2VwdG8gdG9kYSBsYSByZXNwb25zYWJpbGlkYWQgcG9yIGN1YWxxdWllciBpbmZyYWNjacOzbiBkZSBkZXJlY2hvcyBkZSBhdXRvciBxdWUgY29ubGxldmUgbGEgZGlzdHJpYnVjacOzbiBkZSBlc3RvcyBhcmNoaXZvcyB5IG1ldGFkYXRvcy4KTk9UQTogU0kgTEEgVEVTSVMgQSBQVUJMSUNBUiBBRFFVSVJJw5MgQ09NUFJPTUlTT1MgREUgQ09ORklERU5DSUFMSURBRCBFTiBFTCBERVNBUlJPTExPIE8gUEFSVEVTIERFTCBET0NVTUVOVE8uIFNJR0EgTEEgRElSRUNUUklaIERFIExBIFJFU09MVUNJw5NOIDAyMyBERSAyMDE1LCBQT1IgTEEgQ1VBTCBTRSBFU1RBQkxFQ0UgRUwgUFJPQ0VESU1JRU5UTyBQQVJBIExBIFBVQkxJQ0FDScOTTiBERSBURVNJUyBERSBNQUVTVFLDjUEgWSBET0NUT1JBRE8gREUgTE9TIEVTVFVESUFOVEVTIERFIExBIFVOSVZFUlNJREFEIE5BQ0lPTkFMIERFIENPTE9NQklBIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU4sIEVYUEVESURBIFBPUiBMQSBTRUNSRVRBUsONQSBHRU5FUkFMLiAqTEEgVEVTSVMgQSBQVUJMSUNBUiBERUJFIFNFUiBMQSBWRVJTScOTTiBGSU5BTCBBUFJPQkFEQS4gCgpBbCBoYWNlciBjbGljIGVuIGVsIHNpZ3VpZW50ZSBib3TDs24sIHVzdGVkIGluZGljYSBxdWUgZXN0w6EgZGUgYWN1ZXJkbyBjb24gZXN0b3MgdMOpcm1pbm9zLiBTaSB0aWVuZSBhbGd1bmEgZHVkYSBzb2JyZSBsYSBsaWNlbmNpYSwgcG9yIGZhdm9yLCBjb250YWN0ZSBjb24gZWwgYWRtaW5pc3RyYWRvciBkZWwgc2lzdGVtYS4KClVOSVZFUlNJREFEIE5BQ0lPTkFMIERFIENPTE9NQklBIC0gw5psdGltYSBtb2RpZmljYWNpw7NuIDE5LzEwLzIwMjEK |