Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional

Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecu...

Full description

Autores:
Ortega Alzate, Santiago
Tipo de recurso:
Fecha de publicación:
2021
Institución:
Universidad Nacional de Colombia
Repositorio:
Universidad Nacional de Colombia
Idioma:
spa
OAI Identifier:
oai:repositorio.unal.edu.co:unal/81256
Acceso en línea:
https://repositorio.unal.edu.co/handle/unal/81256
https://repositorio.unal.edu.co/
Palabra clave:
510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas
Procesos de poisson
Poisson processes
Redes neuronales (Computación)
Riesgo (Seguros)
IBNR
RNN
Artificial neural networks
Claims reserve
Pension insurance policy
Poisson regression
Recurrent neural networks -RNN
Póliza de seguro previsional
Redes neuronales artificiales
Red neuronal recurrente
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 4.0 Internacional
id UNACIONAL2_c4ce0ad4afcc4bfad4892e106ed221fd
oai_identifier_str oai:repositorio.unal.edu.co:unal/81256
network_acronym_str UNACIONAL2
network_name_str Universidad Nacional de Colombia
repository_id_str
dc.title.spa.fl_str_mv Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
dc.title.translated.none.fl_str_mv Exploration of neural networks for the projection of the maximum expected loss of an insurance policy: application for pension insurance
title Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
spellingShingle Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas
Procesos de poisson
Poisson processes
Redes neuronales (Computación)
Riesgo (Seguros)
IBNR
RNN
Artificial neural networks
Claims reserve
Pension insurance policy
Poisson regression
Recurrent neural networks -RNN
Póliza de seguro previsional
Redes neuronales artificiales
Red neuronal recurrente
title_short Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
title_full Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
title_fullStr Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
title_full_unstemmed Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
title_sort Exploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsional
dc.creator.fl_str_mv Ortega Alzate, Santiago
dc.contributor.advisor.none.fl_str_mv Gómez Vélez, César Augusto
dc.contributor.author.none.fl_str_mv Ortega Alzate, Santiago
dc.subject.ddc.spa.fl_str_mv 510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas
topic 510 - Matemáticas::519 - Probabilidades y matemáticas aplicadas
Procesos de poisson
Poisson processes
Redes neuronales (Computación)
Riesgo (Seguros)
IBNR
RNN
Artificial neural networks
Claims reserve
Pension insurance policy
Poisson regression
Recurrent neural networks -RNN
Póliza de seguro previsional
Redes neuronales artificiales
Red neuronal recurrente
dc.subject.lemb.none.fl_str_mv Procesos de poisson
Poisson processes
Redes neuronales (Computación)
Riesgo (Seguros)
dc.subject.proposal.eng.fl_str_mv IBNR
RNN
Artificial neural networks
Claims reserve
Pension insurance policy
Poisson regression
Recurrent neural networks -RNN
dc.subject.proposal.spa.fl_str_mv Póliza de seguro previsional
Redes neuronales artificiales
Red neuronal recurrente
description Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecuencia de la póliza). En este trabajo de grado se estima la frecuencia para una póliza del seguro previsional con vigencia en el año 2020, para la cobertura de sobrevivencia. Esto mediante el ajuste de un modelo de regresión cuasi-Poisson y el entrenamiento de una red neuronal recurrente. Se requirió en el histórico de siniestros pagados en los t = 10 años anteriores al 2020. Debido a que el pago de los siniestros cubiertos por el seguro previsional puede realizarse en cualquier momento posterior a la ocurrencia de estos, es necesario el cálculo intermedio de una variable conocida como Siniestros Incurridos, pero no Reportados - IBNR, por sus siglas en inglés (un siniestro ocurrido en 2019 puede ser avisado y pagado en el año 2024, por lo que aún se desconoce). De esta manera, primero se estimó la IBNR para las pólizas 2010 − 2019 partiendo de un triángulo de siniestros incurridos. Para el cálculo de la IBNR y la frecuencia existen metodologías con bases teóricas bien establecidas, tales como la regresión cuasi-Poisson. Sin embargo, es común encontrar en la literatura avances sobre el uso de inteligencia artificial en este tipo de aplicaciones. Por lo tanto, se aplican las redes neuronales recurrentes - RNN con el propósito de contrastar su desempeño con el de la regresión cuasi-Poisson y contribuir con este esfuerzo. En general, los resultados de IBNR y frecuencia son inferiores cuando se utiliza la RNN, en comparación con los resultados vía regresión cuasi-Poisson, sobre todo en las pólizas más recientes (2015−2019). Una intuición primaria sería que la RNN tiende a subestimar el riesgo a cubrir por la póliza. Probablemente, se necesitan más datos para la estimación (como, por ejemplo, características de los asegurados). En conclusión, el uso de RNN se presenta como una alternativa prometedora para el pronóstico de la frecuencia de una póliza. En futuros estudios, se recomienda incluir durante el entrenamiento de esta, variables adicionales vinculadas al riesgo que se busca tarifar y que describan mejor a la población asegurada. (Texto tomado de la fuente)
publishDate 2021
dc.date.issued.none.fl_str_mv 2021-03-11
dc.date.accessioned.none.fl_str_mv 2022-03-16T19:57:53Z
dc.date.available.none.fl_str_mv 2022-03-16T19:57:53Z
dc.type.spa.fl_str_mv Trabajo de grado - Maestría
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TM
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unal.edu.co/handle/unal/81256
dc.identifier.instname.spa.fl_str_mv Universidad Nacional de Colombia
dc.identifier.reponame.spa.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourl.spa.fl_str_mv https://repositorio.unal.edu.co/
url https://repositorio.unal.edu.co/handle/unal/81256
https://repositorio.unal.edu.co/
identifier_str_mv Universidad Nacional de Colombia
Repositorio Institucional Universidad Nacional de Colombia
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv Ackley, D. H., Hinton, G. E., y Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive science, 9 (1), 147–169.
Agarap, A. F. (2018). Deep learning using rectified linear units (ReLu). arXiv preprint arXiv:1803.08375 .
AI In The 1980s And Beyond: An MIT Survey. (s.f.). , 6 .
Anderson, J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S. (1977). Distinctive features, categorical perception, and probability learning: Some applications of a neural model. Psychological review, 84 (5), 413.
Bianchi, F. M., Maiorino, E., Kampffmeyer, M. C., Rizzi, A., y Jenssen, R. (2017). Recurrent neural networks for short-term load forecasting: an overview and comparative analysis.
Board, I. A. S. (2015). Proyecto de Norma Marco Conceptual para la Información Financiera.
Bornhuetter, R., y Ferguson, R. (1972). The actuary and IBNR. ASTIN Bulletin, 59 (1), 181–195.
Carpenter, G. A., y Grossberg, S. (1985). Category learning and adaptive pattern recognition: A neural network model. En Proceedings, Third Army Conference on Applied Mathematics and Computing, ARO Report (pp. 86–1).
Caruana, R. (1997). Multitask learning. Machine learning, 28 (1), 41–75.
Castañer, A., y Claramunt, M. (2017). Solvencia II (2ªed.). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.
Cayre, M., Malaterre, J., Scotto-Lomassese, S., Strambi, C., y Strambi, A. (2002). The common properties of neurogenesis in the adult brain: from invertebrates to vertebrates. Comparative Biochemistry and Physiology Part B: Biochemistry and Molecular Biology, 132 (1), 1–15.
Charpentier, A. (2014). Computational actuarial science with R. CRC press.
Che, Z., Purushotham, S., Cho, K., Sontag, D., y Liu, Y. (2018). Recurrent neural networks for multivariate time series with missing values. Scientific reports, 8 (1), 1–12.
Cho, K., Van Merri¨enboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., y Bengio, Y. (2014). Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078 .
Ciaburro, G., y Venkateswaran, B. (2017). Neural networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles. Packt Publishing Ltd.
Claramunt, M., y Costa, T. (2003). Matemática actuarial no vida: Un enfoque práctico. En Colección de publicaciones (Vol. 63). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.
Connor, J. T., Martin, R. D., y Atlas, L. E. (1994). Recurrent neural networks and robust time series prediction. IEEE transactions on neural networks, 5 (2), 240–254.
Consul, P., y Famoye, F. (1992). Generalized Poisson regression model. Communications in Statistics-Theory and Methods, 21 (1), 89–109.
Decreto 2973. (2013). Bogotá DC, Colombia: Ministerio de Hacienda y Crédito Público.
Dey, R., y Salem, F. M. (s.f.). Gate-variants of gated recurrent unit (GRU) neural networks. En 2017 IEEE 60th international midwest symposium on circuits and systems (mwscas.
Duan, J.-C., y Yu, M.-T. (1999). Capital standard, forbearance and deposit insurance pricing under GARCH. Journal of banking & finance, 23 (11), 1691–1706.
Dubey, A. K., y Jain, V. (2019). Comparative study of convolution neural network’s relu and leaky-relu activation functions. En Applications of Computing, Automation and Wireless Systems in Electrical Engineering (pp. 873–880). Springer.
Eckle, K., y Schmidt-Hieber, J. (2019). A comparison of deep networks with relu activation function and linear spline-type methods. Neural Networks, 110 , 232–242.
England, P., y Verrall, R. (1998). Analytic and bootstrap estimates of prediction errors in claims reserving. Insurance: Mathematics and Economics, 25 (3), 459–478.
England, P., y Verrall, R. (2002). Stochastic claims reserving in general insurance. Journal of the Institute of Actuaries, 8 (3), 443-518.
Fausett, L. V. (2006). Fundamentals of neural networks: architectures, algorithms and applications. Pearson Education India.
Fernandez-Arjona, L. (2021). A neural network model for solvency calculations in life insurance. Annals of Actuarial Science, 15 (2), 259–275.
Fodor, J. A., y Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28 (1-2), 3–71.
Forsyth, R. (1989). Neural Works Professional II. Expert Systems, 6 (2), 116–120.
Frees, E. W. (2009). Regression modeling with actuarial and financial applications. Cambridge University Press.
Freund, Y., y Schapire, R. E. (1999). Large margin classification using the perceptron algorithm. Machine learning, 37 (3), 277–296.
Friedland, J. (2010). Estimating Unpaid Claims Using Basic Techniques. Virginia, United States: © Casualty Actuarial Society.
Fukushima, K. (1975). Cognitron: A self-organizing multilayered neural network. Biological cybernetics, 20 (3), 121–136.
Fukushima, K. (1988). Neocognitron: A hierarchical neural network capable of visual pattern recognition. Neural networks, 1 (2), 119–130.
Gabrielli, A. (2020). A neural network boosted double overdispersed poisson claims reserving model. ASTIN Bulletin: The Journal of the IAA, 50 (1), 25–60.
Gabrielli, A., Richman, R., y W¨uthrich, M. V. (2020). Neural network embedding of the over-dispersed poisson reserving model. Scandinavian Actuarial Journal, 2020 (1), 1–29.
Gallant, S. I., y cols. (1990). Perceptron-based learning algorithms. IEEE Transactions on neural networks, 1 (2), 179–191.
Garz´on Tafur, L. C., y Torres Aya, A. L. (2019). Análisis de la metodología Chain Ladder para el cálculo de la reserva técnica de siniestros no avisados (IBNR) del seguro obligatorio de accidentes de tránsito (SOAT) en Colombia (Tesis Doctoral no publicada).
Glorot, X., y Bengio, Y. (2010). Understanding the difficulty of training deep feedforward neural networks. En Proceedings of the thirteenth international conference on artificial intelligence and statistics (pp. 249–256).
Goldberg, D. E., y Holland, J. H. (1988). Genetic algorithms and machine learning.
Gourieroux, C., Holly, A., y Monfort, A. (1982). Likelihood ratio test, Wald test, and Kuhn-Tucker test in linear models with inequality constraints on the regression parameters. Econometrica: journal of the Econometric Society, 63–80.
Greff, K., Srivastava, R. K., Koutn´ık, J., Steunebrink, B. R., y Schmidhuber, J. (2016). Lstm: A search space odyssey. IEEE transactions on neural networks and learning systems, 28 (10), 2222–2232.
Grossberg, S. (1982). Classical and instrumental learning by neural networks. Studies of Mind and Brain, 65–156.
Guardiola, A. (1990). Manual de introducción al seguro. Editorial MAPFRE, S. A.
Guzmán Gutiérrez, C. S., y cols. (2019). Sistema Pensional Colombiano: implicaciones de la educación financiera sobre las decisiones de traslado de los individuos.
Hachemeister, C. A., y Stanard, J. N. (1975). IBNR claims count estimation with static lag functions. En Astin colloquium, portimao, portugal.
Hebb, D. O. (2005). The organization of behavior: A neuropsychological theory. Psychology Press.
Hochreiter, S. (1998). The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 6 (02), 107–116.
Hochreiter, S., y Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9 (8), 1735–1780.
Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the national academy of sciences, 79 (8), 2554–2558.
Horn, R. A. (1990). The hadamard product. En Proc. symp. appl. math (Vol. 40, pp.87–169).
Ismail, N., y Jemain, A. A. (2007). Handling overdispersion with negative binomial and generalized poisson regression models. En Casualty actuarial society forum (Vol. 2007, pp. 103–58).
Jong, P., y Heller, G. (2008). Generalized linear models for insurance data. Cambridge: Cambridge University Press.
Jozefowicz, R., Zaremba, W., y Sutskever, I. (2015). An empirical exploration of recurrent network architectures. En International conference on machine learning (pp. 2342–2350).
Kaas, R., Goovaerts, M., Dhaene, J., y Denuit, M. (2008). Modern actuarial risk theory: using r (Vol. 128). Springer Science & Business Media.
Kaas, R., Goovaerts, M., y Dhaene, M., J.and Denuit. (2008). Modern Actuarial Risk Theory - using R, second ed. Springer-Verlag Berlin Heidelberg.
Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological cybernetics, 43 (1), 59–69.
Kohonen, T., Lehti¨o, P., Rovamo, J., Hyv¨arinen, J., Bry, K., y Vainio, L. (1977). A principle of neural associative memory. Neuroscience, 2 (6), 1065–1076.
Kremer, E. (1982). IBNR claims and the two-way model of ANOVA. Scandinavian Actuarial Journal, 1982 (1), 47-55.
Kv˚alseth, T. O. (1985). Cautionary note about r2. The American Statistician, 39 (4),279–285.
Ley número 100. (1993). Bogotá DC, Colombia: Congreso de la República de Colombia.
Li, Q., Li, Y., Gao, J., Su, L., Zhao, B., Demirbas, M., . . . Han, J. (2014). A confidence-aware approach for truth discovery on long-tail data. Proceedings of the VLDB Endowment, 8 (4), 425–436.
Lin, T., Horne, B. G., Tino, P., y Giles, C. L. (1996). Learning long-term dependencies in NARX recurrent neural networks. IEEE Transactions on Neural Networks, 7 (6), 1329–1338.
L´opez, R. F., y Fernandez, J. M. F. (2008). Las redes neuronales artificiales. Netbiblo.
MacCuLLAGH, P., y Nelder, J. (1983). Generalized linear models.
Mack, T. (1982). Measuring the variability of Chain Ladder reserve estimates. Insurance: Mathematics and Economics, 15 (1), 133-138.
Mack, T. (1991). A simple parametric model for rating automobile insurance or estimating IBNR claims reserves. ASTIN Bulletin: The Journal of the IAA, 21 (1), 93–109.
Mack, T. (1993). Distribution-free calculation of the standard error of Chain Ladder reserve estimates. ASTIN Bulletin, 23 (2), 213-225.
Mack, T. (1999). The standard error of Chain Ladder reserve estimates: Recursive calculation and inclusion of a tail factor. ASTIN Bulletin: The Journal of the IAA, 29 (2), 361–366.
McCulloch, W. S., y Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5 (4), 115–133.
McFadden, D. (1974). The measurement of urban travel demand. Journal of public economics, 3 (4), 303–328.
Medsker, L. R., y Jain, L. (2001). Recurrent neural networks. Design and Applications, 5 ,64–67.
Mora, H. E. B. (2018). Cálculo de IBNR, un ejemplo práctico. En Colección de publicaciones. Colombia: Universidad Antonio Nariño.
Murphy, D. M. (1994). Unbiased loss development factors. En CAS Forum (Vol. 1, p. 183).
Nakisa, B., Rastgoo, M. N., Rakotonirainy, A., Maire, F., y Chandran, V. (2018). Long short term memory hyperparameter optimization for a neural network based emotion recognition framework. IEEE Access, 6 , 49325–49338.
Norberg, R. (1986). A contribution to modelling of IBNR claims. Scandinavian Actuarial Journal, 1986 (3-4), 155-203.
Olazaran, M. (1993). A sociological history of the neural network controversy. Advances in computers, 37 , 335–425.
Olbricht, W. (2012). Tree-based methods: a useful tool for life insurance. European Actuarial Journal volume, 2 , 129–147.
Pascanu, R., Mikolov, T., y Bengio, Y. (2013). On the difficulty of training recurrent neural networks. En International conference on machine learning (pp. 1310–1318).
Picard, R. R., y Cook, R. D. (1984). Cross-validation of regression models. Journal of the American Statistical Association, 79 (387), 575–583.
Platt, J. (1991). A resource-allocating network for function interpolation. Neural Computation, 3 (2), 213–225.
Pr¨ohl, K. D., C.and Schmidt. (2005). Multivariate Chain-Ladder. Dresdner Schriften zur Versicherungsmathematik.
Quinlan, P. T. (2003). Connectionist models of development: Developmental processes in real and artificial neural networks. Taylor & Francis.
Ramachandran, P., Zoph, B., y Le, Q. V. (2017). Searching for activation functions. arXiv preprint arXiv:1710.05941 .
Rather, A. M., Agarwal, A., y Sastry, V. (2015). Recurrent neural network and a hybrid model for prediction of stock returns. Expert Systems with Applications, 42 (6), 3234–3241.
Renato, S. (2003). Neurons and Synapses: The History of Its Discovery. Brain & Mind Magazine, 17 .
Renshaw, A., y Verrall, R. (1998). A stochastic model underlying the Chain Ladder technique. British Actuarial Journal, 4 (4), 903–923.
Riedmiller, M. (1994). Advanced supervised learning in multi-layer perceptrons—from backpropagation to adaptive learning algorithms. Computer Standards & Interfaces, 16 (3), 265–278.
Rocco, I., Arandjelovic, R., y Sivic, J. (2017). Convolutional neural network architecture for geometric matching. En Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 6148–6157).
Rogers, T. T., y McClelland, J. L. (2014). Parallel distributed processing at 25: Further explorations in the microstructure of Cognition. Cognitive science, 38 (6), 1024–1077.
Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review, 65 (6), 386.
Rumelhart, D. E., Durbin, R., Golden, R., y Chauvin, Y. (1995). Backpropagation: The basic theory. Backpropagation: Theory, architectures and applications, 1–34.
Sahoo, B. B., Jha, R., Singh, A., y Kumar, D. (2019). Long short-term memory (LSTM) recurrent neural network for low-flow hydrological time series forecasting. Acta Geophysica, 67 (5), 1471–1481.
Sak, H., Senior, A. W., y Beaufays, F. (2014). Long short-term memory recurrent neural network architectures for large scale acoustic modeling.
Schiegl, M. (2008). Parameter estimation for a stochastic claim reserving model. Presented at DPG Conference,Berlin.
Schiegl, M. (2009). A three dimensional stochastic model for claim reserving. Proceedings 39th ASTIN Colloquium.
Schmidt-Hieber, J. (2020). Nonparametric regression using deep neural networks with relu activation function. The Annals of Statistics, 48 (4), 1875–1897.
Shanmuganathan, S. (2016). Artificial neural network modelling: An introduction. En Artificial neural network modelling (pp. 1–14). Springer
Sousa, D. A. (2014). Neurociencia educativa: Mente, cerebro y educaci´on (Vol. 131). Narcea Ediciones.
Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., y Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15 (1), 1929–1958.
Suzuki, K. (2013). Artificial neural networks: Architectures and applications. BoD–Books on Demand.
Taylor, G. (1986). Claims reserving in non-life insurance. Elsevier Science.
Taylor, G. (2000). Loss Reserving: An Actuarial Perspective. Nueva York, Estados Unidos de América: Springer.
Taylor, G., y Ashe, F. (1983). Second moments of estimates of outstanding claims. Journal of Econometrics, 23 , 37–61.
Tsantekidis, A., Passalis, N., Tefas, A., Kanniainen, J., Gabbouj, M., y Iosifidis, A. (2017). Forecasting stock prices from the limit order book using convolutional neural networks. En 2017 IEEE 19th conference on business informatics (CBI) (Vol. 1, pp. 7–12).
Venkatesh, Y., y Raja, S. K. (2003). On the classification of multispectral satellite images using the multilayer perceptron. Pattern Recognition, 36 (9), 2161–2175.
Verrall, R. (1989). A state space representation of the Chain Ladder linear model. Journal of the Institute of Actuaries, 116 , 589-609.
Verrall, R. (1994). Statistical methods for the Chain Ladder technique. Casuality Actuarial Society(1), 393–445.
Verrall, R., Nielsen, J. P., y Jessen, A. H. (2010). Prediction of rbns and ibnr claims using claim amounts and claim counts. ASTIN Bulletin: The Journal of the IAA, 40 (2), 871–887.
Vogl, T. P., Mangis, J., Rigler, A., Zink, W., y Alkon, D. (1988). Accelerating the convergence of the back-propagation method. Biological cybernetics, 59 (4), 257–263.
Von der Malsburg, C. (1973). Self-organization of orientation sensitive cells in the striate cortex. Kybernetik , 14 (2), 85–100.
Werbos, P. J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural networks, 1 (4), 339–356.
Werbos, P. J. (1990). Backpropagation through time: what it does and how to do it.Proceedings of the IEEE, 78 (10), 1550–1560.
White, H., y cols. (1992). Artificial neural networks. Blackwell Cambridge, Mass.
Widrow, B., y Hoff, M. E. (1960). Adaptive switching circuits (Inf. Tec.). Stanford Univ Ca Stanford Electronics Labs.
W¨uthrich, M. (2018). Neural networks applied to Chain–Ladder reserving. European Actuarial Journal, 2018:8 , 407–436.
W¨uthrich, M. (2019). Bias regularization in neural network models for general insurance pricing. European Actuarial Journal, 1–24.
W¨uthrich, M., y Merz, M. (2008). Stochastic Claims Reserving Methods in Insurance. New York, United States: Wiley Finance.
Yegnanarayana, B. (2009). Artificial neural networks. PHI Learning Pvt. Ltd.
Zhang, Y. (2010). A general multivariate Chain Ladder model. Insurance: Mathematics and Economics, 46 (3), 588-599.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional
http://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv xvi, 101 páginas
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Nacional de Colombia
dc.publisher.program.spa.fl_str_mv Medellín - Ciencias - Maestría en Ciencias - Estadística
dc.publisher.department.spa.fl_str_mv Escuela de estadística
dc.publisher.faculty.spa.fl_str_mv Facultad de Ciencias
dc.publisher.place.spa.fl_str_mv Medellín, Colombia
dc.publisher.branch.spa.fl_str_mv Universidad Nacional de Colombia - Sede Medellín
institution Universidad Nacional de Colombia
bitstream.url.fl_str_mv https://repositorio.unal.edu.co/bitstream/unal/81256/3/1036952578.2021.pdf
https://repositorio.unal.edu.co/bitstream/unal/81256/4/license.txt
https://repositorio.unal.edu.co/bitstream/unal/81256/5/1036952578.2021.pdf.jpg
bitstream.checksum.fl_str_mv 14ccb414a68e12888cc2f8dfa4ca368e
8153f7789df02f0a4c9e079953658ab2
5782c3395bc373fc9bcc52f688ce714b
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
repository.mail.fl_str_mv repositorio_nal@unal.edu.co
_version_ 1806886663044988928
spelling Atribución-NoComercial-SinDerivadas 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Gómez Vélez, César Augusto5f313d9d6a03f53f290c99eff12913a8Ortega Alzate, Santiago9a1d821eb4ef973fe2f18fdab68e488e2022-03-16T19:57:53Z2022-03-16T19:57:53Z2021-03-11https://repositorio.unal.edu.co/handle/unal/81256Universidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/Durante la definición del precio comercial de una póliza de seguros, las aseguradoras deben cuantificar el riesgo asumido para constituir reservas suficientes y hacer frente a las reclamaciones futuras. Durante ese proceso, es determinante estimar el número de siniestros a pagar por la póliza (frecuencia de la póliza). En este trabajo de grado se estima la frecuencia para una póliza del seguro previsional con vigencia en el año 2020, para la cobertura de sobrevivencia. Esto mediante el ajuste de un modelo de regresión cuasi-Poisson y el entrenamiento de una red neuronal recurrente. Se requirió en el histórico de siniestros pagados en los t = 10 años anteriores al 2020. Debido a que el pago de los siniestros cubiertos por el seguro previsional puede realizarse en cualquier momento posterior a la ocurrencia de estos, es necesario el cálculo intermedio de una variable conocida como Siniestros Incurridos, pero no Reportados - IBNR, por sus siglas en inglés (un siniestro ocurrido en 2019 puede ser avisado y pagado en el año 2024, por lo que aún se desconoce). De esta manera, primero se estimó la IBNR para las pólizas 2010 − 2019 partiendo de un triángulo de siniestros incurridos. Para el cálculo de la IBNR y la frecuencia existen metodologías con bases teóricas bien establecidas, tales como la regresión cuasi-Poisson. Sin embargo, es común encontrar en la literatura avances sobre el uso de inteligencia artificial en este tipo de aplicaciones. Por lo tanto, se aplican las redes neuronales recurrentes - RNN con el propósito de contrastar su desempeño con el de la regresión cuasi-Poisson y contribuir con este esfuerzo. En general, los resultados de IBNR y frecuencia son inferiores cuando se utiliza la RNN, en comparación con los resultados vía regresión cuasi-Poisson, sobre todo en las pólizas más recientes (2015−2019). Una intuición primaria sería que la RNN tiende a subestimar el riesgo a cubrir por la póliza. Probablemente, se necesitan más datos para la estimación (como, por ejemplo, características de los asegurados). En conclusión, el uso de RNN se presenta como una alternativa prometedora para el pronóstico de la frecuencia de una póliza. En futuros estudios, se recomienda incluir durante el entrenamiento de esta, variables adicionales vinculadas al riesgo que se busca tarifar y que describan mejor a la población asegurada. (Texto tomado de la fuente)In the pricing of an insurance policy, insurance companies must quantify the value of the assumed risk in order to constitute sufficient reserves and face future claims. During that process, it is highly important to estimate the number of claims to be paid by the policy (frequency of the policy). In this thesis, the frequency is estimated for a pension insurance policy effective in the year 2020, specifically for survival coverage. This is done by fitting a quasi-Poisson regression model and training a recurrent neural network. The input is the historical claims count of t = 10 years prior to 2020. Due to the fact that the payment of the claims covered by the social security insurance can be made at any time after their occurrence, the intermediate calculation of a variable known as Incurred but Not Reported Claims - IBNR is required (a loss that occurred in 2019 can be notified in the year 2024, so it is still unknown). In this way, IBNR was first estimated for the 2010 − 2019 policies using a triangle of incurred claims. For the IBNR calculation and frequency, there are methodologies with well-established theoretical bases, such as quasi-Poisson regression. However, it is common to find in the literature advances on the use of artificial intelligence in this type of application. Therefore, recurrent neural networks - RNN are applied with the purpose of contrasting their performance with that of quasi-Poisson regression and contributing to this effort. In general, IBNR and frequency results are lower when using RNN for estimation compared to results with quasi-Poisson regression, especially for more recent policies (2015 − 2019). Since the quasi-Poisson regression model resulted in higher estimates, it can be inferred that the RNN tends to underestimate the risk to be covered by the policy. Probably, the data considered for its estimation (the number of insured people) provide more information to the model than the sequential input patterns used in the RNN. In conclusion, the use of RNN is presented as a promising alternative for forecasting the frequency of a policy. In future studies, during the neural network training, it is recommended to include additional variables linked to the risk to be priced and that better describe the insured population.MaestríaMagíster en Ciencias - EstadísticaMétodos estadísticos en finanzas y actuariaÁrea Curricular Estadísticaxvi, 101 páginasapplication/pdfspaUniversidad Nacional de ColombiaMedellín - Ciencias - Maestría en Ciencias - EstadísticaEscuela de estadísticaFacultad de CienciasMedellín, ColombiaUniversidad Nacional de Colombia - Sede Medellín510 - Matemáticas::519 - Probabilidades y matemáticas aplicadasProcesos de poissonPoisson processesRedes neuronales (Computación)Riesgo (Seguros)IBNRRNNArtificial neural networksClaims reservePension insurance policyPoisson regressionRecurrent neural networks -RNNPóliza de seguro previsionalRedes neuronales artificialesRed neuronal recurrenteExploración de las redes neuronales para la proyección de la máxima pérdida esperada de una póliza de seguros: aplicación para un seguro previsionalExploration of neural networks for the projection of the maximum expected loss of an insurance policy: application for pension insuranceTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMAckley, D. H., Hinton, G. E., y Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive science, 9 (1), 147–169.Agarap, A. F. (2018). Deep learning using rectified linear units (ReLu). arXiv preprint arXiv:1803.08375 .AI In The 1980s And Beyond: An MIT Survey. (s.f.). , 6 .Anderson, J. A., Silverstein, J. W., Ritz, S. A., y Jones, R. S. (1977). Distinctive features, categorical perception, and probability learning: Some applications of a neural model. Psychological review, 84 (5), 413.Bianchi, F. M., Maiorino, E., Kampffmeyer, M. C., Rizzi, A., y Jenssen, R. (2017). Recurrent neural networks for short-term load forecasting: an overview and comparative analysis.Board, I. A. S. (2015). Proyecto de Norma Marco Conceptual para la Información Financiera.Bornhuetter, R., y Ferguson, R. (1972). The actuary and IBNR. ASTIN Bulletin, 59 (1), 181–195.Carpenter, G. A., y Grossberg, S. (1985). Category learning and adaptive pattern recognition: A neural network model. En Proceedings, Third Army Conference on Applied Mathematics and Computing, ARO Report (pp. 86–1).Caruana, R. (1997). Multitask learning. Machine learning, 28 (1), 41–75.Castañer, A., y Claramunt, M. (2017). Solvencia II (2ªed.). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.Cayre, M., Malaterre, J., Scotto-Lomassese, S., Strambi, C., y Strambi, A. (2002). The common properties of neurogenesis in the adult brain: from invertebrates to vertebrates. Comparative Biochemistry and Physiology Part B: Biochemistry and Molecular Biology, 132 (1), 1–15.Charpentier, A. (2014). Computational actuarial science with R. CRC press.Che, Z., Purushotham, S., Cho, K., Sontag, D., y Liu, Y. (2018). Recurrent neural networks for multivariate time series with missing values. Scientific reports, 8 (1), 1–12.Cho, K., Van Merri¨enboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., y Bengio, Y. (2014). Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078 .Ciaburro, G., y Venkateswaran, B. (2017). Neural networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles. Packt Publishing Ltd.Claramunt, M., y Costa, T. (2003). Matemática actuarial no vida: Un enfoque práctico. En Colección de publicaciones (Vol. 63). Barcelona, España: Departamento de Matemática Económica, Financiera y Actuarial de la Universidad de Barcelona.Connor, J. T., Martin, R. D., y Atlas, L. E. (1994). Recurrent neural networks and robust time series prediction. IEEE transactions on neural networks, 5 (2), 240–254.Consul, P., y Famoye, F. (1992). Generalized Poisson regression model. Communications in Statistics-Theory and Methods, 21 (1), 89–109.Decreto 2973. (2013). Bogotá DC, Colombia: Ministerio de Hacienda y Crédito Público.Dey, R., y Salem, F. M. (s.f.). Gate-variants of gated recurrent unit (GRU) neural networks. En 2017 IEEE 60th international midwest symposium on circuits and systems (mwscas.Duan, J.-C., y Yu, M.-T. (1999). Capital standard, forbearance and deposit insurance pricing under GARCH. Journal of banking & finance, 23 (11), 1691–1706.Dubey, A. K., y Jain, V. (2019). Comparative study of convolution neural network’s relu and leaky-relu activation functions. En Applications of Computing, Automation and Wireless Systems in Electrical Engineering (pp. 873–880). Springer.Eckle, K., y Schmidt-Hieber, J. (2019). A comparison of deep networks with relu activation function and linear spline-type methods. Neural Networks, 110 , 232–242.England, P., y Verrall, R. (1998). Analytic and bootstrap estimates of prediction errors in claims reserving. Insurance: Mathematics and Economics, 25 (3), 459–478.England, P., y Verrall, R. (2002). Stochastic claims reserving in general insurance. Journal of the Institute of Actuaries, 8 (3), 443-518.Fausett, L. V. (2006). Fundamentals of neural networks: architectures, algorithms and applications. Pearson Education India.Fernandez-Arjona, L. (2021). A neural network model for solvency calculations in life insurance. Annals of Actuarial Science, 15 (2), 259–275.Fodor, J. A., y Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28 (1-2), 3–71.Forsyth, R. (1989). Neural Works Professional II. Expert Systems, 6 (2), 116–120.Frees, E. W. (2009). Regression modeling with actuarial and financial applications. Cambridge University Press.Freund, Y., y Schapire, R. E. (1999). Large margin classification using the perceptron algorithm. Machine learning, 37 (3), 277–296.Friedland, J. (2010). Estimating Unpaid Claims Using Basic Techniques. Virginia, United States: © Casualty Actuarial Society.Fukushima, K. (1975). Cognitron: A self-organizing multilayered neural network. Biological cybernetics, 20 (3), 121–136.Fukushima, K. (1988). Neocognitron: A hierarchical neural network capable of visual pattern recognition. Neural networks, 1 (2), 119–130.Gabrielli, A. (2020). A neural network boosted double overdispersed poisson claims reserving model. ASTIN Bulletin: The Journal of the IAA, 50 (1), 25–60.Gabrielli, A., Richman, R., y W¨uthrich, M. V. (2020). Neural network embedding of the over-dispersed poisson reserving model. Scandinavian Actuarial Journal, 2020 (1), 1–29.Gallant, S. I., y cols. (1990). Perceptron-based learning algorithms. IEEE Transactions on neural networks, 1 (2), 179–191.Garz´on Tafur, L. C., y Torres Aya, A. L. (2019). Análisis de la metodología Chain Ladder para el cálculo de la reserva técnica de siniestros no avisados (IBNR) del seguro obligatorio de accidentes de tránsito (SOAT) en Colombia (Tesis Doctoral no publicada).Glorot, X., y Bengio, Y. (2010). Understanding the difficulty of training deep feedforward neural networks. En Proceedings of the thirteenth international conference on artificial intelligence and statistics (pp. 249–256).Goldberg, D. E., y Holland, J. H. (1988). Genetic algorithms and machine learning.Gourieroux, C., Holly, A., y Monfort, A. (1982). Likelihood ratio test, Wald test, and Kuhn-Tucker test in linear models with inequality constraints on the regression parameters. Econometrica: journal of the Econometric Society, 63–80.Greff, K., Srivastava, R. K., Koutn´ık, J., Steunebrink, B. R., y Schmidhuber, J. (2016). Lstm: A search space odyssey. IEEE transactions on neural networks and learning systems, 28 (10), 2222–2232.Grossberg, S. (1982). Classical and instrumental learning by neural networks. Studies of Mind and Brain, 65–156.Guardiola, A. (1990). Manual de introducción al seguro. Editorial MAPFRE, S. A.Guzmán Gutiérrez, C. S., y cols. (2019). Sistema Pensional Colombiano: implicaciones de la educación financiera sobre las decisiones de traslado de los individuos.Hachemeister, C. A., y Stanard, J. N. (1975). IBNR claims count estimation with static lag functions. En Astin colloquium, portimao, portugal.Hebb, D. O. (2005). The organization of behavior: A neuropsychological theory. Psychology Press.Hochreiter, S. (1998). The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 6 (02), 107–116.Hochreiter, S., y Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9 (8), 1735–1780.Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the national academy of sciences, 79 (8), 2554–2558.Horn, R. A. (1990). The hadamard product. En Proc. symp. appl. math (Vol. 40, pp.87–169).Ismail, N., y Jemain, A. A. (2007). Handling overdispersion with negative binomial and generalized poisson regression models. En Casualty actuarial society forum (Vol. 2007, pp. 103–58).Jong, P., y Heller, G. (2008). Generalized linear models for insurance data. Cambridge: Cambridge University Press.Jozefowicz, R., Zaremba, W., y Sutskever, I. (2015). An empirical exploration of recurrent network architectures. En International conference on machine learning (pp. 2342–2350).Kaas, R., Goovaerts, M., Dhaene, J., y Denuit, M. (2008). Modern actuarial risk theory: using r (Vol. 128). Springer Science & Business Media.Kaas, R., Goovaerts, M., y Dhaene, M., J.and Denuit. (2008). Modern Actuarial Risk Theory - using R, second ed. Springer-Verlag Berlin Heidelberg.Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological cybernetics, 43 (1), 59–69.Kohonen, T., Lehti¨o, P., Rovamo, J., Hyv¨arinen, J., Bry, K., y Vainio, L. (1977). A principle of neural associative memory. Neuroscience, 2 (6), 1065–1076.Kremer, E. (1982). IBNR claims and the two-way model of ANOVA. Scandinavian Actuarial Journal, 1982 (1), 47-55.Kv˚alseth, T. O. (1985). Cautionary note about r2. The American Statistician, 39 (4),279–285.Ley número 100. (1993). Bogotá DC, Colombia: Congreso de la República de Colombia.Li, Q., Li, Y., Gao, J., Su, L., Zhao, B., Demirbas, M., . . . Han, J. (2014). A confidence-aware approach for truth discovery on long-tail data. Proceedings of the VLDB Endowment, 8 (4), 425–436.Lin, T., Horne, B. G., Tino, P., y Giles, C. L. (1996). Learning long-term dependencies in NARX recurrent neural networks. IEEE Transactions on Neural Networks, 7 (6), 1329–1338.L´opez, R. F., y Fernandez, J. M. F. (2008). Las redes neuronales artificiales. Netbiblo.MacCuLLAGH, P., y Nelder, J. (1983). Generalized linear models.Mack, T. (1982). Measuring the variability of Chain Ladder reserve estimates. Insurance: Mathematics and Economics, 15 (1), 133-138.Mack, T. (1991). A simple parametric model for rating automobile insurance or estimating IBNR claims reserves. ASTIN Bulletin: The Journal of the IAA, 21 (1), 93–109.Mack, T. (1993). Distribution-free calculation of the standard error of Chain Ladder reserve estimates. ASTIN Bulletin, 23 (2), 213-225.Mack, T. (1999). The standard error of Chain Ladder reserve estimates: Recursive calculation and inclusion of a tail factor. ASTIN Bulletin: The Journal of the IAA, 29 (2), 361–366.McCulloch, W. S., y Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5 (4), 115–133.McFadden, D. (1974). The measurement of urban travel demand. Journal of public economics, 3 (4), 303–328.Medsker, L. R., y Jain, L. (2001). Recurrent neural networks. Design and Applications, 5 ,64–67.Mora, H. E. B. (2018). Cálculo de IBNR, un ejemplo práctico. En Colección de publicaciones. Colombia: Universidad Antonio Nariño.Murphy, D. M. (1994). Unbiased loss development factors. En CAS Forum (Vol. 1, p. 183).Nakisa, B., Rastgoo, M. N., Rakotonirainy, A., Maire, F., y Chandran, V. (2018). Long short term memory hyperparameter optimization for a neural network based emotion recognition framework. IEEE Access, 6 , 49325–49338.Norberg, R. (1986). A contribution to modelling of IBNR claims. Scandinavian Actuarial Journal, 1986 (3-4), 155-203.Olazaran, M. (1993). A sociological history of the neural network controversy. Advances in computers, 37 , 335–425.Olbricht, W. (2012). Tree-based methods: a useful tool for life insurance. European Actuarial Journal volume, 2 , 129–147.Pascanu, R., Mikolov, T., y Bengio, Y. (2013). On the difficulty of training recurrent neural networks. En International conference on machine learning (pp. 1310–1318).Picard, R. R., y Cook, R. D. (1984). Cross-validation of regression models. Journal of the American Statistical Association, 79 (387), 575–583.Platt, J. (1991). A resource-allocating network for function interpolation. Neural Computation, 3 (2), 213–225.Pr¨ohl, K. D., C.and Schmidt. (2005). Multivariate Chain-Ladder. Dresdner Schriften zur Versicherungsmathematik.Quinlan, P. T. (2003). Connectionist models of development: Developmental processes in real and artificial neural networks. Taylor & Francis.Ramachandran, P., Zoph, B., y Le, Q. V. (2017). Searching for activation functions. arXiv preprint arXiv:1710.05941 .Rather, A. M., Agarwal, A., y Sastry, V. (2015). Recurrent neural network and a hybrid model for prediction of stock returns. Expert Systems with Applications, 42 (6), 3234–3241.Renato, S. (2003). Neurons and Synapses: The History of Its Discovery. Brain & Mind Magazine, 17 .Renshaw, A., y Verrall, R. (1998). A stochastic model underlying the Chain Ladder technique. British Actuarial Journal, 4 (4), 903–923.Riedmiller, M. (1994). Advanced supervised learning in multi-layer perceptrons—from backpropagation to adaptive learning algorithms. Computer Standards & Interfaces, 16 (3), 265–278.Rocco, I., Arandjelovic, R., y Sivic, J. (2017). Convolutional neural network architecture for geometric matching. En Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 6148–6157).Rogers, T. T., y McClelland, J. L. (2014). Parallel distributed processing at 25: Further explorations in the microstructure of Cognition. Cognitive science, 38 (6), 1024–1077.Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review, 65 (6), 386.Rumelhart, D. E., Durbin, R., Golden, R., y Chauvin, Y. (1995). Backpropagation: The basic theory. Backpropagation: Theory, architectures and applications, 1–34.Sahoo, B. B., Jha, R., Singh, A., y Kumar, D. (2019). Long short-term memory (LSTM) recurrent neural network for low-flow hydrological time series forecasting. Acta Geophysica, 67 (5), 1471–1481.Sak, H., Senior, A. W., y Beaufays, F. (2014). Long short-term memory recurrent neural network architectures for large scale acoustic modeling.Schiegl, M. (2008). Parameter estimation for a stochastic claim reserving model. Presented at DPG Conference,Berlin.Schiegl, M. (2009). A three dimensional stochastic model for claim reserving. Proceedings 39th ASTIN Colloquium.Schmidt-Hieber, J. (2020). Nonparametric regression using deep neural networks with relu activation function. The Annals of Statistics, 48 (4), 1875–1897.Shanmuganathan, S. (2016). Artificial neural network modelling: An introduction. En Artificial neural network modelling (pp. 1–14). SpringerSousa, D. A. (2014). Neurociencia educativa: Mente, cerebro y educaci´on (Vol. 131). Narcea Ediciones.Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., y Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15 (1), 1929–1958.Suzuki, K. (2013). Artificial neural networks: Architectures and applications. BoD–Books on Demand.Taylor, G. (1986). Claims reserving in non-life insurance. Elsevier Science.Taylor, G. (2000). Loss Reserving: An Actuarial Perspective. Nueva York, Estados Unidos de América: Springer.Taylor, G., y Ashe, F. (1983). Second moments of estimates of outstanding claims. Journal of Econometrics, 23 , 37–61.Tsantekidis, A., Passalis, N., Tefas, A., Kanniainen, J., Gabbouj, M., y Iosifidis, A. (2017). Forecasting stock prices from the limit order book using convolutional neural networks. En 2017 IEEE 19th conference on business informatics (CBI) (Vol. 1, pp. 7–12).Venkatesh, Y., y Raja, S. K. (2003). On the classification of multispectral satellite images using the multilayer perceptron. Pattern Recognition, 36 (9), 2161–2175.Verrall, R. (1989). A state space representation of the Chain Ladder linear model. Journal of the Institute of Actuaries, 116 , 589-609.Verrall, R. (1994). Statistical methods for the Chain Ladder technique. Casuality Actuarial Society(1), 393–445.Verrall, R., Nielsen, J. P., y Jessen, A. H. (2010). Prediction of rbns and ibnr claims using claim amounts and claim counts. ASTIN Bulletin: The Journal of the IAA, 40 (2), 871–887.Vogl, T. P., Mangis, J., Rigler, A., Zink, W., y Alkon, D. (1988). Accelerating the convergence of the back-propagation method. Biological cybernetics, 59 (4), 257–263.Von der Malsburg, C. (1973). Self-organization of orientation sensitive cells in the striate cortex. Kybernetik , 14 (2), 85–100.Werbos, P. J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural networks, 1 (4), 339–356.Werbos, P. J. (1990). Backpropagation through time: what it does and how to do it.Proceedings of the IEEE, 78 (10), 1550–1560.White, H., y cols. (1992). Artificial neural networks. Blackwell Cambridge, Mass.Widrow, B., y Hoff, M. E. (1960). Adaptive switching circuits (Inf. Tec.). Stanford Univ Ca Stanford Electronics Labs.W¨uthrich, M. (2018). Neural networks applied to Chain–Ladder reserving. European Actuarial Journal, 2018:8 , 407–436.W¨uthrich, M. (2019). Bias regularization in neural network models for general insurance pricing. European Actuarial Journal, 1–24.W¨uthrich, M., y Merz, M. (2008). Stochastic Claims Reserving Methods in Insurance. New York, United States: Wiley Finance.Yegnanarayana, B. (2009). Artificial neural networks. PHI Learning Pvt. Ltd.Zhang, Y. (2010). A general multivariate Chain Ladder model. Insurance: Mathematics and Economics, 46 (3), 588-599.EstudiantesInvestigadoresMaestrosPúblico generalORIGINAL1036952578.2021.pdf1036952578.2021.pdfTesis de Maestría en Ciencias - Estadísticaapplication/pdf2618812https://repositorio.unal.edu.co/bitstream/unal/81256/3/1036952578.2021.pdf14ccb414a68e12888cc2f8dfa4ca368eMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-84074https://repositorio.unal.edu.co/bitstream/unal/81256/4/license.txt8153f7789df02f0a4c9e079953658ab2MD54THUMBNAIL1036952578.2021.pdf.jpg1036952578.2021.pdf.jpgGenerated Thumbnailimage/jpeg4917https://repositorio.unal.edu.co/bitstream/unal/81256/5/1036952578.2021.pdf.jpg5782c3395bc373fc9bcc52f688ce714bMD55unal/81256oai:repositorio.unal.edu.co:unal/812562023-08-03 23:03:36.121Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.coUExBTlRJTExBIERFUMOTU0lUTwoKQ29tbyBlZGl0b3IgZGUgZXN0ZSDDrXRlbSwgdXN0ZWQgcHVlZGUgbW92ZXJsbyBhIHJldmlzacOzbiBzaW4gYW50ZXMgcmVzb2x2ZXIgbG9zIHByb2JsZW1hcyBpZGVudGlmaWNhZG9zLCBkZSBsbyBjb250cmFyaW8sIGhhZ2EgY2xpYyBlbiBHdWFyZGFyIHBhcmEgZ3VhcmRhciBlbCDDrXRlbSB5IHNvbHVjaW9uYXIgZXN0b3MgcHJvYmxlbWFzIG1hcyB0YXJkZS4KClBhcmEgdHJhYmFqb3MgZGVwb3NpdGFkb3MgcG9yIHN1IHByb3BpbyBhdXRvcjoKIApBbCBhdXRvYXJjaGl2YXIgZXN0ZSBncnVwbyBkZSBhcmNoaXZvcyBkaWdpdGFsZXMgeSBzdXMgbWV0YWRhdG9zLCB5byBnYXJhbnRpem8gYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBVbmFsIGVsIGRlcmVjaG8gYSBhbG1hY2VuYXJsb3MgeSBtYW50ZW5lcmxvcyBkaXNwb25pYmxlcyBlbiBsw61uZWEgZGUgbWFuZXJhIGdyYXR1aXRhLiBEZWNsYXJvIHF1ZSBsYSBvYnJhIGVzIGRlIG1pIHByb3BpZWRhZCBpbnRlbGVjdHVhbCB5IHF1ZSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIFVuYWwgbm8gYXN1bWUgbmluZ3VuYSByZXNwb25zYWJpbGlkYWQgc2kgaGF5IGFsZ3VuYSB2aW9sYWNpw7NuIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIGFsIGRpc3RyaWJ1aXIgZXN0b3MgYXJjaGl2b3MgeSBtZXRhZGF0b3MuIChTZSByZWNvbWllbmRhIGEgdG9kb3MgbG9zIGF1dG9yZXMgYSBpbmRpY2FyIHN1cyBkZXJlY2hvcyBkZSBhdXRvciBlbiBsYSBww6FnaW5hIGRlIHTDrXR1bG8gZGUgc3UgZG9jdW1lbnRvLikgRGUgbGEgbWlzbWEgbWFuZXJhLCBhY2VwdG8gbG9zIHTDqXJtaW5vcyBkZSBsYSBzaWd1aWVudGUgbGljZW5jaWE6IExvcyBhdXRvcmVzIG8gdGl0dWxhcmVzIGRlbCBkZXJlY2hvIGRlIGF1dG9yIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8gY29uZmllcmVuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgdW5hIGxpY2VuY2lhIG5vIGV4Y2x1c2l2YSwgbGltaXRhZGEgeSBncmF0dWl0YSBzb2JyZSBsYSBvYnJhIHF1ZSBzZSBpbnRlZ3JhIGVuIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwsIHF1ZSBzZSBhanVzdGEgYSBsYXMgc2lndWllbnRlcyBjYXJhY3RlcsOtc3RpY2FzOiBhKSBFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWUgZW4gZWwgcmVwb3NpdG9yaW8sIHF1ZSBzZXLDoW4gcHJvcnJvZ2FibGVzIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gcGF0cmltb25pYWwgZGVsIGF1dG9yLiBFbCBhdXRvciBwb2Ryw6EgZGFyIHBvciB0ZXJtaW5hZGEgbGEgbGljZW5jaWEgc29saWNpdMOhbmRvbG8gYSBsYSBVbml2ZXJzaWRhZC4gYikgTG9zIGF1dG9yZXMgYXV0b3JpemFuIGEgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgcGFyYSBwdWJsaWNhciBsYSBvYnJhIGVuIGVsIGZvcm1hdG8gcXVlIGVsIHJlcG9zaXRvcmlvIGxvIHJlcXVpZXJhIChpbXByZXNvLCBkaWdpdGFsLCBlbGVjdHLDs25pY28gbyBjdWFscXVpZXIgb3RybyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSB5IGNvbm9jZW4gcXVlIGRhZG8gcXVlIHNlIHB1YmxpY2EgZW4gSW50ZXJuZXQgcG9yIGVzdGUgaGVjaG8gY2lyY3VsYSBjb24gYWxjYW5jZSBtdW5kaWFsLiBjKSBMb3MgYXV0b3JlcyBhY2VwdGFuIHF1ZSBsYSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgYSB0w610dWxvIGdyYXR1aXRvLCBwb3IgbG8gdGFudG8sIHJlbnVuY2lhbiBhIHJlY2liaXIgZW1vbHVtZW50byBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgQ3JlYXRpdmUgQ29tbW9ucyBjb24gcXVlIHNlIHB1YmxpY2EuIGQpIExvcyBhdXRvcmVzIG1hbmlmaWVzdGFuIHF1ZSBzZSB0cmF0YSBkZSB1bmEgb2JyYSBvcmlnaW5hbCBzb2JyZSBsYSBxdWUgdGllbmVuIGxvcyBkZXJlY2hvcyBxdWUgYXV0b3JpemFuIHkgcXVlIHNvbiBlbGxvcyBxdWllbmVzIGFzdW1lbiB0b3RhbCByZXNwb25zYWJpbGlkYWQgcG9yIGVsIGNvbnRlbmlkbyBkZSBzdSBvYnJhIGFudGUgbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgeSBhbnRlIHRlcmNlcm9zLiBFbiB0b2RvIGNhc28gbGEgVW5pdmVyc2lkYWQgTmFjaW9uYWwgZGUgQ29sb21iaWEgc2UgY29tcHJvbWV0ZSBhIGluZGljYXIgc2llbXByZSBsYSBhdXRvcsOtYSBpbmNsdXllbmRvIGVsIG5vbWJyZSBkZWwgYXV0b3IgeSBsYSBmZWNoYSBkZSBwdWJsaWNhY2nDs24uIGUpIExvcyBhdXRvcmVzIGF1dG9yaXphbiBhIGxhIFVuaXZlcnNpZGFkIHBhcmEgaW5jbHVpciBsYSBvYnJhIGVuIGxvcyBhZ3JlZ2Fkb3JlcywgaW5kaWNlc3MgeSBidXNjYWRvcmVzIHF1ZSBzZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBwcm9tb3ZlciBzdSBkaWZ1c2nDs24uIGYpIExvcyBhdXRvcmVzIGFjZXB0YW4gcXVlIGxhIFVuaXZlcnNpZGFkIE5hY2lvbmFsIGRlIENvbG9tYmlhIHB1ZWRhIGNvbnZlcnRpciBlbCBkb2N1bWVudG8gYSBjdWFscXVpZXIgbWVkaW8gbyBmb3JtYXRvIHBhcmEgcHJvcMOzc2l0b3MgZGUgcHJlc2VydmFjacOzbiBkaWdpdGFsLiBTSSBFTCBET0NVTUVOVE8gU0UgQkFTQSBFTiBVTiBUUkFCQUpPIFFVRSBIQSBTSURPIFBBVFJPQ0lOQURPIE8gQVBPWUFETyBQT1IgVU5BIEFHRU5DSUEgTyBVTkEgT1JHQU5JWkFDScOTTiwgQ09OIEVYQ0VQQ0nDk04gREUgTEEgVU5JVkVSU0lEQUQgTkFDSU9OQUwgREUgQ09MT01CSUEsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MgREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uIAoKUGFyYSB0cmFiYWpvcyBkZXBvc2l0YWRvcyBwb3Igb3RyYXMgcGVyc29uYXMgZGlzdGludGFzIGEgc3UgYXV0b3I6IAoKRGVjbGFybyBxdWUgZWwgZ3J1cG8gZGUgYXJjaGl2b3MgZGlnaXRhbGVzIHkgbWV0YWRhdG9zIGFzb2NpYWRvcyBxdWUgZXN0b3kgYXJjaGl2YW5kbyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIFVOKSBlcyBkZSBkb21pbmlvIHDDumJsaWNvLiBTaSBubyBmdWVzZSBlbCBjYXNvLCBhY2VwdG8gdG9kYSBsYSByZXNwb25zYWJpbGlkYWQgcG9yIGN1YWxxdWllciBpbmZyYWNjacOzbiBkZSBkZXJlY2hvcyBkZSBhdXRvciBxdWUgY29ubGxldmUgbGEgZGlzdHJpYnVjacOzbiBkZSBlc3RvcyBhcmNoaXZvcyB5IG1ldGFkYXRvcy4KTk9UQTogU0kgTEEgVEVTSVMgQSBQVUJMSUNBUiBBRFFVSVJJw5MgQ09NUFJPTUlTT1MgREUgQ09ORklERU5DSUFMSURBRCBFTiBFTCBERVNBUlJPTExPIE8gUEFSVEVTIERFTCBET0NVTUVOVE8uIFNJR0EgTEEgRElSRUNUUklaIERFIExBIFJFU09MVUNJw5NOIDAyMyBERSAyMDE1LCBQT1IgTEEgQ1VBTCBTRSBFU1RBQkxFQ0UgRUwgUFJPQ0VESU1JRU5UTyBQQVJBIExBIFBVQkxJQ0FDScOTTiBERSBURVNJUyBERSBNQUVTVFLDjUEgWSBET0NUT1JBRE8gREUgTE9TIEVTVFVESUFOVEVTIERFIExBIFVOSVZFUlNJREFEIE5BQ0lPTkFMIERFIENPTE9NQklBIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgVU4sIEVYUEVESURBIFBPUiBMQSBTRUNSRVRBUsONQSBHRU5FUkFMLiAqTEEgVEVTSVMgQSBQVUJMSUNBUiBERUJFIFNFUiBMQSBWRVJTScOTTiBGSU5BTCBBUFJPQkFEQS4gCgpBbCBoYWNlciBjbGljIGVuIGVsIHNpZ3VpZW50ZSBib3TDs24sIHVzdGVkIGluZGljYSBxdWUgZXN0w6EgZGUgYWN1ZXJkbyBjb24gZXN0b3MgdMOpcm1pbm9zLiBTaSB0aWVuZSBhbGd1bmEgZHVkYSBzb2JyZSBsYSBsaWNlbmNpYSwgcG9yIGZhdm9yLCBjb250YWN0ZSBjb24gZWwgYWRtaW5pc3RyYWRvciBkZWwgc2lzdGVtYS4KClVOSVZFUlNJREFEIE5BQ0lPTkFMIERFIENPTE9NQklBIC0gw5psdGltYSBtb2RpZmljYWNpw7NuIDE5LzEwLzIwMjEK