Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
Las redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimacio...
- Autores:
-
Rincón Olmos, Jhon Alexander
Cruz Castro, Daniel Leonardo
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2017
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/44409
- Acceso en línea:
- http://hdl.handle.net/11634/44409
- Palabra clave:
- Comparaciones múltiples
Redes neuronales
Toma de decisiones
- Rights
- closedAccess
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
id |
SANTTOMAS2_affaef92bd313b57aa36cda2435ade0d |
---|---|
oai_identifier_str |
oai:repository.usta.edu.co:11634/44409 |
network_acronym_str |
SANTTOMAS2 |
network_name_str |
Repositorio Institucional USTA |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
title |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
spellingShingle |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación Comparaciones múltiples Redes neuronales Toma de decisiones |
title_short |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
title_full |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
title_fullStr |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
title_full_unstemmed |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
title_sort |
Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación |
dc.creator.fl_str_mv |
Rincón Olmos, Jhon Alexander Cruz Castro, Daniel Leonardo |
dc.contributor.author.none.fl_str_mv |
Rincón Olmos, Jhon Alexander Cruz Castro, Daniel Leonardo |
dc.subject.proposal.spa.fl_str_mv |
Comparaciones múltiples Redes neuronales Toma de decisiones |
topic |
Comparaciones múltiples Redes neuronales Toma de decisiones |
description |
Las redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimaciones, por esta razón esta tesis tiene como propósito crear y comparar el rendimiento de los modelos anteriores, mediante la combinación de diferentes algoritmos de decisión a través del método stacking o apilamiento, el cual fue desarrollado por Wolper en 1992 para aumentar la precisión predictiva de los modelos, la idea de este método es recopilar las estimaciones de diferentes algoritmos de clasi cación y posteriormente desarrollar el modelo nal a partir de este nuevo conjunto de datos. En la terminología de Wolpert, los datos originales y los modelos construidos para ellos en el primer paso se denominan modelos y colección de datos de nivel 0, mientras que el conjunto de datos que contiene estimaciones de los modelos del nivel 0 junto con la variable a predecir original, se denomina datos de nivel 1, de igual manera que el algoritmo de aprendizaje creado para esta nueva base de datos toma el nombre de modelo de nivel 1. |
publishDate |
2017 |
dc.date.issued.none.fl_str_mv |
2017 |
dc.date.accessioned.none.fl_str_mv |
2022-05-03T15:35:51Z |
dc.date.available.none.fl_str_mv |
2022-05-03T15:35:51Z |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/44409 |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
url |
http://hdl.handle.net/11634/44409 |
identifier_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
Breiman, L. (1996), 'Stacked regressions', Machine Learning 24, 49 64. Corn eld, J., Gordon, T. & Smith, W. (1961), 'Quantal response curves for experimentally uncontroled variables.', Bulletin of the International Statistical Institute 38, 97 115. Díaz, J. (2013), 'Comparación entre árboles de regresión cart y regresión lineal', Comunicaciones en Estadística 6, 21 Dzeroski, S. & Zenko, B. (2004), 'Is combining classi ers with stacking better than selecting the best one?', Machine Learning 54, 225 273 ansen, L. & Salamon, P. (1990), 'Neural network emsembles', IEEE Transactions on Pattern Analysis and Machine Intelligence 12, 993 1001 Ming, K. & Witten, I. (1999a), 'Issues in stacked generalization', Journal of Arti cial Intelligence Research 10, 271 289. Satorra, A. & Bentler, P. (2001), 'A scaled di erence chi-square test statistic for moment structure analysis', Psychometrika 66, 507 514. Weiss, G., McCarthy, K. & Zabar, B. (2007), 'Cost-sensitive learning vs. sampling: Which is best for handling unbalanced classes with unequal error costs?', DMIN pp. 35 41. |
dc.rights.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Acceso cerrado |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/closedAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_14cb |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Acceso cerrado http://purl.org/coar/access_right/c_14cb |
eu_rights_str_mv |
closedAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
dc.publisher.program.spa.fl_str_mv |
Rregrado estadística |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de estadística |
institution |
Universidad Santo Tomás |
bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/44409/1/tesisJ1.pdf https://repository.usta.edu.co/bitstream/11634/44409/5/2017cartadefacultad.pdf https://repository.usta.edu.co/bitstream/11634/44409/6/2017cartadederechosdeautor.pdf https://repository.usta.edu.co/bitstream/11634/44409/2/license_rdf https://repository.usta.edu.co/bitstream/11634/44409/3/license.txt https://repository.usta.edu.co/bitstream/11634/44409/4/tesisJ1.pdf.jpg https://repository.usta.edu.co/bitstream/11634/44409/7/2017cartadefacultad.pdf.jpg https://repository.usta.edu.co/bitstream/11634/44409/8/2017cartadederechosdeautor.pdf.jpg |
bitstream.checksum.fl_str_mv |
faa7e177ca7c8057d9fd4a044987123a 9a5b564028883e3cafe68b3bb2ca0317 7d5c52f1d68ad75bef4ee44b84e1d10d 217700a34da79ed616c2feb68d4c5e06 aedeaf396fcd827b537c73d23464fc27 d1c756f13538822614a192b9dad7fc86 fa625b68dacb541c27aea47d03aa786b 2a64d7295b09e57f2f0ef80a7a3f2e9c |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
repository.mail.fl_str_mv |
repositorio@usantotomas.edu.co |
_version_ |
1782026376970240000 |
spelling |
Rincón Olmos, Jhon AlexanderCruz Castro, Daniel Leonardo2022-05-03T15:35:51Z2022-05-03T15:35:51Z2017http://hdl.handle.net/11634/44409reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coLas redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimaciones, por esta razón esta tesis tiene como propósito crear y comparar el rendimiento de los modelos anteriores, mediante la combinación de diferentes algoritmos de decisión a través del método stacking o apilamiento, el cual fue desarrollado por Wolper en 1992 para aumentar la precisión predictiva de los modelos, la idea de este método es recopilar las estimaciones de diferentes algoritmos de clasi cación y posteriormente desarrollar el modelo nal a partir de este nuevo conjunto de datos. En la terminología de Wolpert, los datos originales y los modelos construidos para ellos en el primer paso se denominan modelos y colección de datos de nivel 0, mientras que el conjunto de datos que contiene estimaciones de los modelos del nivel 0 junto con la variable a predecir original, se denomina datos de nivel 1, de igual manera que el algoritmo de aprendizaje creado para esta nueva base de datos toma el nombre de modelo de nivel 1.Neural networks and decision trees have shown to be e cient methods in applications related to classi cation, currently there are still attempts to combine these methods with the purpose of obtaining a more e cient algorithm able to improve the accuracy of its estimates, for this reason this thesis has a purpose of creating and comparing the performance of the neural networks models and decision trees, starting from the combination of di erent decision algorithms through the ensemble method, which was developed by Wolpert in 1992 to increase the predictive accuracy of the models, the idea of this method is to collate the estimation of di erent classi cation algorithms and afterwards develop a nal model from this new dataset. In Wolpert's terminology, the original data and the models constructed for them in the rst step are called models and data collection of level 0, while the data set contains estimates of the level 0 models along with the variable to predict original is denominated as level 1 data, in the same manner the learning algorithm created for this new database will take the name of level 1 model.Profesional en estadísticaPregradoapplication/pdfspaUniversidad Santo TomásRregrado estadísticaFacultad de estadísticaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Acceso cerradoinfo:eu-repo/semantics/closedAccesshttp://purl.org/coar/access_right/c_14cbComparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificaciónTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáBreiman, L. (1996), 'Stacked regressions', Machine Learning 24, 49 64.Corn eld, J., Gordon, T. & Smith, W. (1961), 'Quantal response curves for experimentally uncontroled variables.', Bulletin of the International Statistical Institute 38, 97 115.Díaz, J. (2013), 'Comparación entre árboles de regresión cart y regresión lineal', Comunicaciones en Estadística 6, 21Dzeroski, S. & Zenko, B. (2004), 'Is combining classi ers with stacking better than selecting the best one?', Machine Learning 54, 225 273ansen, L. & Salamon, P. (1990), 'Neural network emsembles', IEEE Transactions on Pattern Analysis and Machine Intelligence 12, 993 1001Ming, K. & Witten, I. (1999a), 'Issues in stacked generalization', Journal of Arti cial Intelligence Research 10, 271 289.Satorra, A. & Bentler, P. (2001), 'A scaled di erence chi-square test statistic for moment structure analysis', Psychometrika 66, 507 514.Weiss, G., McCarthy, K. & Zabar, B. (2007), 'Cost-sensitive learning vs. sampling: Which is best for handling unbalanced classes with unequal error costs?', DMIN pp. 35 41.Comparaciones múltiplesRedes neuronalesToma de decisionesORIGINALtesisJ1.pdftesisJ1.pdfapplication/pdf1467113https://repository.usta.edu.co/bitstream/11634/44409/1/tesisJ1.pdffaa7e177ca7c8057d9fd4a044987123aMD51open access2017cartadefacultad.pdf2017cartadefacultad.pdfapplication/pdf42568https://repository.usta.edu.co/bitstream/11634/44409/5/2017cartadefacultad.pdf9a5b564028883e3cafe68b3bb2ca0317MD55metadata only access2017cartadederechosdeautor.pdf2017cartadederechosdeautor.pdfapplication/pdf35108https://repository.usta.edu.co/bitstream/11634/44409/6/2017cartadederechosdeautor.pdf7d5c52f1d68ad75bef4ee44b84e1d10dMD56metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/44409/2/license_rdf217700a34da79ed616c2feb68d4c5e06MD52open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/44409/3/license.txtaedeaf396fcd827b537c73d23464fc27MD53open accessTHUMBNAILtesisJ1.pdf.jpgtesisJ1.pdf.jpgIM Thumbnailimage/jpeg7888https://repository.usta.edu.co/bitstream/11634/44409/4/tesisJ1.pdf.jpgd1c756f13538822614a192b9dad7fc86MD54open access2017cartadefacultad.pdf.jpg2017cartadefacultad.pdf.jpgIM Thumbnailimage/jpeg6662https://repository.usta.edu.co/bitstream/11634/44409/7/2017cartadefacultad.pdf.jpgfa625b68dacb541c27aea47d03aa786bMD57open access2017cartadederechosdeautor.pdf.jpg2017cartadederechosdeautor.pdf.jpgIM Thumbnailimage/jpeg6640https://repository.usta.edu.co/bitstream/11634/44409/8/2017cartadederechosdeautor.pdf.jpg2a64d7295b09e57f2f0ef80a7a3f2e9cMD58open access11634/44409oai:repository.usta.edu.co:11634/444092023-07-09 03:19:39.965open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |