Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación

Las redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimacio...

Full description

Autores:
Rincón Olmos, Jhon Alexander
Cruz Castro, Daniel Leonardo
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2017
Institución:
Universidad Santo Tomás
Repositorio:
Repositorio Institucional USTA
Idioma:
spa
OAI Identifier:
oai:repository.usta.edu.co:11634/44409
Acceso en línea:
http://hdl.handle.net/11634/44409
Palabra clave:
Comparaciones múltiples
Redes neuronales
Toma de decisiones
Rights
closedAccess
License
Atribución-NoComercial-SinDerivadas 2.5 Colombia
id SANTTOMAS2_affaef92bd313b57aa36cda2435ade0d
oai_identifier_str oai:repository.usta.edu.co:11634/44409
network_acronym_str SANTTOMAS2
network_name_str Repositorio Institucional USTA
repository_id_str
dc.title.spa.fl_str_mv Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
title Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
spellingShingle Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
Comparaciones múltiples
Redes neuronales
Toma de decisiones
title_short Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
title_full Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
title_fullStr Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
title_full_unstemmed Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
title_sort Comparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificación
dc.creator.fl_str_mv Rincón Olmos, Jhon Alexander
Cruz Castro, Daniel Leonardo
dc.contributor.author.none.fl_str_mv Rincón Olmos, Jhon Alexander
Cruz Castro, Daniel Leonardo
dc.subject.proposal.spa.fl_str_mv Comparaciones múltiples
Redes neuronales
Toma de decisiones
topic Comparaciones múltiples
Redes neuronales
Toma de decisiones
description Las redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimaciones, por esta razón esta tesis tiene como propósito crear y comparar el rendimiento de los modelos anteriores, mediante la combinación de diferentes algoritmos de decisión a través del método stacking o apilamiento, el cual fue desarrollado por Wolper en 1992 para aumentar la precisión predictiva de los modelos, la idea de este método es recopilar las estimaciones de diferentes algoritmos de clasi cación y posteriormente desarrollar el modelo nal a partir de este nuevo conjunto de datos. En la terminología de Wolpert, los datos originales y los modelos construidos para ellos en el primer paso se denominan modelos y colección de datos de nivel 0, mientras que el conjunto de datos que contiene estimaciones de los modelos del nivel 0 junto con la variable a predecir original, se denomina datos de nivel 1, de igual manera que el algoritmo de aprendizaje creado para esta nueva base de datos toma el nombre de modelo de nivel 1.
publishDate 2017
dc.date.issued.none.fl_str_mv 2017
dc.date.accessioned.none.fl_str_mv 2022-05-03T15:35:51Z
dc.date.available.none.fl_str_mv 2022-05-03T15:35:51Z
dc.type.local.spa.fl_str_mv Trabajo de grado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.drive.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11634/44409
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Santo Tomás
dc.identifier.instname.spa.fl_str_mv instname:Universidad Santo Tomás
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.usta.edu.co
url http://hdl.handle.net/11634/44409
identifier_str_mv reponame:Repositorio Institucional Universidad Santo Tomás
instname:Universidad Santo Tomás
repourl:https://repository.usta.edu.co
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv Breiman, L. (1996), 'Stacked regressions', Machine Learning 24, 49 64.
Corn eld, J., Gordon, T. & Smith, W. (1961), 'Quantal response curves for experimentally uncontroled variables.', Bulletin of the International Statistical Institute 38, 97 115.
Díaz, J. (2013), 'Comparación entre árboles de regresión cart y regresión lineal', Comunicaciones en Estadística 6, 21
Dzeroski, S. & Zenko, B. (2004), 'Is combining classi ers with stacking better than selecting the best one?', Machine Learning 54, 225 273
ansen, L. & Salamon, P. (1990), 'Neural network emsembles', IEEE Transactions on Pattern Analysis and Machine Intelligence 12, 993 1001
Ming, K. & Witten, I. (1999a), 'Issues in stacked generalization', Journal of Arti cial Intelligence Research 10, 271 289.
Satorra, A. & Bentler, P. (2001), 'A scaled di erence chi-square test statistic for moment structure analysis', Psychometrika 66, 507 514.
Weiss, G., McCarthy, K. & Zabar, B. (2007), 'Cost-sensitive learning vs. sampling: Which is best for handling unbalanced classes with unequal error costs?', DMIN pp. 35 41.
dc.rights.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Acceso cerrado
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/closedAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_14cb
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Acceso cerrado
http://purl.org/coar/access_right/c_14cb
eu_rights_str_mv closedAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.campus.spa.fl_str_mv CRAI-USTA Bogotá
dc.publisher.spa.fl_str_mv Universidad Santo Tomás
dc.publisher.program.spa.fl_str_mv Rregrado estadística
dc.publisher.faculty.spa.fl_str_mv Facultad de estadística
institution Universidad Santo Tomás
bitstream.url.fl_str_mv https://repository.usta.edu.co/bitstream/11634/44409/1/tesisJ1.pdf
https://repository.usta.edu.co/bitstream/11634/44409/5/2017cartadefacultad.pdf
https://repository.usta.edu.co/bitstream/11634/44409/6/2017cartadederechosdeautor.pdf
https://repository.usta.edu.co/bitstream/11634/44409/2/license_rdf
https://repository.usta.edu.co/bitstream/11634/44409/3/license.txt
https://repository.usta.edu.co/bitstream/11634/44409/4/tesisJ1.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/44409/7/2017cartadefacultad.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/44409/8/2017cartadederechosdeautor.pdf.jpg
bitstream.checksum.fl_str_mv faa7e177ca7c8057d9fd4a044987123a
9a5b564028883e3cafe68b3bb2ca0317
7d5c52f1d68ad75bef4ee44b84e1d10d
217700a34da79ed616c2feb68d4c5e06
aedeaf396fcd827b537c73d23464fc27
d1c756f13538822614a192b9dad7fc86
fa625b68dacb541c27aea47d03aa786b
2a64d7295b09e57f2f0ef80a7a3f2e9c
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Santo Tomás
repository.mail.fl_str_mv repositorio@usantotomas.edu.co
_version_ 1782026376970240000
spelling Rincón Olmos, Jhon AlexanderCruz Castro, Daniel Leonardo2022-05-03T15:35:51Z2022-05-03T15:35:51Z2017http://hdl.handle.net/11634/44409reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coLas redes neuronales y los árboles de decisión han demostrado ser métodos e cientes en aplicaciones relacionadas con la clasi cación. En la actualidad siguen intentando combinar estos métodos con el propósito de obtener un algoritmo más e ciente que sea capaz de mejorar la precisión de sus estimaciones, por esta razón esta tesis tiene como propósito crear y comparar el rendimiento de los modelos anteriores, mediante la combinación de diferentes algoritmos de decisión a través del método stacking o apilamiento, el cual fue desarrollado por Wolper en 1992 para aumentar la precisión predictiva de los modelos, la idea de este método es recopilar las estimaciones de diferentes algoritmos de clasi cación y posteriormente desarrollar el modelo nal a partir de este nuevo conjunto de datos. En la terminología de Wolpert, los datos originales y los modelos construidos para ellos en el primer paso se denominan modelos y colección de datos de nivel 0, mientras que el conjunto de datos que contiene estimaciones de los modelos del nivel 0 junto con la variable a predecir original, se denomina datos de nivel 1, de igual manera que el algoritmo de aprendizaje creado para esta nueva base de datos toma el nombre de modelo de nivel 1.Neural networks and decision trees have shown to be e cient methods in applications related to classi cation, currently there are still attempts to combine these methods with the purpose of obtaining a more e cient algorithm able to improve the accuracy of its estimates, for this reason this thesis has a purpose of creating and comparing the performance of the neural networks models and decision trees, starting from the combination of di erent decision algorithms through the ensemble method, which was developed by Wolpert in 1992 to increase the predictive accuracy of the models, the idea of this method is to collate the estimation of di erent classi cation algorithms and afterwards develop a nal model from this new dataset. In Wolpert's terminology, the original data and the models constructed for them in the rst step are called models and data collection of level 0, while the data set contains estimates of the level 0 models along with the variable to predict original is denominated as level 1 data, in the same manner the learning algorithm created for this new database will take the name of level 1 model.Profesional en estadísticaPregradoapplication/pdfspaUniversidad Santo TomásRregrado estadísticaFacultad de estadísticaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Acceso cerradoinfo:eu-repo/semantics/closedAccesshttp://purl.org/coar/access_right/c_14cbComparación de modelos apilados bajo los esquemas de redes neuronales y árboles de clasificaciónTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáBreiman, L. (1996), 'Stacked regressions', Machine Learning 24, 49 64.Corn eld, J., Gordon, T. & Smith, W. (1961), 'Quantal response curves for experimentally uncontroled variables.', Bulletin of the International Statistical Institute 38, 97 115.Díaz, J. (2013), 'Comparación entre árboles de regresión cart y regresión lineal', Comunicaciones en Estadística 6, 21Dzeroski, S. & Zenko, B. (2004), 'Is combining classi ers with stacking better than selecting the best one?', Machine Learning 54, 225 273ansen, L. & Salamon, P. (1990), 'Neural network emsembles', IEEE Transactions on Pattern Analysis and Machine Intelligence 12, 993 1001Ming, K. & Witten, I. (1999a), 'Issues in stacked generalization', Journal of Arti cial Intelligence Research 10, 271 289.Satorra, A. & Bentler, P. (2001), 'A scaled di erence chi-square test statistic for moment structure analysis', Psychometrika 66, 507 514.Weiss, G., McCarthy, K. & Zabar, B. (2007), 'Cost-sensitive learning vs. sampling: Which is best for handling unbalanced classes with unequal error costs?', DMIN pp. 35 41.Comparaciones múltiplesRedes neuronalesToma de decisionesORIGINALtesisJ1.pdftesisJ1.pdfapplication/pdf1467113https://repository.usta.edu.co/bitstream/11634/44409/1/tesisJ1.pdffaa7e177ca7c8057d9fd4a044987123aMD51open access2017cartadefacultad.pdf2017cartadefacultad.pdfapplication/pdf42568https://repository.usta.edu.co/bitstream/11634/44409/5/2017cartadefacultad.pdf9a5b564028883e3cafe68b3bb2ca0317MD55metadata only access2017cartadederechosdeautor.pdf2017cartadederechosdeautor.pdfapplication/pdf35108https://repository.usta.edu.co/bitstream/11634/44409/6/2017cartadederechosdeautor.pdf7d5c52f1d68ad75bef4ee44b84e1d10dMD56metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/44409/2/license_rdf217700a34da79ed616c2feb68d4c5e06MD52open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/44409/3/license.txtaedeaf396fcd827b537c73d23464fc27MD53open accessTHUMBNAILtesisJ1.pdf.jpgtesisJ1.pdf.jpgIM Thumbnailimage/jpeg7888https://repository.usta.edu.co/bitstream/11634/44409/4/tesisJ1.pdf.jpgd1c756f13538822614a192b9dad7fc86MD54open access2017cartadefacultad.pdf.jpg2017cartadefacultad.pdf.jpgIM Thumbnailimage/jpeg6662https://repository.usta.edu.co/bitstream/11634/44409/7/2017cartadefacultad.pdf.jpgfa625b68dacb541c27aea47d03aa786bMD57open access2017cartadederechosdeautor.pdf.jpg2017cartadederechosdeautor.pdf.jpgIM Thumbnailimage/jpeg6640https://repository.usta.edu.co/bitstream/11634/44409/8/2017cartadederechosdeautor.pdf.jpg2a64d7295b09e57f2f0ef80a7a3f2e9cMD58open access11634/44409oai:repository.usta.edu.co:11634/444092023-07-09 03:19:39.965open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K