Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
Presentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del...
- Autores:
-
Triana Lozano, Marco Antonio
- Tipo de recurso:
- Fecha de publicación:
- 2004
- Institución:
- Universidad Autónoma de Bucaramanga - UNAB
- Repositorio:
- Repositorio UNAB
- Idioma:
- spa
- OAI Identifier:
- oai:repository.unab.edu.co:20.500.12749/3295
- Acceso en línea:
- http://hdl.handle.net/20.500.12749/3295
- Palabra clave:
- Regression analysis
Simulation methods
Parameter estimation
Estimation theory
Systems engineering
Investigations
Analysis
Regression analysis
Non-parametric regression
Kernel estimators
Selection of variables
Smoothing
Smoothing parameter
Quasi-residuals
Bandwidth
Análisis de regresión
Métodos de simulación
Estimación de parámetros
Teoría de la estimación
Ingeniería de sistemas
Investigaciones
Análisis
Análisis de regresión
Regresión no-paramétrica
Estimadores Kernel
Selección de variables
PPR
Suavización
Parámetro de suavización
Cuasi-residuales
Ancho de banda
- Rights
- openAccess
- License
- http://creativecommons.org/licenses/by-nc-nd/2.5/co/
id |
UNAB2_8ead515cc991bebb2fd0299bbca99ed1 |
---|---|
oai_identifier_str |
oai:repository.unab.edu.co:20.500.12749/3295 |
network_acronym_str |
UNAB2 |
network_name_str |
Repositorio UNAB |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
dc.title.translated.eng.fl_str_mv |
Choosing the optimal smoothing parameter in the problem of selecting variables in non-parametric regression through a numerical solution |
title |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
spellingShingle |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica Regression analysis Simulation methods Parameter estimation Estimation theory Systems engineering Investigations Analysis Regression analysis Non-parametric regression Kernel estimators Selection of variables Smoothing Smoothing parameter Quasi-residuals Bandwidth Análisis de regresión Métodos de simulación Estimación de parámetros Teoría de la estimación Ingeniería de sistemas Investigaciones Análisis Análisis de regresión Regresión no-paramétrica Estimadores Kernel Selección de variables PPR Suavización Parámetro de suavización Cuasi-residuales Ancho de banda |
title_short |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
title_full |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
title_fullStr |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
title_full_unstemmed |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
title_sort |
Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica |
dc.creator.fl_str_mv |
Triana Lozano, Marco Antonio |
dc.contributor.advisor.spa.fl_str_mv |
Olaya Ochoa, Javier |
dc.contributor.author.spa.fl_str_mv |
Triana Lozano, Marco Antonio |
dc.contributor.cvlac.*.fl_str_mv |
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000410519 |
dc.contributor.corporatename.spa.fl_str_mv |
Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM) |
dc.contributor.researchgroup.spa.fl_str_mv |
Grupo de Investigación en Ciencias Aplicadas - GINCAP |
dc.contributor.researchgroup.none.fl_str_mv |
Grupo de Investigaciones Clínicas |
dc.subject.keywords.eng.fl_str_mv |
Regression analysis Simulation methods Parameter estimation Estimation theory Systems engineering Investigations Analysis Regression analysis Non-parametric regression Kernel estimators Selection of variables Smoothing Smoothing parameter Quasi-residuals Bandwidth |
topic |
Regression analysis Simulation methods Parameter estimation Estimation theory Systems engineering Investigations Analysis Regression analysis Non-parametric regression Kernel estimators Selection of variables Smoothing Smoothing parameter Quasi-residuals Bandwidth Análisis de regresión Métodos de simulación Estimación de parámetros Teoría de la estimación Ingeniería de sistemas Investigaciones Análisis Análisis de regresión Regresión no-paramétrica Estimadores Kernel Selección de variables PPR Suavización Parámetro de suavización Cuasi-residuales Ancho de banda |
dc.subject.lemb.spa.fl_str_mv |
Análisis de regresión Métodos de simulación Estimación de parámetros Teoría de la estimación Ingeniería de sistemas Investigaciones Análisis |
dc.subject.proposal.none.fl_str_mv |
Análisis de regresión Regresión no-paramétrica Estimadores Kernel Selección de variables PPR Suavización Parámetro de suavización Cuasi-residuales Ancho de banda |
description |
Presentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del parámetro de suavización óptimo en el problema de selección de variables en regresión noparamétrica. Obtendremos algunas estimaciones de la función de regresión para ser utilizadas en la selección del valor óptimo para el parámetro de suavización que maximiza la potencia de una prueba estadística de comparación de curvas de regresión no-paramétricas. El procedimiento PPR (Projection Pursuit Regresión) es propuesto para seleccionar variables significativas en un modelo de regresión no-paramétrico. Se presentan algunos métodos para seleccionar el parámetro de suavización en regresión no-paramétrica. |
publishDate |
2004 |
dc.date.issued.none.fl_str_mv |
2004-03 |
dc.date.accessioned.none.fl_str_mv |
2020-06-26T21:32:14Z |
dc.date.available.none.fl_str_mv |
2020-06-26T21:32:14Z |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/masterThesis |
dc.type.local.spa.fl_str_mv |
Tesis |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TM |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/20.500.12749/3295 |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Autónoma de Bucaramanga - UNAB |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional UNAB |
url |
http://hdl.handle.net/20.500.12749/3295 |
identifier_str_mv |
instname:Universidad Autónoma de Bucaramanga - UNAB reponame:Repositorio Institucional UNAB |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
Triana Lozano, Marco Antonio, Olaya Ochoa, Javier (2004). Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica. Bucaramanga (Colombia) : Universidad Autónoma de Bucaramanga UNAB, Instituto Tecnológico y de Estudios Superiores de Monterrey ITESM, Corporación Universitaria Autónoma de Occidente BENEDETTI. G. (1975). Kernel estimation of regression functions. Proceedings in Computer Science and Statistics: 8 th annual symposium on the interface, pages 405-412. BROCKMANN, M. , GASSER, T. , y HERMANN, E. (1993). Lacally Adaptive Bandwidth Choise for Kernel Regression Estimation, Journal of the American Statistical Association, 88, 1302-1309. DRAPER, N. R. y SMITH, H. (1966). Applied Regression Analysis. John Wiley & Sons, New York, NY. DRAPER, N. R. y SMITH, H. (1981). Applied Regression Analysis. John Wiley & Sons, New York, NY, second edition. DRAPER, N. R. y SMITH, H. (1998). Applied Regression Analysis. John Wiley & Sons, New York, NY, third edition. EUBANK, R. L (1999). Nonparametric Regression and Spline Smoothing. Segunda edición. Marcel Dekker, Inc. New York. FAN, J. (1992). Design-Adaptive Nonparametric Regression. Journal of the American Statistical Association, 87, 998 -1004. FRIEDMAN, J. H. y TUKEY, J. W. (1974). A Projection Pursuit Algorithm for Exploratory Data Analysis. IEEE Trans. Comput. C-23 881-889. GASSER, T. y MÜLLER, H. G. (1979). Smoothing Techniques for Curve Estimation. Springer, Heidelberg. GRAYBILL, F. A. (1976). Theory and Application of the Linear Model. Wadsworth & Brooks, Pacific Grove, California HALL, PETER, KAY, J. W. y TITTERINGTON, D. M. (1990). Asymptotically Optimal Difference-Based Estimation of Variance in Nonparametric Regression Department of Statistics, Australian National University, Canberra, ACT 2601, Australia. Biometrika, 77, 3, pp.521-8. HALL, P. y HART, J. D. (1990). Bootstrap test for difference between means in nonparametric regression. Journal of the American Statistical Association, 85, 1085-1093. HALL, P. , MARRON, J. S. , y PARK, B. U. (1992). Smoothed Croos-Validation, Probability Theory and Related Fields, 92, 1-20. HÄRDLE, W. (1990). Applied Nonparametric Regression. Cambridge University Press, Cambridge, UK. HÄRDLE, W., HALL, P., y ICHIMURA, H. (1993). Optimal Smoothing in single-index Models. The Annals of Statistics. HÄRDLE, WOLFGANG y TSYBAKOV, A. B. (1995). Additive nonparametric regression on principal components. nonparametrics Statistics, 5:157-184. HÄRDLE, W., y KOROSTELEV, A. (1996). Search for Significant Variables in Nonparametric Additive Regression. Biometrika. 541-549. KING. E. C. HÄRT, J. D, and WEHRLY, T. E (1991). Testing the Equality of Two Regression Curves Using Linear Smoothers. Statistics and Probability Letters, 12. 239-247. JEROME, H. FRIEDMAN y WERNER STUETZLE (1981). Projection Pursuit Regression. Article December. Volume 76, No. 376. American Statistical Association KOTZ, S. , JOHNSON, N. L. , y READ, C. B. (1988). Encyclopedia of Statistical Science, Volume VIII. John Wiley, New York KULASEKERA, K.B. (1995). Comparison of Regression Curves Using Quasi-Residuals . Article September, Volume 90, No. 431. American Statistical Association KULASEKERA, K.B. y WANG, J. (1997). Smoothing Parameter Selection for Power Optimality in Testing of Regression Curves. Article June, Volume 92, No. 438. American Statistical Association. LI, K. C. (1991). Sliced Inverse Regression for Dimension Reduction. Journal of the American Statistical Association, 86, 316-327. NADARAYA, E. A. A. y SECKLER, B. T. (1964). On estimating regression. Theory of Probability and its Applicat OLAYA, J. (2000). Selecting Variables in Nonparametric Regression. Universidad delValle. Articulo November 26. OLAYA, J. y KULASEKERA, K.B. (2000). A method for selecting variables in nonparametric regression. Disertation Thesis, Clemson University, Clemson, SC. TREVOR, J. , HASTIE y TIBSHIRANI, ROBERT J. (1990).General Additive Models. Chapman & Hall-CRC, Boca Raton, FL. WATSON, G. (1964). Smooth Regresión Análisis. Sankhya, Series A. ZHANG, P. (1990). Variable Selection in nonparametric regression with continuous covariates. The Annals of Statistics |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess http://purl.org/coar/access_right/c_abf2 |
dc.rights.creativecommons.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial-SinDerivadas 2.5 Colombia |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.spa.fl_str_mv |
Bucaramanga (Colombia) |
dc.coverage.campus.spa.fl_str_mv |
UNAB Campus Bucaramanga |
dc.publisher.grantor.spa.fl_str_mv |
Universidad Autónoma de Bucaramanga UNAB |
dc.publisher.faculty.spa.fl_str_mv |
Facultad Ingeniería |
dc.publisher.program.spa.fl_str_mv |
Maestría en Ciencias Computacionales |
institution |
Universidad Autónoma de Bucaramanga - UNAB |
bitstream.url.fl_str_mv |
https://repository.unab.edu.co/bitstream/20.500.12749/3295/1/2004_Tesis_Marco_Antonio_Lozano.pdf https://repository.unab.edu.co/bitstream/20.500.12749/3295/2/2004_Tesis_Marco_Antonio_Lozano.pdf.jpg |
bitstream.checksum.fl_str_mv |
9974b28ec0f706960363fc080904880e 32ca39c20a8d3d4605dcad619ad6ca21 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional | Universidad Autónoma de Bucaramanga - UNAB |
repository.mail.fl_str_mv |
repositorio@unab.edu.co |
_version_ |
1814277263953231872 |
spelling |
Olaya Ochoa, Javier8545c703-4d23-4911-bc82-6c0dc62e6e16Triana Lozano, Marco Antonio1dd9b73c-450e-461b-8d40-29cee4de867ahttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000410519Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM)Grupo de Investigación en Ciencias Aplicadas - GINCAPGrupo de Investigaciones Clínicas2020-06-26T21:32:14Z2020-06-26T21:32:14Z2004-03http://hdl.handle.net/20.500.12749/3295instname:Universidad Autónoma de Bucaramanga - UNABreponame:Repositorio Institucional UNABPresentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del parámetro de suavización óptimo en el problema de selección de variables en regresión noparamétrica. Obtendremos algunas estimaciones de la función de regresión para ser utilizadas en la selección del valor óptimo para el parámetro de suavización que maximiza la potencia de una prueba estadística de comparación de curvas de regresión no-paramétricas. El procedimiento PPR (Projection Pursuit Regresión) es propuesto para seleccionar variables significativas en un modelo de regresión no-paramétrico. Se presentan algunos métodos para seleccionar el parámetro de suavización en regresión no-paramétrica.Corporación Universitaria Autónoma de Occidente CUAOInstituto Tecnológico de Estudios Superiores de Monterrey ITESMINTRODUCCIÓN 16 1. REGRESIÓN NO-PARAMÉTRICA 20 1.1 ESTIMADORES 22 1.2 CONSISTENCIA 26 1.3 ALGUNOS CRITERIOS PAA DETERMINAR UN BUEN ESTIMADOR 27 1.4 SECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN 29 2. SELECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN EN EL PROBLEMA DE SELECCIÓN DE VARIABLES EN REGRESIÓN NOPARAMÉTRICA 31 2.1 EL PROBLEMA DE LA SELECCIÓN DE VARIABLE 31 2.1.1 Un método para seleccionar variables en regresión no-paramétrica 33 2.2 ALGUNOS MÉTODOS PARA SELECCIONAR EL PARÁMETRO DE SUAVIZACIÓN E REGRESIÓN NO-PARAMÉTRICA 47 2.3 SELECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN EN LA COMPARACIÓN DE DOS CURVAS DE REGRESIÓN 53 2.3.1 Selección del valor óptimo para el parámetro de suavización que maximiza la potencia de la prueba 53 3. RESULTADOS DE ALGUNAS SIMULACIONES 60 3.1 ESTIMACIÓN DE LA FUNCIÓN DE REGRESIÓN m(x) 60 3.1.1 Algunos aspectos computacionales de la simulación 61 3.1.2 Resultados de la simulación 62 3.2 SELECCIÓN DE UN VALOR ÓPTIMO DE PARÁMETRO SUAVIZACIÓN PARA ESTIMAR LA FUNCIÓN DE REGRESIÓN m(x) 64 3.2.1 Algunos aspectos computacionales de la simulación 65 3.2.2 Resultados de la simulación 65 3.3 SELECCIÓN DE UN VALOR ÓPTIMO DEL PARÁMETRO DE SUAVIZACIÓN PARA MAXIMIZAR LA POTENCIA DE UNA PRUEBA 69 3.3.1 algunos aspectos computacionales de la simulación 69 3.3.2 Resultados dela simulación 70 3.4 SELECCIÓN DE UN VALOR ÓPTIMO DEL PARÁMETRO DE SUAVIZACIÓN EN EL PROBLEMA DE SELECCIÓN DE VARIABLES EN REGRESIÓN NO-PARAMÉTRICA 79 3.4.1 Caso donde se tiene en el modelo dos variables explicativas independientes X1 y X2 80 3.4.2 Caso donde se tienen en el modelo tres variables explicativas independientes X1, X2 y X3 87 4. DOCUMENTACIÓN DE PROGRAMAS EN C++ Y EN LENGUAJE S 96 4.1 PROGRAMA NEWK1.XXC (Procedimiento en lenguaje S) 96 4.2 PROGRAMA NEWK (Programa en C++) 97 4.3 PROGRAMA NEWK1000.SSC (Procedimiento en lenguaje S) 98 4.4 PROGRAMA NEWK100(Programa en C++) 99 4.5 PROGRAMA NEWK1001.SSC (Procedimiento en lenguaje S 100 4.6 PROGRAMA NEWK1001 (procedimiento en C++) 101 4.7 PROGRAMA NEWK1002.SSC (procedimiento en Lenguaje S) 102 4.8 PROGRAMA NEWK1002 (Programa en C++) 104 4.9 PROGRAMA NEWK1003.SSC (Procedimiento en lenguaje S) 105 4.10 PROGRAMA NEWK1003 (programa en C++) 107 4.11 PROGRAMA NEWK1004 (Procedimiento en Lenguaje S) 108 4.12 PROGRAMA NEWK104_RAMDOM.SSC (Procedimiento en Lenguaje S) 111 4.13 PROGRAMA NEW1005.SSC (Procedimiento en leguaje S) 114 4.14 PROGRAMA NEWK1005 (programa en C++) 118 4.15 PROGRAMA NEWK1005_RAMDOM.SSC (procedimiento en lenguaje S) 121 5. CONCLUSIONES 132 BIBLIOGRAFÍA 135MaestríaWe present below a simulation study about the choice of the optimal smoothing parameter in the variable selection problem in regression non-parametric implementing a numerical solution. A computational mechanism that allows automatic selection of the Optimal smoothing in the variable selection problem in nonparametric regression. We will get some estimates of the regression function to be used in selecting the optimal value for the smoothing parameter that maximizes the power of a statistical regression curve comparison test non-parametric. The PPR (Projection Pursuit Regression) procedure is proposed to select significant variables in a non-parametric regression model. I know present some methods to select the smoothing parameter in regression non-parametric.Modalidad Presencialapplication/pdfspahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial-SinDerivadas 2.5 ColombiaElección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numéricaChoosing the optimal smoothing parameter in the problem of selecting variables in non-parametric regression through a numerical solutionMagíster en Ciencias ComputacionalesBucaramanga (Colombia)UNAB Campus BucaramangaUniversidad Autónoma de Bucaramanga UNABFacultad IngenieríaMaestría en Ciencias Computacionalesinfo:eu-repo/semantics/masterThesisTesishttp://purl.org/redcol/resource_type/TMRegression analysisSimulation methodsParameter estimationEstimation theorySystems engineeringInvestigationsAnalysisRegression analysisNon-parametric regressionKernel estimatorsSelection of variablesSmoothingSmoothing parameterQuasi-residualsBandwidthAnálisis de regresiónMétodos de simulaciónEstimación de parámetrosTeoría de la estimaciónIngeniería de sistemasInvestigacionesAnálisisAnálisis de regresiónRegresión no-paramétricaEstimadores KernelSelección de variablesPPRSuavizaciónParámetro de suavizaciónCuasi-residualesAncho de bandaTriana Lozano, Marco Antonio, Olaya Ochoa, Javier (2004). Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica. Bucaramanga (Colombia) : Universidad Autónoma de Bucaramanga UNAB, Instituto Tecnológico y de Estudios Superiores de Monterrey ITESM, Corporación Universitaria Autónoma de OccidenteBENEDETTI. G. (1975). Kernel estimation of regression functions. Proceedings in Computer Science and Statistics: 8 th annual symposium on the interface, pages 405-412.BROCKMANN, M. , GASSER, T. , y HERMANN, E. (1993). Lacally Adaptive Bandwidth Choise for Kernel Regression Estimation, Journal of the American Statistical Association, 88, 1302-1309.DRAPER, N. R. y SMITH, H. (1966). Applied Regression Analysis. John Wiley & Sons, New York, NY.DRAPER, N. R. y SMITH, H. (1981). Applied Regression Analysis. John Wiley & Sons, New York, NY, second edition.DRAPER, N. R. y SMITH, H. (1998). Applied Regression Analysis. John Wiley & Sons, New York, NY, third edition.EUBANK, R. L (1999). Nonparametric Regression and Spline Smoothing. Segunda edición. Marcel Dekker, Inc. New York.FAN, J. (1992). Design-Adaptive Nonparametric Regression. Journal of the American Statistical Association, 87, 998 -1004.FRIEDMAN, J. H. y TUKEY, J. W. (1974). A Projection Pursuit Algorithm for Exploratory Data Analysis. IEEE Trans. Comput. C-23 881-889.GASSER, T. y MÜLLER, H. G. (1979). Smoothing Techniques for Curve Estimation. Springer, Heidelberg.GRAYBILL, F. A. (1976). Theory and Application of the Linear Model. Wadsworth & Brooks, Pacific Grove, CaliforniaHALL, PETER, KAY, J. W. y TITTERINGTON, D. M. (1990). Asymptotically Optimal Difference-Based Estimation of Variance in Nonparametric Regression Department of Statistics, Australian National University, Canberra, ACT 2601, Australia. Biometrika, 77, 3, pp.521-8.HALL, P. y HART, J. D. (1990). Bootstrap test for difference between means in nonparametric regression. Journal of the American Statistical Association, 85, 1085-1093.HALL, P. , MARRON, J. S. , y PARK, B. U. (1992). Smoothed Croos-Validation, Probability Theory and Related Fields, 92, 1-20.HÄRDLE, W. (1990). Applied Nonparametric Regression. Cambridge University Press, Cambridge, UK.HÄRDLE, W., HALL, P., y ICHIMURA, H. (1993). Optimal Smoothing in single-index Models. The Annals of Statistics.HÄRDLE, WOLFGANG y TSYBAKOV, A. B. (1995). Additive nonparametric regression on principal components. nonparametrics Statistics, 5:157-184.HÄRDLE, W., y KOROSTELEV, A. (1996). Search for Significant Variables in Nonparametric Additive Regression. Biometrika. 541-549.KING. E. C. HÄRT, J. D, and WEHRLY, T. E (1991). Testing the Equality of Two Regression Curves Using Linear Smoothers. Statistics and Probability Letters, 12. 239-247.JEROME, H. FRIEDMAN y WERNER STUETZLE (1981). Projection Pursuit Regression. Article December. Volume 76, No. 376. American Statistical AssociationKOTZ, S. , JOHNSON, N. L. , y READ, C. B. (1988). Encyclopedia of Statistical Science, Volume VIII. John Wiley, New YorkKULASEKERA, K.B. (1995). Comparison of Regression Curves Using Quasi-Residuals . Article September, Volume 90, No. 431. American Statistical AssociationKULASEKERA, K.B. y WANG, J. (1997). Smoothing Parameter Selection for Power Optimality in Testing of Regression Curves. Article June, Volume 92, No. 438. American Statistical Association.LI, K. C. (1991). Sliced Inverse Regression for Dimension Reduction. Journal of the American Statistical Association, 86, 316-327.NADARAYA, E. A. A. y SECKLER, B. T. (1964). On estimating regression. Theory of Probability and its ApplicatOLAYA, J. (2000). Selecting Variables in Nonparametric Regression. Universidad delValle. Articulo November 26.OLAYA, J. y KULASEKERA, K.B. (2000). A method for selecting variables in nonparametric regression. Disertation Thesis, Clemson University, Clemson, SC.TREVOR, J. , HASTIE y TIBSHIRANI, ROBERT J. (1990).General Additive Models. Chapman & Hall-CRC, Boca Raton, FL.WATSON, G. (1964). Smooth Regresión Análisis. Sankhya, Series A.ZHANG, P. (1990). Variable Selection in nonparametric regression with continuous covariates. The Annals of StatisticsORIGINAL2004_Tesis_Marco_Antonio_Lozano.pdf2004_Tesis_Marco_Antonio_Lozano.pdfTesisapplication/pdf763201https://repository.unab.edu.co/bitstream/20.500.12749/3295/1/2004_Tesis_Marco_Antonio_Lozano.pdf9974b28ec0f706960363fc080904880eMD51open accessTHUMBNAIL2004_Tesis_Marco_Antonio_Lozano.pdf.jpg2004_Tesis_Marco_Antonio_Lozano.pdf.jpgIM Thumbnailimage/jpeg4798https://repository.unab.edu.co/bitstream/20.500.12749/3295/2/2004_Tesis_Marco_Antonio_Lozano.pdf.jpg32ca39c20a8d3d4605dcad619ad6ca21MD52open access20.500.12749/3295oai:repository.unab.edu.co:20.500.12749/32952024-01-20 10:00:15.262open accessRepositorio Institucional | Universidad Autónoma de Bucaramanga - UNABrepositorio@unab.edu.co |