Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica

Presentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del...

Full description

Autores:
Triana Lozano, Marco Antonio
Tipo de recurso:
Fecha de publicación:
2004
Institución:
Universidad Autónoma de Bucaramanga - UNAB
Repositorio:
Repositorio UNAB
Idioma:
spa
OAI Identifier:
oai:repository.unab.edu.co:20.500.12749/3295
Acceso en línea:
http://hdl.handle.net/20.500.12749/3295
Palabra clave:
Regression analysis
Simulation methods
Parameter estimation
Estimation theory
Systems engineering
Investigations
Analysis
Regression analysis
Non-parametric regression
Kernel estimators
Selection of variables
Smoothing
Smoothing parameter
Quasi-residuals
Bandwidth
Análisis de regresión
Métodos de simulación
Estimación de parámetros
Teoría de la estimación
Ingeniería de sistemas
Investigaciones
Análisis
Análisis de regresión
Regresión no-paramétrica
Estimadores Kernel
Selección de variables
PPR
Suavización
Parámetro de suavización
Cuasi-residuales
Ancho de banda
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
id UNAB2_8ead515cc991bebb2fd0299bbca99ed1
oai_identifier_str oai:repository.unab.edu.co:20.500.12749/3295
network_acronym_str UNAB2
network_name_str Repositorio UNAB
repository_id_str
dc.title.spa.fl_str_mv Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
dc.title.translated.eng.fl_str_mv Choosing the optimal smoothing parameter in the problem of selecting variables in non-parametric regression through a numerical solution
title Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
spellingShingle Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
Regression analysis
Simulation methods
Parameter estimation
Estimation theory
Systems engineering
Investigations
Analysis
Regression analysis
Non-parametric regression
Kernel estimators
Selection of variables
Smoothing
Smoothing parameter
Quasi-residuals
Bandwidth
Análisis de regresión
Métodos de simulación
Estimación de parámetros
Teoría de la estimación
Ingeniería de sistemas
Investigaciones
Análisis
Análisis de regresión
Regresión no-paramétrica
Estimadores Kernel
Selección de variables
PPR
Suavización
Parámetro de suavización
Cuasi-residuales
Ancho de banda
title_short Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
title_full Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
title_fullStr Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
title_full_unstemmed Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
title_sort Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica
dc.creator.fl_str_mv Triana Lozano, Marco Antonio
dc.contributor.advisor.spa.fl_str_mv Olaya Ochoa, Javier
dc.contributor.author.spa.fl_str_mv Triana Lozano, Marco Antonio
dc.contributor.cvlac.*.fl_str_mv https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000410519
dc.contributor.corporatename.spa.fl_str_mv Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM)
dc.contributor.researchgroup.spa.fl_str_mv Grupo de Investigación en Ciencias Aplicadas - GINCAP
dc.contributor.researchgroup.none.fl_str_mv Grupo de Investigaciones Clínicas
dc.subject.keywords.eng.fl_str_mv Regression analysis
Simulation methods
Parameter estimation
Estimation theory
Systems engineering
Investigations
Analysis
Regression analysis
Non-parametric regression
Kernel estimators
Selection of variables
Smoothing
Smoothing parameter
Quasi-residuals
Bandwidth
topic Regression analysis
Simulation methods
Parameter estimation
Estimation theory
Systems engineering
Investigations
Analysis
Regression analysis
Non-parametric regression
Kernel estimators
Selection of variables
Smoothing
Smoothing parameter
Quasi-residuals
Bandwidth
Análisis de regresión
Métodos de simulación
Estimación de parámetros
Teoría de la estimación
Ingeniería de sistemas
Investigaciones
Análisis
Análisis de regresión
Regresión no-paramétrica
Estimadores Kernel
Selección de variables
PPR
Suavización
Parámetro de suavización
Cuasi-residuales
Ancho de banda
dc.subject.lemb.spa.fl_str_mv Análisis de regresión
Métodos de simulación
Estimación de parámetros
Teoría de la estimación
Ingeniería de sistemas
Investigaciones
Análisis
dc.subject.proposal.none.fl_str_mv Análisis de regresión
Regresión no-paramétrica
Estimadores Kernel
Selección de variables
PPR
Suavización
Parámetro de suavización
Cuasi-residuales
Ancho de banda
description Presentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del parámetro de suavización óptimo en el problema de selección de variables en regresión noparamétrica. Obtendremos algunas estimaciones de la función de regresión para ser utilizadas en la selección del valor óptimo para el parámetro de suavización que maximiza la potencia de una prueba estadística de comparación de curvas de regresión no-paramétricas. El procedimiento PPR (Projection Pursuit Regresión) es propuesto para seleccionar variables significativas en un modelo de regresión no-paramétrico. Se presentan algunos métodos para seleccionar el parámetro de suavización en regresión no-paramétrica.
publishDate 2004
dc.date.issued.none.fl_str_mv 2004-03
dc.date.accessioned.none.fl_str_mv 2020-06-26T21:32:14Z
dc.date.available.none.fl_str_mv 2020-06-26T21:32:14Z
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.local.spa.fl_str_mv Tesis
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TM
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12749/3295
dc.identifier.instname.spa.fl_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional UNAB
url http://hdl.handle.net/20.500.12749/3295
identifier_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
reponame:Repositorio Institucional UNAB
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv Triana Lozano, Marco Antonio, Olaya Ochoa, Javier (2004). Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica. Bucaramanga (Colombia) : Universidad Autónoma de Bucaramanga UNAB, Instituto Tecnológico y de Estudios Superiores de Monterrey ITESM, Corporación Universitaria Autónoma de Occidente
BENEDETTI. G. (1975). Kernel estimation of regression functions. Proceedings in Computer Science and Statistics: 8 th annual symposium on the interface, pages 405-412.
BROCKMANN, M. , GASSER, T. , y HERMANN, E. (1993). Lacally Adaptive Bandwidth Choise for Kernel Regression Estimation, Journal of the American Statistical Association, 88, 1302-1309.
DRAPER, N. R. y SMITH, H. (1966). Applied Regression Analysis. John Wiley & Sons, New York, NY.
DRAPER, N. R. y SMITH, H. (1981). Applied Regression Analysis. John Wiley & Sons, New York, NY, second edition.
DRAPER, N. R. y SMITH, H. (1998). Applied Regression Analysis. John Wiley & Sons, New York, NY, third edition.
EUBANK, R. L (1999). Nonparametric Regression and Spline Smoothing. Segunda edición. Marcel Dekker, Inc. New York.
FAN, J. (1992). Design-Adaptive Nonparametric Regression. Journal of the American Statistical Association, 87, 998 -1004.
FRIEDMAN, J. H. y TUKEY, J. W. (1974). A Projection Pursuit Algorithm for Exploratory Data Analysis. IEEE Trans. Comput. C-23 881-889.
GASSER, T. y MÜLLER, H. G. (1979). Smoothing Techniques for Curve Estimation. Springer, Heidelberg.
GRAYBILL, F. A. (1976). Theory and Application of the Linear Model. Wadsworth & Brooks, Pacific Grove, California
HALL, PETER, KAY, J. W. y TITTERINGTON, D. M. (1990). Asymptotically Optimal Difference-Based Estimation of Variance in Nonparametric Regression Department of Statistics, Australian National University, Canberra, ACT 2601, Australia. Biometrika, 77, 3, pp.521-8.
HALL, P. y HART, J. D. (1990). Bootstrap test for difference between means in nonparametric regression. Journal of the American Statistical Association, 85, 1085-1093.
HALL, P. , MARRON, J. S. , y PARK, B. U. (1992). Smoothed Croos-Validation, Probability Theory and Related Fields, 92, 1-20.
HÄRDLE, W. (1990). Applied Nonparametric Regression. Cambridge University Press, Cambridge, UK.
HÄRDLE, W., HALL, P., y ICHIMURA, H. (1993). Optimal Smoothing in single-index Models. The Annals of Statistics.
HÄRDLE, WOLFGANG y TSYBAKOV, A. B. (1995). Additive nonparametric regression on principal components. nonparametrics Statistics, 5:157-184.
HÄRDLE, W., y KOROSTELEV, A. (1996). Search for Significant Variables in Nonparametric Additive Regression. Biometrika. 541-549.
KING. E. C. HÄRT, J. D, and WEHRLY, T. E (1991). Testing the Equality of Two Regression Curves Using Linear Smoothers. Statistics and Probability Letters, 12. 239-247.
JEROME, H. FRIEDMAN y WERNER STUETZLE (1981). Projection Pursuit Regression. Article December. Volume 76, No. 376. American Statistical Association
KOTZ, S. , JOHNSON, N. L. , y READ, C. B. (1988). Encyclopedia of Statistical Science, Volume VIII. John Wiley, New York
KULASEKERA, K.B. (1995). Comparison of Regression Curves Using Quasi-Residuals . Article September, Volume 90, No. 431. American Statistical Association
KULASEKERA, K.B. y WANG, J. (1997). Smoothing Parameter Selection for Power Optimality in Testing of Regression Curves. Article June, Volume 92, No. 438. American Statistical Association.
LI, K. C. (1991). Sliced Inverse Regression for Dimension Reduction. Journal of the American Statistical Association, 86, 316-327.
NADARAYA, E. A. A. y SECKLER, B. T. (1964). On estimating regression. Theory of Probability and its Applicat
OLAYA, J. (2000). Selecting Variables in Nonparametric Regression. Universidad delValle. Articulo November 26.
OLAYA, J. y KULASEKERA, K.B. (2000). A method for selecting variables in nonparametric regression. Disertation Thesis, Clemson University, Clemson, SC.
TREVOR, J. , HASTIE y TIBSHIRANI, ROBERT J. (1990).General Additive Models. Chapman & Hall-CRC, Boca Raton, FL.
WATSON, G. (1964). Smooth Regresión Análisis. Sankhya, Series A.
ZHANG, P. (1990). Variable Selection in nonparametric regression with continuous covariates. The Annals of Statistics
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
http://purl.org/coar/access_right/c_abf2
dc.rights.creativecommons.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
Atribución-NoComercial-SinDerivadas 2.5 Colombia
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.spa.fl_str_mv Bucaramanga (Colombia)
dc.coverage.campus.spa.fl_str_mv UNAB Campus Bucaramanga
dc.publisher.grantor.spa.fl_str_mv Universidad Autónoma de Bucaramanga UNAB
dc.publisher.faculty.spa.fl_str_mv Facultad Ingeniería
dc.publisher.program.spa.fl_str_mv Maestría en Ciencias Computacionales
institution Universidad Autónoma de Bucaramanga - UNAB
bitstream.url.fl_str_mv https://repository.unab.edu.co/bitstream/20.500.12749/3295/1/2004_Tesis_Marco_Antonio_Lozano.pdf
https://repository.unab.edu.co/bitstream/20.500.12749/3295/2/2004_Tesis_Marco_Antonio_Lozano.pdf.jpg
bitstream.checksum.fl_str_mv 9974b28ec0f706960363fc080904880e
32ca39c20a8d3d4605dcad619ad6ca21
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositorio Institucional | Universidad Autónoma de Bucaramanga - UNAB
repository.mail.fl_str_mv repositorio@unab.edu.co
_version_ 1814277263953231872
spelling Olaya Ochoa, Javier8545c703-4d23-4911-bc82-6c0dc62e6e16Triana Lozano, Marco Antonio1dd9b73c-450e-461b-8d40-29cee4de867ahttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000410519Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM)Grupo de Investigación en Ciencias Aplicadas - GINCAPGrupo de Investigaciones Clínicas2020-06-26T21:32:14Z2020-06-26T21:32:14Z2004-03http://hdl.handle.net/20.500.12749/3295instname:Universidad Autónoma de Bucaramanga - UNABreponame:Repositorio Institucional UNABPresentamos a continuación un estudio de simulación acerca de la elección del parámetro de suavización óptimo en el problema de selección de variables en regresión no-paramétrica implementando una solución numérica. También se diseña un mecanismo computacional que permite la selección automática del parámetro de suavización óptimo en el problema de selección de variables en regresión noparamétrica. Obtendremos algunas estimaciones de la función de regresión para ser utilizadas en la selección del valor óptimo para el parámetro de suavización que maximiza la potencia de una prueba estadística de comparación de curvas de regresión no-paramétricas. El procedimiento PPR (Projection Pursuit Regresión) es propuesto para seleccionar variables significativas en un modelo de regresión no-paramétrico. Se presentan algunos métodos para seleccionar el parámetro de suavización en regresión no-paramétrica.Corporación Universitaria Autónoma de Occidente CUAOInstituto Tecnológico de Estudios Superiores de Monterrey ITESMINTRODUCCIÓN 16 1. REGRESIÓN NO-PARAMÉTRICA 20 1.1 ESTIMADORES 22 1.2 CONSISTENCIA 26 1.3 ALGUNOS CRITERIOS PAA DETERMINAR UN BUEN ESTIMADOR 27 1.4 SECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN 29 2. SELECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN EN EL PROBLEMA DE SELECCIÓN DE VARIABLES EN REGRESIÓN NOPARAMÉTRICA 31 2.1 EL PROBLEMA DE LA SELECCIÓN DE VARIABLE 31 2.1.1 Un método para seleccionar variables en regresión no-paramétrica 33 2.2 ALGUNOS MÉTODOS PARA SELECCIONAR EL PARÁMETRO DE SUAVIZACIÓN E REGRESIÓN NO-PARAMÉTRICA 47 2.3 SELECCIÓN DEL PARÁMETRO DE SUAVIZACIÓN EN LA COMPARACIÓN DE DOS CURVAS DE REGRESIÓN 53 2.3.1 Selección del valor óptimo para el parámetro de suavización que maximiza la potencia de la prueba 53 3. RESULTADOS DE ALGUNAS SIMULACIONES 60 3.1 ESTIMACIÓN DE LA FUNCIÓN DE REGRESIÓN m(x) 60 3.1.1 Algunos aspectos computacionales de la simulación 61 3.1.2 Resultados de la simulación 62 3.2 SELECCIÓN DE UN VALOR ÓPTIMO DE PARÁMETRO SUAVIZACIÓN PARA ESTIMAR LA FUNCIÓN DE REGRESIÓN m(x) 64 3.2.1 Algunos aspectos computacionales de la simulación 65 3.2.2 Resultados de la simulación 65 3.3 SELECCIÓN DE UN VALOR ÓPTIMO DEL PARÁMETRO DE SUAVIZACIÓN PARA MAXIMIZAR LA POTENCIA DE UNA PRUEBA 69 3.3.1 algunos aspectos computacionales de la simulación 69 3.3.2 Resultados dela simulación 70 3.4 SELECCIÓN DE UN VALOR ÓPTIMO DEL PARÁMETRO DE SUAVIZACIÓN EN EL PROBLEMA DE SELECCIÓN DE VARIABLES EN REGRESIÓN NO-PARAMÉTRICA 79 3.4.1 Caso donde se tiene en el modelo dos variables explicativas independientes X1 y X2 80 3.4.2 Caso donde se tienen en el modelo tres variables explicativas independientes X1, X2 y X3 87 4. DOCUMENTACIÓN DE PROGRAMAS EN C++ Y EN LENGUAJE S 96 4.1 PROGRAMA NEWK1.XXC (Procedimiento en lenguaje S) 96 4.2 PROGRAMA NEWK (Programa en C++) 97 4.3 PROGRAMA NEWK1000.SSC (Procedimiento en lenguaje S) 98 4.4 PROGRAMA NEWK100(Programa en C++) 99 4.5 PROGRAMA NEWK1001.SSC (Procedimiento en lenguaje S 100 4.6 PROGRAMA NEWK1001 (procedimiento en C++) 101 4.7 PROGRAMA NEWK1002.SSC (procedimiento en Lenguaje S) 102 4.8 PROGRAMA NEWK1002 (Programa en C++) 104 4.9 PROGRAMA NEWK1003.SSC (Procedimiento en lenguaje S) 105 4.10 PROGRAMA NEWK1003 (programa en C++) 107 4.11 PROGRAMA NEWK1004 (Procedimiento en Lenguaje S) 108 4.12 PROGRAMA NEWK104_RAMDOM.SSC (Procedimiento en Lenguaje S) 111 4.13 PROGRAMA NEW1005.SSC (Procedimiento en leguaje S) 114 4.14 PROGRAMA NEWK1005 (programa en C++) 118 4.15 PROGRAMA NEWK1005_RAMDOM.SSC (procedimiento en lenguaje S) 121 5. CONCLUSIONES 132 BIBLIOGRAFÍA 135MaestríaWe present below a simulation study about the choice of the optimal smoothing parameter in the variable selection problem in regression non-parametric implementing a numerical solution. A computational mechanism that allows automatic selection of the Optimal smoothing in the variable selection problem in nonparametric regression. We will get some estimates of the regression function to be used in selecting the optimal value for the smoothing parameter that maximizes the power of a statistical regression curve comparison test non-parametric. The PPR (Projection Pursuit Regression) procedure is proposed to select significant variables in a non-parametric regression model. I know present some methods to select the smoothing parameter in regression non-parametric.Modalidad Presencialapplication/pdfspahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial-SinDerivadas 2.5 ColombiaElección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numéricaChoosing the optimal smoothing parameter in the problem of selecting variables in non-parametric regression through a numerical solutionMagíster en Ciencias ComputacionalesBucaramanga (Colombia)UNAB Campus BucaramangaUniversidad Autónoma de Bucaramanga UNABFacultad IngenieríaMaestría en Ciencias Computacionalesinfo:eu-repo/semantics/masterThesisTesishttp://purl.org/redcol/resource_type/TMRegression analysisSimulation methodsParameter estimationEstimation theorySystems engineeringInvestigationsAnalysisRegression analysisNon-parametric regressionKernel estimatorsSelection of variablesSmoothingSmoothing parameterQuasi-residualsBandwidthAnálisis de regresiónMétodos de simulaciónEstimación de parámetrosTeoría de la estimaciónIngeniería de sistemasInvestigacionesAnálisisAnálisis de regresiónRegresión no-paramétricaEstimadores KernelSelección de variablesPPRSuavizaciónParámetro de suavizaciónCuasi-residualesAncho de bandaTriana Lozano, Marco Antonio, Olaya Ochoa, Javier (2004). Elección del parámetro de suavización óptimo en el problema de la selección de variables en regresión no-paramétrica a través de una solución numérica. Bucaramanga (Colombia) : Universidad Autónoma de Bucaramanga UNAB, Instituto Tecnológico y de Estudios Superiores de Monterrey ITESM, Corporación Universitaria Autónoma de OccidenteBENEDETTI. G. (1975). Kernel estimation of regression functions. Proceedings in Computer Science and Statistics: 8 th annual symposium on the interface, pages 405-412.BROCKMANN, M. , GASSER, T. , y HERMANN, E. (1993). Lacally Adaptive Bandwidth Choise for Kernel Regression Estimation, Journal of the American Statistical Association, 88, 1302-1309.DRAPER, N. R. y SMITH, H. (1966). Applied Regression Analysis. John Wiley & Sons, New York, NY.DRAPER, N. R. y SMITH, H. (1981). Applied Regression Analysis. John Wiley & Sons, New York, NY, second edition.DRAPER, N. R. y SMITH, H. (1998). Applied Regression Analysis. John Wiley & Sons, New York, NY, third edition.EUBANK, R. L (1999). Nonparametric Regression and Spline Smoothing. Segunda edición. Marcel Dekker, Inc. New York.FAN, J. (1992). Design-Adaptive Nonparametric Regression. Journal of the American Statistical Association, 87, 998 -1004.FRIEDMAN, J. H. y TUKEY, J. W. (1974). A Projection Pursuit Algorithm for Exploratory Data Analysis. IEEE Trans. Comput. C-23 881-889.GASSER, T. y MÜLLER, H. G. (1979). Smoothing Techniques for Curve Estimation. Springer, Heidelberg.GRAYBILL, F. A. (1976). Theory and Application of the Linear Model. Wadsworth & Brooks, Pacific Grove, CaliforniaHALL, PETER, KAY, J. W. y TITTERINGTON, D. M. (1990). Asymptotically Optimal Difference-Based Estimation of Variance in Nonparametric Regression Department of Statistics, Australian National University, Canberra, ACT 2601, Australia. Biometrika, 77, 3, pp.521-8.HALL, P. y HART, J. D. (1990). Bootstrap test for difference between means in nonparametric regression. Journal of the American Statistical Association, 85, 1085-1093.HALL, P. , MARRON, J. S. , y PARK, B. U. (1992). Smoothed Croos-Validation, Probability Theory and Related Fields, 92, 1-20.HÄRDLE, W. (1990). Applied Nonparametric Regression. Cambridge University Press, Cambridge, UK.HÄRDLE, W., HALL, P., y ICHIMURA, H. (1993). Optimal Smoothing in single-index Models. The Annals of Statistics.HÄRDLE, WOLFGANG y TSYBAKOV, A. B. (1995). Additive nonparametric regression on principal components. nonparametrics Statistics, 5:157-184.HÄRDLE, W., y KOROSTELEV, A. (1996). Search for Significant Variables in Nonparametric Additive Regression. Biometrika. 541-549.KING. E. C. HÄRT, J. D, and WEHRLY, T. E (1991). Testing the Equality of Two Regression Curves Using Linear Smoothers. Statistics and Probability Letters, 12. 239-247.JEROME, H. FRIEDMAN y WERNER STUETZLE (1981). Projection Pursuit Regression. Article December. Volume 76, No. 376. American Statistical AssociationKOTZ, S. , JOHNSON, N. L. , y READ, C. B. (1988). Encyclopedia of Statistical Science, Volume VIII. John Wiley, New YorkKULASEKERA, K.B. (1995). Comparison of Regression Curves Using Quasi-Residuals . Article September, Volume 90, No. 431. American Statistical AssociationKULASEKERA, K.B. y WANG, J. (1997). Smoothing Parameter Selection for Power Optimality in Testing of Regression Curves. Article June, Volume 92, No. 438. American Statistical Association.LI, K. C. (1991). Sliced Inverse Regression for Dimension Reduction. Journal of the American Statistical Association, 86, 316-327.NADARAYA, E. A. A. y SECKLER, B. T. (1964). On estimating regression. Theory of Probability and its ApplicatOLAYA, J. (2000). Selecting Variables in Nonparametric Regression. Universidad delValle. Articulo November 26.OLAYA, J. y KULASEKERA, K.B. (2000). A method for selecting variables in nonparametric regression. Disertation Thesis, Clemson University, Clemson, SC.TREVOR, J. , HASTIE y TIBSHIRANI, ROBERT J. (1990).General Additive Models. Chapman & Hall-CRC, Boca Raton, FL.WATSON, G. (1964). Smooth Regresión Análisis. Sankhya, Series A.ZHANG, P. (1990). Variable Selection in nonparametric regression with continuous covariates. The Annals of StatisticsORIGINAL2004_Tesis_Marco_Antonio_Lozano.pdf2004_Tesis_Marco_Antonio_Lozano.pdfTesisapplication/pdf763201https://repository.unab.edu.co/bitstream/20.500.12749/3295/1/2004_Tesis_Marco_Antonio_Lozano.pdf9974b28ec0f706960363fc080904880eMD51open accessTHUMBNAIL2004_Tesis_Marco_Antonio_Lozano.pdf.jpg2004_Tesis_Marco_Antonio_Lozano.pdf.jpgIM Thumbnailimage/jpeg4798https://repository.unab.edu.co/bitstream/20.500.12749/3295/2/2004_Tesis_Marco_Antonio_Lozano.pdf.jpg32ca39c20a8d3d4605dcad619ad6ca21MD52open access20.500.12749/3295oai:repository.unab.edu.co:20.500.12749/32952024-01-20 10:00:15.262open accessRepositorio Institucional | Universidad Autónoma de Bucaramanga - UNABrepositorio@unab.edu.co