Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos

En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor...

Full description

Autores:
Dueñas Luna, George Enrique
Tipo de recurso:
Fecha de publicación:
2016
Institución:
Universidad Nacional de Colombia
Repositorio:
Universidad Nacional de Colombia
Idioma:
spa
OAI Identifier:
oai:repositorio.unal.edu.co:unal/57985
Acceso en línea:
https://repositorio.unal.edu.co/handle/unal/57985
http://bdigital.unal.edu.co/54495/
Palabra clave:
37 Educación / Education
Preguntas abiertas
Dificultad del ítem
Taxonomía de Bloom
Taxonomía de Anderson
Predicción de la dificultad
Short-answer question
Item difficulty
Bloom's taxonomy
Anderson's taxonomy
Prediction of difficulty
Rights
openAccess
License
Atribución-NoComercial 4.0 Internacional
id UNACIONAL2_70650e7c51745d30da1e084c63aa3641
oai_identifier_str oai:repositorio.unal.edu.co:unal/57985
network_acronym_str UNACIONAL2
network_name_str Universidad Nacional de Colombia
repository_id_str
dc.title.spa.fl_str_mv Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
title Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
spellingShingle Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
37 Educación / Education
Preguntas abiertas
Dificultad del ítem
Taxonomía de Bloom
Taxonomía de Anderson
Predicción de la dificultad
Short-answer question
Item difficulty
Bloom's taxonomy
Anderson's taxonomy
Prediction of difficulty
title_short Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
title_full Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
title_fullStr Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
title_full_unstemmed Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
title_sort Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
dc.creator.fl_str_mv Dueñas Luna, George Enrique
dc.contributor.author.spa.fl_str_mv Dueñas Luna, George Enrique
dc.contributor.spa.fl_str_mv Jiménez Vargas, Sergio Gonzalo
Baquero Velásquez, Julia Marlén
dc.subject.ddc.spa.fl_str_mv 37 Educación / Education
topic 37 Educación / Education
Preguntas abiertas
Dificultad del ítem
Taxonomía de Bloom
Taxonomía de Anderson
Predicción de la dificultad
Short-answer question
Item difficulty
Bloom's taxonomy
Anderson's taxonomy
Prediction of difficulty
dc.subject.proposal.spa.fl_str_mv Preguntas abiertas
Dificultad del ítem
Taxonomía de Bloom
Taxonomía de Anderson
Predicción de la dificultad
Short-answer question
Item difficulty
Bloom's taxonomy
Anderson's taxonomy
Prediction of difficulty
description En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor se ajuste al objetivo buscado, y de otro, seleccionar preguntas con distintos niveles de dificultad que permitan diferenciar los niveles de conocimiento. En relación con el tipo de pregunta, se ha visto la necesidad de introducir las preguntas abiertas en las pruebas, en tanto que la pregunta cerrada, si bien se ha utilizado mucho, no permite medir satisfactoriamente dicho nivel por cuanto la capacidad cognitiva involucrada fundamentalmente en la búsqueda de la respuesta es el reconocimiento de uno de los rae como el elemento asociado a la pregunta. Con la pregunta abierta, en cambio, se evalúan capacidades cognitivas diferentes como la evocación. Para la selección de preguntas con distintos niveles de complejidad, el mayor problema al que se enfrenta el evaluador es precisamente conocer el grado de dificultad asociado a cada una de ellas, para lo cual regularmente, se realizan pilotajes para determinar el grado de dificultad de la pregunta de acuerdo con la calidad de la respuesta dada a cada pregunta por los estudiantes que participan. Todo ello, desde luego, implica altos costos económicos y riesgos de confidencialidad. Resulta necesario, entonces, encontrar un método de predicción automático de la dificultad de las preguntas abiertas y determinar su grado de fiabilidad. Este precisamente fue el objetivo de esta tesis. Para la construcción del modelo predictivo de la dificultad de las preguntas, se utilizó la base de datos de preguntas abiertas y respuestas de estudiantes calificadas SciEntsBank. Se extrajeron tanto manual como automáticamente 51 factores de los 196 ítems del corpus (textos de la pregunta, la respuesta de referencia y la demanda cognitiva). A partir de la combinación racional de los factores, se obtuvieron 10.200 características para cada ítem, y posteriormente se seleccionaron los mejores factores mediante el KBest, un método automático de selección de los mejores factores. A partir de ello, se predijo la dificultad de cada ítem mediante el uso de dos modelos de regresión. Luego de explorar automáticamente entre decenas de miles de modelos usando regresión lineal y máquinas de vectores de soporte, se encontró que el mejor modelo para predecir la dificultad, que oscila entre cero y uno, empleó solamente una de las 10.200 características, log(t6)/log(t{3): la división del logaritmo del número de palabras claves que solo están en la respuesta de referencia, entre el logaritmo del total de palabras claves en el ítem (pregunta y respuesta). Este constituye el aporte fundamental de esta tesis. El grado de error de este modelo estuvo alrededor de 0.16. Fue sorprendente el hallazgo de evidencia empírica de que las populares taxonomías de Bloom y Anderson no contribuyeron a modelar la dificultad del ítem de evaluación de pregunta abierta.
publishDate 2016
dc.date.issued.spa.fl_str_mv 2016-11-24
dc.date.accessioned.spa.fl_str_mv 2019-07-02T13:29:55Z
dc.date.available.spa.fl_str_mv 2019-07-02T13:29:55Z
dc.type.spa.fl_str_mv Trabajo de grado - Maestría
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TM
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unal.edu.co/handle/unal/57985
dc.identifier.eprints.spa.fl_str_mv http://bdigital.unal.edu.co/54495/
url https://repositorio.unal.edu.co/handle/unal/57985
http://bdigital.unal.edu.co/54495/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.ispartof.spa.fl_str_mv Universidad Nacional de Colombia Sede Bogotá Facultad de Ciencias Humanas Instituto de Investigación en Educación (IEDU)
Instituto de Investigación en Educación (IEDU)
dc.relation.references.spa.fl_str_mv Dueñas Luna, George Enrique (2016) Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos. Maestría thesis, Universidad Nacional de Colombia - Sede Bogotá.
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Nacional de Colombia
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
rights_invalid_str_mv Atribución-NoComercial 4.0 Internacional
Derechos reservados - Universidad Nacional de Colombia
http://creativecommons.org/licenses/by-nc/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
institution Universidad Nacional de Colombia
bitstream.url.fl_str_mv https://repositorio.unal.edu.co/bitstream/unal/57985/1/80816748.2016.pdf
https://repositorio.unal.edu.co/bitstream/unal/57985/2/80816748.2016.pdf.jpg
bitstream.checksum.fl_str_mv bc2e8b718b9702fce6f8a942327264b3
2d9aae5bab0c85f31bba95ad25ca1320
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
repository.mail.fl_str_mv repositorio_nal@unal.edu.co
_version_ 1814089825733574656
spelling Atribución-NoComercial 4.0 InternacionalDerechos reservados - Universidad Nacional de Colombiahttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Jiménez Vargas, Sergio GonzaloBaquero Velásquez, Julia MarlénDueñas Luna, George Enrique9a76548f-2ec3-4153-a68d-8c28e834c0bd3002019-07-02T13:29:55Z2019-07-02T13:29:55Z2016-11-24https://repositorio.unal.edu.co/handle/unal/57985http://bdigital.unal.edu.co/54495/En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor se ajuste al objetivo buscado, y de otro, seleccionar preguntas con distintos niveles de dificultad que permitan diferenciar los niveles de conocimiento. En relación con el tipo de pregunta, se ha visto la necesidad de introducir las preguntas abiertas en las pruebas, en tanto que la pregunta cerrada, si bien se ha utilizado mucho, no permite medir satisfactoriamente dicho nivel por cuanto la capacidad cognitiva involucrada fundamentalmente en la búsqueda de la respuesta es el reconocimiento de uno de los rae como el elemento asociado a la pregunta. Con la pregunta abierta, en cambio, se evalúan capacidades cognitivas diferentes como la evocación. Para la selección de preguntas con distintos niveles de complejidad, el mayor problema al que se enfrenta el evaluador es precisamente conocer el grado de dificultad asociado a cada una de ellas, para lo cual regularmente, se realizan pilotajes para determinar el grado de dificultad de la pregunta de acuerdo con la calidad de la respuesta dada a cada pregunta por los estudiantes que participan. Todo ello, desde luego, implica altos costos económicos y riesgos de confidencialidad. Resulta necesario, entonces, encontrar un método de predicción automático de la dificultad de las preguntas abiertas y determinar su grado de fiabilidad. Este precisamente fue el objetivo de esta tesis. Para la construcción del modelo predictivo de la dificultad de las preguntas, se utilizó la base de datos de preguntas abiertas y respuestas de estudiantes calificadas SciEntsBank. Se extrajeron tanto manual como automáticamente 51 factores de los 196 ítems del corpus (textos de la pregunta, la respuesta de referencia y la demanda cognitiva). A partir de la combinación racional de los factores, se obtuvieron 10.200 características para cada ítem, y posteriormente se seleccionaron los mejores factores mediante el KBest, un método automático de selección de los mejores factores. A partir de ello, se predijo la dificultad de cada ítem mediante el uso de dos modelos de regresión. Luego de explorar automáticamente entre decenas de miles de modelos usando regresión lineal y máquinas de vectores de soporte, se encontró que el mejor modelo para predecir la dificultad, que oscila entre cero y uno, empleó solamente una de las 10.200 características, log(t6)/log(t{3): la división del logaritmo del número de palabras claves que solo están en la respuesta de referencia, entre el logaritmo del total de palabras claves en el ítem (pregunta y respuesta). Este constituye el aporte fundamental de esta tesis. El grado de error de este modelo estuvo alrededor de 0.16. Fue sorprendente el hallazgo de evidencia empírica de que las populares taxonomías de Bloom y Anderson no contribuyeron a modelar la dificultad del ítem de evaluación de pregunta abierta.Abstract. In the construction of evaluation questions, the evaluator faces the problem of choosing the questions most appropriate to differentiate students according to their level of skill or knowledge in the subject. This election means, on one side, decide on the type of question that best fits the objective sought, and another side, select questions with different levels of difficulty to differentiate levels of knowledge. In relation with the type of question, it has seen the need to put open questions in the tests, in so far as the closed question, although it has been used a lot, it does not allow satisfactorily measure the level aforementioned, because the cognitive ability involved fundamentally in the search of the answer is the recognition of one of the distractors as the element associated with the question. With the open question, however, different cognitive abilities like evocation are evaluated. To select questions with different levels of complexity, the biggest problem facing the evaluator is precisely to know the degree of difficulty associated with each, for which trial tests are regularly done to determine the degree of difficulty of the question according to the quality of the answer to each question by students participating. All this, of course, involves high economic costs and risks of confidentiality.\\ It is necessary, then, to find a method of automatic predicting the difficulty of open questions and determine its degree of reliability. This was precisely the objective of this thesis. To build the predictive model of the difficulty of the questions, the database of open questions and graded student responses SciEntsBank was used. It was extracted both manually and automatically 51 factors out of the 196 items of the corpus (texts of the question, the answer, and cognitive demand). From the rational combination of factors, 10.200 features were obtained for each item, and then the best factors were selected by KBest, an automatic method of selection of the best factors. From this, the difficulty of each item was predicted by using two regression models. After automatically scan between tens of thousands of models using linear regression and support vector machine, it was found that the best model to predict the item difficulty, ranging between zero and one, used only one of the 10.200 features, log(t6)/log(t{3): the division of the logarithm of the number of keywords occurring only in the reference answer, by the logarithm of the total number of keywords in the item (question and answer). This is the fundamental contribution of this thesis. The degree of error of this model was around 0.16. It was surprising the finding of empirical evidence that the popular Bloom's and Anderson's taxonomies did not contribute for modeling the difficulty of an open question.Maestríaapplication/pdfspaUniversidad Nacional de Colombia Sede Bogotá Facultad de Ciencias Humanas Instituto de Investigación en Educación (IEDU)Instituto de Investigación en Educación (IEDU)Dueñas Luna, George Enrique (2016) Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos. Maestría thesis, Universidad Nacional de Colombia - Sede Bogotá.37 Educación / EducationPreguntas abiertasDificultad del ítemTaxonomía de BloomTaxonomía de AndersonPredicción de la dificultadShort-answer questionItem difficultyBloom's taxonomyAnderson's taxonomyPrediction of difficultyPredicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativosTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMORIGINAL80816748.2016.pdfapplication/pdf2070985https://repositorio.unal.edu.co/bitstream/unal/57985/1/80816748.2016.pdfbc2e8b718b9702fce6f8a942327264b3MD51THUMBNAIL80816748.2016.pdf.jpg80816748.2016.pdf.jpgGenerated Thumbnailimage/jpeg5244https://repositorio.unal.edu.co/bitstream/unal/57985/2/80816748.2016.pdf.jpg2d9aae5bab0c85f31bba95ad25ca1320MD52unal/57985oai:repositorio.unal.edu.co:unal/579852023-03-25 23:12:41.184Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.co