Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos
En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor...
- Autores:
-
Dueñas Luna, George Enrique
- Tipo de recurso:
- Fecha de publicación:
- 2016
- Institución:
- Universidad Nacional de Colombia
- Repositorio:
- Universidad Nacional de Colombia
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unal.edu.co:unal/57985
- Acceso en línea:
- https://repositorio.unal.edu.co/handle/unal/57985
http://bdigital.unal.edu.co/54495/
- Palabra clave:
- 37 Educación / Education
Preguntas abiertas
Dificultad del ítem
Taxonomía de Bloom
Taxonomía de Anderson
Predicción de la dificultad
Short-answer question
Item difficulty
Bloom's taxonomy
Anderson's taxonomy
Prediction of difficulty
- Rights
- openAccess
- License
- Atribución-NoComercial 4.0 Internacional
id |
UNACIONAL2_70650e7c51745d30da1e084c63aa3641 |
---|---|
oai_identifier_str |
oai:repositorio.unal.edu.co:unal/57985 |
network_acronym_str |
UNACIONAL2 |
network_name_str |
Universidad Nacional de Colombia |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
title |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
spellingShingle |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos 37 Educación / Education Preguntas abiertas Dificultad del ítem Taxonomía de Bloom Taxonomía de Anderson Predicción de la dificultad Short-answer question Item difficulty Bloom's taxonomy Anderson's taxonomy Prediction of difficulty |
title_short |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
title_full |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
title_fullStr |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
title_full_unstemmed |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
title_sort |
Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos |
dc.creator.fl_str_mv |
Dueñas Luna, George Enrique |
dc.contributor.author.spa.fl_str_mv |
Dueñas Luna, George Enrique |
dc.contributor.spa.fl_str_mv |
Jiménez Vargas, Sergio Gonzalo Baquero Velásquez, Julia Marlén |
dc.subject.ddc.spa.fl_str_mv |
37 Educación / Education |
topic |
37 Educación / Education Preguntas abiertas Dificultad del ítem Taxonomía de Bloom Taxonomía de Anderson Predicción de la dificultad Short-answer question Item difficulty Bloom's taxonomy Anderson's taxonomy Prediction of difficulty |
dc.subject.proposal.spa.fl_str_mv |
Preguntas abiertas Dificultad del ítem Taxonomía de Bloom Taxonomía de Anderson Predicción de la dificultad Short-answer question Item difficulty Bloom's taxonomy Anderson's taxonomy Prediction of difficulty |
description |
En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor se ajuste al objetivo buscado, y de otro, seleccionar preguntas con distintos niveles de dificultad que permitan diferenciar los niveles de conocimiento. En relación con el tipo de pregunta, se ha visto la necesidad de introducir las preguntas abiertas en las pruebas, en tanto que la pregunta cerrada, si bien se ha utilizado mucho, no permite medir satisfactoriamente dicho nivel por cuanto la capacidad cognitiva involucrada fundamentalmente en la búsqueda de la respuesta es el reconocimiento de uno de los rae como el elemento asociado a la pregunta. Con la pregunta abierta, en cambio, se evalúan capacidades cognitivas diferentes como la evocación. Para la selección de preguntas con distintos niveles de complejidad, el mayor problema al que se enfrenta el evaluador es precisamente conocer el grado de dificultad asociado a cada una de ellas, para lo cual regularmente, se realizan pilotajes para determinar el grado de dificultad de la pregunta de acuerdo con la calidad de la respuesta dada a cada pregunta por los estudiantes que participan. Todo ello, desde luego, implica altos costos económicos y riesgos de confidencialidad. Resulta necesario, entonces, encontrar un método de predicción automático de la dificultad de las preguntas abiertas y determinar su grado de fiabilidad. Este precisamente fue el objetivo de esta tesis. Para la construcción del modelo predictivo de la dificultad de las preguntas, se utilizó la base de datos de preguntas abiertas y respuestas de estudiantes calificadas SciEntsBank. Se extrajeron tanto manual como automáticamente 51 factores de los 196 ítems del corpus (textos de la pregunta, la respuesta de referencia y la demanda cognitiva). A partir de la combinación racional de los factores, se obtuvieron 10.200 características para cada ítem, y posteriormente se seleccionaron los mejores factores mediante el KBest, un método automático de selección de los mejores factores. A partir de ello, se predijo la dificultad de cada ítem mediante el uso de dos modelos de regresión. Luego de explorar automáticamente entre decenas de miles de modelos usando regresión lineal y máquinas de vectores de soporte, se encontró que el mejor modelo para predecir la dificultad, que oscila entre cero y uno, empleó solamente una de las 10.200 características, log(t6)/log(t{3): la división del logaritmo del número de palabras claves que solo están en la respuesta de referencia, entre el logaritmo del total de palabras claves en el ítem (pregunta y respuesta). Este constituye el aporte fundamental de esta tesis. El grado de error de este modelo estuvo alrededor de 0.16. Fue sorprendente el hallazgo de evidencia empírica de que las populares taxonomías de Bloom y Anderson no contribuyeron a modelar la dificultad del ítem de evaluación de pregunta abierta. |
publishDate |
2016 |
dc.date.issued.spa.fl_str_mv |
2016-11-24 |
dc.date.accessioned.spa.fl_str_mv |
2019-07-02T13:29:55Z |
dc.date.available.spa.fl_str_mv |
2019-07-02T13:29:55Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Maestría |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/masterThesis |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TM |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://repositorio.unal.edu.co/handle/unal/57985 |
dc.identifier.eprints.spa.fl_str_mv |
http://bdigital.unal.edu.co/54495/ |
url |
https://repositorio.unal.edu.co/handle/unal/57985 http://bdigital.unal.edu.co/54495/ |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.ispartof.spa.fl_str_mv |
Universidad Nacional de Colombia Sede Bogotá Facultad de Ciencias Humanas Instituto de Investigación en Educación (IEDU) Instituto de Investigación en Educación (IEDU) |
dc.relation.references.spa.fl_str_mv |
Dueñas Luna, George Enrique (2016) Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos. Maestría thesis, Universidad Nacional de Colombia - Sede Bogotá. |
dc.rights.spa.fl_str_mv |
Derechos reservados - Universidad Nacional de Colombia |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.license.spa.fl_str_mv |
Atribución-NoComercial 4.0 Internacional |
dc.rights.uri.spa.fl_str_mv |
http://creativecommons.org/licenses/by-nc/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Atribución-NoComercial 4.0 Internacional Derechos reservados - Universidad Nacional de Colombia http://creativecommons.org/licenses/by-nc/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
institution |
Universidad Nacional de Colombia |
bitstream.url.fl_str_mv |
https://repositorio.unal.edu.co/bitstream/unal/57985/1/80816748.2016.pdf https://repositorio.unal.edu.co/bitstream/unal/57985/2/80816748.2016.pdf.jpg |
bitstream.checksum.fl_str_mv |
bc2e8b718b9702fce6f8a942327264b3 2d9aae5bab0c85f31bba95ad25ca1320 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad Nacional de Colombia |
repository.mail.fl_str_mv |
repositorio_nal@unal.edu.co |
_version_ |
1814089825733574656 |
spelling |
Atribución-NoComercial 4.0 InternacionalDerechos reservados - Universidad Nacional de Colombiahttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Jiménez Vargas, Sergio GonzaloBaquero Velásquez, Julia MarlénDueñas Luna, George Enrique9a76548f-2ec3-4153-a68d-8c28e834c0bd3002019-07-02T13:29:55Z2019-07-02T13:29:55Z2016-11-24https://repositorio.unal.edu.co/handle/unal/57985http://bdigital.unal.edu.co/54495/En la construcción de preguntas de evaluación, el evaluador se enfrenta al problema de elegir las preguntas más apropiadas para diferenciar a los estudiantes de acuerdo con su nivel de habilidad o conocimiento en el tema. Esta elección supone, de un lado, decidir sobre el tipo de pregunta que mejor se ajuste al objetivo buscado, y de otro, seleccionar preguntas con distintos niveles de dificultad que permitan diferenciar los niveles de conocimiento. En relación con el tipo de pregunta, se ha visto la necesidad de introducir las preguntas abiertas en las pruebas, en tanto que la pregunta cerrada, si bien se ha utilizado mucho, no permite medir satisfactoriamente dicho nivel por cuanto la capacidad cognitiva involucrada fundamentalmente en la búsqueda de la respuesta es el reconocimiento de uno de los rae como el elemento asociado a la pregunta. Con la pregunta abierta, en cambio, se evalúan capacidades cognitivas diferentes como la evocación. Para la selección de preguntas con distintos niveles de complejidad, el mayor problema al que se enfrenta el evaluador es precisamente conocer el grado de dificultad asociado a cada una de ellas, para lo cual regularmente, se realizan pilotajes para determinar el grado de dificultad de la pregunta de acuerdo con la calidad de la respuesta dada a cada pregunta por los estudiantes que participan. Todo ello, desde luego, implica altos costos económicos y riesgos de confidencialidad. Resulta necesario, entonces, encontrar un método de predicción automático de la dificultad de las preguntas abiertas y determinar su grado de fiabilidad. Este precisamente fue el objetivo de esta tesis. Para la construcción del modelo predictivo de la dificultad de las preguntas, se utilizó la base de datos de preguntas abiertas y respuestas de estudiantes calificadas SciEntsBank. Se extrajeron tanto manual como automáticamente 51 factores de los 196 ítems del corpus (textos de la pregunta, la respuesta de referencia y la demanda cognitiva). A partir de la combinación racional de los factores, se obtuvieron 10.200 características para cada ítem, y posteriormente se seleccionaron los mejores factores mediante el KBest, un método automático de selección de los mejores factores. A partir de ello, se predijo la dificultad de cada ítem mediante el uso de dos modelos de regresión. Luego de explorar automáticamente entre decenas de miles de modelos usando regresión lineal y máquinas de vectores de soporte, se encontró que el mejor modelo para predecir la dificultad, que oscila entre cero y uno, empleó solamente una de las 10.200 características, log(t6)/log(t{3): la división del logaritmo del número de palabras claves que solo están en la respuesta de referencia, entre el logaritmo del total de palabras claves en el ítem (pregunta y respuesta). Este constituye el aporte fundamental de esta tesis. El grado de error de este modelo estuvo alrededor de 0.16. Fue sorprendente el hallazgo de evidencia empírica de que las populares taxonomías de Bloom y Anderson no contribuyeron a modelar la dificultad del ítem de evaluación de pregunta abierta.Abstract. In the construction of evaluation questions, the evaluator faces the problem of choosing the questions most appropriate to differentiate students according to their level of skill or knowledge in the subject. This election means, on one side, decide on the type of question that best fits the objective sought, and another side, select questions with different levels of difficulty to differentiate levels of knowledge. In relation with the type of question, it has seen the need to put open questions in the tests, in so far as the closed question, although it has been used a lot, it does not allow satisfactorily measure the level aforementioned, because the cognitive ability involved fundamentally in the search of the answer is the recognition of one of the distractors as the element associated with the question. With the open question, however, different cognitive abilities like evocation are evaluated. To select questions with different levels of complexity, the biggest problem facing the evaluator is precisely to know the degree of difficulty associated with each, for which trial tests are regularly done to determine the degree of difficulty of the question according to the quality of the answer to each question by students participating. All this, of course, involves high economic costs and risks of confidentiality.\\ It is necessary, then, to find a method of automatic predicting the difficulty of open questions and determine its degree of reliability. This was precisely the objective of this thesis. To build the predictive model of the difficulty of the questions, the database of open questions and graded student responses SciEntsBank was used. It was extracted both manually and automatically 51 factors out of the 196 items of the corpus (texts of the question, the answer, and cognitive demand). From the rational combination of factors, 10.200 features were obtained for each item, and then the best factors were selected by KBest, an automatic method of selection of the best factors. From this, the difficulty of each item was predicted by using two regression models. After automatically scan between tens of thousands of models using linear regression and support vector machine, it was found that the best model to predict the item difficulty, ranging between zero and one, used only one of the 10.200 features, log(t6)/log(t{3): the division of the logarithm of the number of keywords occurring only in the reference answer, by the logarithm of the total number of keywords in the item (question and answer). This is the fundamental contribution of this thesis. The degree of error of this model was around 0.16. It was surprising the finding of empirical evidence that the popular Bloom's and Anderson's taxonomies did not contribute for modeling the difficulty of an open question.Maestríaapplication/pdfspaUniversidad Nacional de Colombia Sede Bogotá Facultad de Ciencias Humanas Instituto de Investigación en Educación (IEDU)Instituto de Investigación en Educación (IEDU)Dueñas Luna, George Enrique (2016) Predicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativos. Maestría thesis, Universidad Nacional de Colombia - Sede Bogotá.37 Educación / EducationPreguntas abiertasDificultad del ítemTaxonomía de BloomTaxonomía de AndersonPredicción de la dificultadShort-answer questionItem difficultyBloom's taxonomyAnderson's taxonomyPrediction of difficultyPredicción automática de la dificultad de preguntas abiertas de respuesta corta con propósitos educativosTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMORIGINAL80816748.2016.pdfapplication/pdf2070985https://repositorio.unal.edu.co/bitstream/unal/57985/1/80816748.2016.pdfbc2e8b718b9702fce6f8a942327264b3MD51THUMBNAIL80816748.2016.pdf.jpg80816748.2016.pdf.jpgGenerated Thumbnailimage/jpeg5244https://repositorio.unal.edu.co/bitstream/unal/57985/2/80816748.2016.pdf.jpg2d9aae5bab0c85f31bba95ad25ca1320MD52unal/57985oai:repositorio.unal.edu.co:unal/579852023-03-25 23:12:41.184Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.co |