Vol. 14 Núm. 1 (2021): Evaluación docente
Artículos

Evaluar el Pensamiento Computacional mediante Resolución de Problemas: Validación de un Instrumento de Evaluación

Beatriz Ortega Ruipérez
Universidad Internacional de La Rioja
Biografía
Mikel Asensio Brouard
Universidad Autónoma de Madrid
Biografía
Portada del volumen 14, número 1, de la revista iberoamericana de evaluación educativa
Publicado abril 28, 2021

Palabras clave:

Resolución de problemas, Instrumento de evaluación, Pensamiento computacional, Validez, Educación permanente
Cómo citar
Ortega Ruipérez, B., & Asensio Brouard, M. (2021). Evaluar el Pensamiento Computacional mediante Resolución de Problemas: Validación de un Instrumento de Evaluación. Revista Iberoamericana De Evaluación Educativa, 14(1), 153–171. https://doi.org/10.15366/riee2021.14.1.009

Resumen

El pensamiento computacional se está evaluando, en la mayoría de los enfoques, a través de elementos de programación. Desde aquí se promueve un enfoque de evaluación desde la resolución de problemas complejos, ya este pensamiento es utilizado como una estrategia de resolución de problemas. En este artículo se valida el constructo teórico de un instrumento de evaluación para medir pensamiento computacional mediante la resolución de problemas complejos, con una batería de pruebas compuesta por 15 ítems. En primer lugar, se describen los principios utilizados para el diseño, principios basados en el enfoque de evaluación de sistemas complejos múltiples y el marco de PISA utilizado en 2012. Posteriormente, se analiza el modelo teórico propuesto de 2 factores: representación del problema y resolución del problema, y varios modelos adicionales con ajustes a partir del modelo teórico. Se determina que el modelo que mejor ajusta es el de 2 factores, coincidiendo con la propuesta teórica. Por último, se realizan análisis, por un lado, de la adecuación de los ítems a cada factor, confirmando así la adecuación de las pruebas, y por otro lado, la correlación entre factores obteniendo un 0,969. Se concluye que el instrumento tiene un grado de validez muy elevado, por lo que resulta adecuado para medir el pensamiento computacional a través de la resolución de problemas. 

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Blackwell, A. F., Church, L. y Green, T. R. G. (2008). The abstract is' an enemy': Alternative perspectives to computational thinking [Comunicación]. 20 Taller annual de Psychology of Programming Interest Group, Lancaster, Reino Unido.

Brennan, K. y Resnick, M. (2012). New frameworks for studying and assessing the development of computational thinking [Comunicación]. Annual meeting of the American Educational Research Association, Vancouver, Canada.

Funke, J. (2001). Dynamic systems as tools for analysing human judgement. Thinking y Reasoning, 7(1), 69-89. https://doi.org/10.1080/13546780042000046

Funke, J. (2013). Human problem solving in 2012. The Journal of Problem Solving, 6(1), 2-19. https://doi.org/10.7771/1932-6246.1156

Funke, J. y Frensch, P. (1995). Complex problem-solving research in North America and Europe: An integrative review. Foreign Psychology, 5, 42-47.

Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R. y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17. https://doi.org/10.7203/relieve.16.2.4138

González-Mayorga, H., Vidal, J. y Vieira, M. J. (2017). El impacto del Informe PISA en la sociedad española: el caso de la prensa escrita. Revista Electrónica de Investigación y Evaluación Educativa, 23(1), 1-17. https://doi.org/10.7203/relieve.23.1.9015

Greiff, S., Holt, D. V. y Funke, J. (2013). Perspectives on problem solving in educational assessment: analytical, interactive, and collaborative problem solving. Journal of Problem Solving, 5(2), 71-91.

Greiff, S., Wüstenberg, S. y Funke, J. (2012). Dynamic problem solving: A new assessment perspective. Applied Psychological Measurement, 36(3), 189-213. https://doi.org/10.1177/0146621612439620

Greiff, S., Wüstenberg, S., Molnár, G., Fischer, A., Funke, J. y Csapó, B. (2013). Complex Problem Solving in Educational Contexts. Something Beyond g: Concept, Assessment, Measurement Invariance, and Construct Validity. Journal of Educational Psychology, 105(2), 364–379. https://doi.org/10.1037/a0031856

Heintz, F., Mannila, L. y Färnqvist, T. (2016). A review of models for introducing computational thinking, computer science and computing in K-12 education [Comunicación]. Frontiers in Education Conference (FIE), Erie, Estados Unidos de América.

Herde, C. N., Wüstenberg, S. y Greiff, S. (2016). Assessment of complex problem solving: What we know and what we don’t know. Applied Measurement in Education, 29(4), 265-277. https://doi.org/10.1080/08957347.2016.1209208

Hsu, T. C., Chang, S. C. y Hung, Y. T. (2018). How to learn and how to teach computational thinking: Suggestions based on a review of the literature. Computers & Education, 126, 296-310.

Huggins-Manley, A. C. y Algina, J. (2015). The Partial Credit Model and Generalized Partial Credit Model as Constrained Nominal Response Models, With Applications in Mplus. Structural Equation Modeling: A Multidisciplinary Journal, 22(2), 308-318. https://doi.org/10.1080/10705511.2014.937374

Koh, K. H., Nickerson, H., Basawapatna, A. y Repenning, A. (2014). Early validation of computational thinking pattern analysis [Comunicación]. 2014 Conference on Innovation and Technology in Computer Science Education, Colorado, Estados Unidos de América.

Kwisthout, J. (2012). Relevancy in problem solving: a computational framework. The Journal of Problem Solving, 5(1), 18-33.

Li, C. H. (2014). The performance of MLR, USLMV, and WLSMV estimation in structural regression models with ordinal variables. Michigan State University.

Lye, S. Y. y Koh, J. H. L. (2014). Review on teaching and learning of computational thinking through programming: What is next for K-12?. Computers in Human Behavior, 41, 51-61.

OECD (2010). PISA 2012 field trial problem solving framework: Draft subject to possible revision after the field trial. Paris: OECD. Recuperado de http://www.oecd.org/pisa/pisaproducts/46962005.pdf.

Olea, J. y Ponsoda, V. (1998). Tests informatizados y adaptativos informatizados: investigación en España. Revista Electrónica de Investigación y Evaluación Educativa, 4(2), art1.

Ortega-Ruipérez, B. (2018). Pensamiento computacional y resolución de problemas. (Tesis doctoral). Universidad Autónoma de Madrid. UAM

Ortega-Ruipérez, B. y Asensio, M. (2018). Robótica DIY: pensamiento computacional para mejorar la resolución de problemas. RELATEC: Revista Latinoamericana de Tecnología Educativa, 17(2), 129-143.

Román, M. y Murillo, F. J. (2009). La evaluación de los aprendizajes escolares: un recurso estratégico para mejorar la calidad educativa, Revista Iberoamericana de Evaluación Educativa, 2(1), 4-9.

Román-González, M., Pérez-González, J. C., Moreno-León. y J., Robles, G., (2018). Can computational talent be detected? Predictive validity of the Computational Thinking Test. International Journal of Child-Computer Interaction, 18, 47-58.

Schleicher, A. (2006). Fundamentos y cuestiones políticas subyacentes al desarrollo de PISA. Revista de Educación, 26, 21-43.

Schoppek, W. (2002). Examples, rules, and strategies in the control of dynamic systems. Cognitive Science Quarterly, 2(1), 63-92.

Tang, X., Yin, Y., Lin, Q., Hadad, R. y Zhai, X. (2020). Assessing computational thinking: A systematic review of empirical studies. Computers & Education, 148, 103798. https://doi.org/10.1016/j.compedu.2019.103798

Wing, J. (2006). Computational thinking. Communications of the ACM, 49, 33-35.

Wing, J. (2014). Computational thinking benefits society. Social Issues in Computing. Academic Press.

Zapata-Ros, M. (2015). Pensamiento computacional: Una nueva alfabetización digital. RED Revista de Educación a Distancia, 46(4).