Conocimiento, demanda cognitiva y contextos en la evaluación de la alfabetización científica en PISA

  1. Rosales Sánchez, Eva María 2
  2. Rodríguez Ortega, Pilar Gema 1
  3. Romero Ariza, Marta 2
  1. 1 Universidad de Córdoba
    info

    Universidad de Córdoba

    Córdoba, España

    ROR https://ror.org/05yc77b46

  2. 2 Universidad de Jaén
    info

    Universidad de Jaén

    Jaén, España

    ROR https://ror.org/0122p5f64

Revista:
Revista Eureka sobre enseñanza y divulgación de las ciencias

ISSN: 1697-011X

Año de publicación: 2020

Volumen: 17

Número: 2

Páginas: 2302

Tipo: Artículo

DOI: 10.25267/REV_EUREKA_ENSEN_DIVULG_CIENC.2020.V17.I2.2302 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Revista Eureka sobre enseñanza y divulgación de las ciencias

Resumen

La alfabetización científica responde a qué es importante saber, valorar y saber hacer en situaciones en las que intervienen la ciencia y la tecnología y como objetivo educativo, requiere un cuestionamiento de las formas de enseñar y evaluar el aprendizaje de las ciencias. Este trabajo presenta el análisis sistemático de 106 ítems de las pruebas realizadas entre los años 2000 y 2015 dentro del programa PISA (Programme for International Student Assessment). La finalidad es analizar el tipo de conocimiento evaluado y el papel que los contextos y la demanda cognitiva juegan en la evaluación de la alfabetización científica en dicho programa. Los resultados muestran que las actividades se ubican mayoritariamente en contextos cotidianos o utilitarios y requieren no solo el dominio de conceptos científicos, sino también la comprensión de aspectos epistémicos de la ciencia con una infrarrepresentación de aspectos procedimentales. El análisis bidimensional del tipo de conocimiento evaluado y la demanda cognitiva exigida muestra que más del 80% de las actividades se asocian con una demanda cognitiva baja (recordar y comprender). Los resultados sugieren la necesidad de reforzar el número de actividades que requieren la aplicación, evaluación y creación de conocimiento con objeto de enfatizar habilidades cognitivas de orden superior, especialmente relevantes en un mundo dominado por la ciencia y la tecnología

Referencias bibliográficas

  • Amer, A. (2006). Reflections on Bloom’s revised taxonomy. Electronic Journal of Research in Educational Psychology, 8(4), 213-230.
  • Avargil, S., Herscovitz, O. y Dori, Y. J. (2012). Teaching thinking skills in context-based learning: Teachers’ challenges and assessment knowledge. Journal of Science Education and Technology, 21, 207-225.
  • Bennett, J., Lubben, F. y Hogarth, S. (2007). Bringing science to life: a synthesis of the research evidence on the effects of context‐based and STS approaches to science teaching. Science Education, 91(3), 347-370.
  • Cañal, P. (2004). La alfabetización científica: ¿necesidad o utopía? Cultura y Educación, 16(3), 245-257.
  • Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.
  • Cañas, A. M. y Nieda, J. (2013) Una forma de trabajar la competencia científica en el aula. Revista Digital de Educación y Formación del Profesorado, 10, 35-47.
  • Crujeiras-Pérez, B. y Jiménez-Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401.
  • Díaz, M. V. y Poblete, A. (2001). Contextualizando tipos de problemas matemáticos en el aula. Números, 45, 33-41.
  • Dori, Y. J., Avargil, S., Kohen, Z. y Saar, L. (2018). Context-based learning and metacognitive prompts for enhancing scientific text comprehension. International Journal of Science Education, 40(10), 1198-1220.
  • Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R., y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17.
  • Gobierno de España. Ministerio de Educación, Cultura y Deporte (2017). El Bienestar de los Estudiantes. Resultados de PISA 2015. Recuperado de: https://sede.educacion.gob.es/publiventa/d/22091/19/00 [Consultado 24/07/2019]
  • Gutiérrez, A. (2006). PISA y la evaluación de la alfabetización científica. Investigación en la Escuela, 60, 65-77.
  • Instituto Nacional de Evaluación Educativa (2015). Preguntas liberadas de PISA como recursos didácticos de las Ciencias. Recuperado de: http://educalab.es/inee/evaluaciones-internacionales/preguntas-liberadas-pisa-piaac/preguntas-pisa-ciencias [Consultado 24/07/2019]
  • King D. (2016) Teaching and Learning in Context-Based Science Classes. En: Taconis R., Brok P.., Pilot A. (eds) Teachers Creating Context-Based Learning Environments in Science. Advances in Learning Environments Research. SensePublishers, Rotterdam.
  • Krathwohl, D. R. (2002). A revision of Bloom's taxonomy: an overview. Theory into practice, 41(4), 212-218.
  • Muñoz, J. y Charro, E. (2018). La interpretación de datos y pruebas científicas vistas desde los ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101-2121.
  • OCDE (2003). The PISA 2003 Assessment Framework. Mathematics, Reading, Science and Problem Solving, Knowledge and Skills. París, Francia: OECD publishing.
  • OCDE (2009). El Programa PISA de la OCDE. Qué Es y Para Qué Sirve. París, Francia: Santillana.
  • OCDE (2016a). PISA 2015. Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. Paris, France: OECD Publising. doi: 10.1787/9789264255425-en
  • OCDE (2016b). PISA 2015. Country Overview (Spain). Recuperado de: http://www.compareyourcountry.org/pisa/country/esp?lg=en [Consultado 24/07/2019]
  • OCDE (2016c). PISA 2015. Resultados Clave. París, Francia: OECD publising.
  • OCDE (2017), Marco de Evaluación y de Análisis de PISA para el Desarrollo: Lectura, matemáticas y ciencias, Versión preliminar, OECD Publishing, Paris.
  • OCDE (2019). PISA 2018. Assessment and Analytical Framework, Paris, France: OECD Publishing. doi: 10.1787/b25efab8-en
  • Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.
  • Pérez-Martín, J. M. (2018). Un viaje en el tiempo por la alfabetización científica en España. Revista de Didácticas Específicas, 18, 144-166.
  • Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobre sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 286-299.
  • Romero-Ariza, M. y Quesada, A. (2015). Is the science taught useful to explain daily phenomena? A qualitative study with pre-service teachers. En: ICERI2015 Proceedings (pp. 2150-2156). Sevilla, España: IATED Academy.
  • Sanmartí, N. y Márquez, C. (2017). Aprendizaje de las ciencias basado en proyectos: del contexto a la acción. Ápice. Revista de Educación Científica, 1(1), 3-16.
  • Sevian, H., Dori, Y. J. y Parchmann, I. (2018). How does STEM context-based learning work: what we know and what we still do not know. International Journal of Science Education, 40(10), 1095-1107.
  • Ültay, N. y Çalık, M. (2012). A thematic review of studies into the effectiveness of context-based chemistry curricula. Journal of Science Education and Technology, 21, 686-701.
  • Vázquez-Alonso, A. y Manasserom M. A. (2018). El conocimiento epistémico en la evaluación de la competencia científica en PISA 2015. Revista de Educación, 380, 103-128.