Inconsistencia de las pruebas PISA

Publicado: 01/06/2014
Inconsistencia de las pruebas PISA Esta semana se vuelve a hablar de las pruebas PISA. Se leen titulares como el siguiente: “Los alumnos españoles suspenden las pruebas de habilidades prácticas del informe PISA”, sin embargo es preciso cuestionar la validez y fiabilidad de este instrumento que
Esta semana se vuelve a hablar de las pruebas PISA. Se leen titulares como el siguiente: “Los alumnos españoles suspenden las pruebas de habilidades prácticas del informe PISA”, sin embargo es preciso cuestionar la validez y fiabilidad de este instrumento que sólo sirve para clasificar sistemas educativos.  Cuando de un instrumento de medida se trata es, clásico y aceptado por toda la comunidad científica, que debe ser fiable y válido.  Fiable, en el sentido de que sea posible volver a medir, y la diferencia observada sea casi inexistente, o más bien que su exactitud se tal que al medir lo mismo el resultado sea idéntico al anteriormente obtenido.  Cuando se habla de la validez del instrumento, se hace referencia a que es adecuado para medir lo que se pretende medir. Un ejemplo claro: No es posible medir la altura de alguien con una báscula.  Ésta es válida para medir pesos, no alturas.
Pues bien desde el gabinete de innovación e investigaciones de CGT se vienen realizando estudios sobre la validez y fiabilidad de las pruebas PISA, y no queda suficientemente claro que las pruebas se apliquen con el control de las variables que le confieren fiabilidad.  Por supuesto que  al no tener este requisito, las conclusiones serán erróneas.
De hecho la pregunta que se hace la CGT es si las pruebas PISA en realidad lo que vienen a informar es de la  mayor o menor desgana con que el alumnado, de ciertos países y contextos, las contesta.  Precisamente se ha requerido información, de la agencia española, que coordina la aplicación de las pruebas PISA, es decir, el Instituto Nacional de Evaluación Educativa (INEE), sobre cómo se controla  la actitud del alumnado que contesta las pruebas. Se tiene constancia, por la información que aportan algunos profesores, que algún alumnado deja preguntas sin responder, y que algunos de ellos han manifestado su escaso interés por "calentarse el coco" literalmente hablando.  Como la  actitud del alumnado, al afrontar la cumplimentación  de las  pruebas, es esencial para poder considerar el resultado obtenido,  solicito CGT a ese INEE información sobre que actuaciones están  diseñadas para controlar esta potente variable.
El INEE aporta, del  informe técnico de PISA 2009,  como se tratan los ítems "missing" (no respondidos) y los "not reched" (que se han dejado al final sin contestar). Además, se pueden encontrar una serie de tablas con el número medio de ítems en esas situaciones en cada país. Además se aporta información del tratamiento estadístico de estas preguntas no respondidas.  Además en el cuestionario que el alumnado tiene que cumplimentar se le pregunta por ejemplo ¿Qué nivel de esfuerzo has tenido que hacer? O esta otra ¿Qué nivel de esfuerzo habrías dedicado si las notas de esta prueba formaran parte de tu calificación escolar?
Tanto este cuestionario,  como el estudio estadístico  de los resultados, siempre a posteriori, no aportan ningún elemento de control de variables tan potentes como la actitud, con la que cada alumna o alumno se enfrenta a la prueba. De la motivación inicial depende casi todo el resultado que se obtenga. Por ello mientras no se controlen variables de este tipo el diseño no es fiable, no pudiendo predicarse sobre las competencias a valorar del alumnado participante, ya que se desconoce la actitud con la que lo hace.

Fdo Rafael Fenoy Rico   Comunicación Educación CGT

© Copyright 2025 Andalucía Información