Parecía una buena idea. Pruebas de diagnóstico.

Me pide el profesor Fernando Trujillo, vía Twitter, que exponga mi opinión sobre las pruebas de diagnóstico, realizándose estos días en los centros en su 4ª edición. Y yo, que tengo un par de inquietudes con el tema le entro al trapo, va por usted, maestro.

Las pruebas se pusieron en marcha en mitad del primer chaparrón PISA, del que luego tendríamos en otro momento una segunda parte con resultados peores que los primeros. La actitud mayoritaria en ese momento entre el profesorado fue: “Otra estratagema de la administración para sacar mejores datos en PISA”. Y se rebotaron. Necesario es recordar que, en esos momentos, hace cuatro años, aún no se había hablado nada de las competencias básicas, sólo algunos que seguíamos el tema admirábamos (espantados por otra parte) la trascendencia que se les estaba dando en las nuevas leyes educativas. 

Entonces tenemos: unos profesores que no entienden (mayoritariamente) qué se les está pidiendo para evaluar, y cabreados porque “por ‘intereses políticos’ yo me tengo que joder el puente corrigiendo pruebas que no me pagan”. El punto de partida para un evaluador ecuánime no parecen las óptimas. Ahora, después de un par de años de trabajo con las competencias, estamos generalizando la inquietud de qué complicado es evaluar competencias. Hace cuatro años, ni eso. El profesorado, en general, ha corregido las pruebas como si fueran exámenes.
La evaluación de competencias no es más complicada que otras evaluaciones, desde luego sí más que corregir un examen, pero si tengo que empezar por aquí no sigo. Los exámenes no evalúan. Normalmente juzgan sobre bases aleatorias o cosas peores. Desde luego requiere aprendizaje de destrezas nuevas, pero interesantes, por ejemplo, las competencias no se miden por errores, sino por logros. Parece simple y correcto, pero no es tan simple porque no estamos acostumbrados, nos centramos tradicionalmente en la detección y señalamiento del error. Penalizándolo, como si fuera posible aprender sin ellos.

Por su parte, el alumnado se toma las pruebas a poco menos que chufla, pues la prueba sigue sin contar para la nota, y la hacen como un ejercicio en el patio. Pero estando acostumbrados a hacer exámenes, han tenido y tienen dificultades para saber qué se les pregunta. No esperan que se les pregunte lo obvio, el significado, buscan el truco, la palabra clave que “hay que saber”. Pero tengo más datos, aprovechando estar casado con profe de Lengua, en general los buenos alumnos que no fallan ni una pregunta de opción múltiple, o de señalar palabras, o unir conceptos con una flecha, se vuelven mudos en cuanto la pregunta les requiere redactar más de una frase. Literal lo que veo, y me confirman los profesores-as con quien consulto. El esfuerzo de un centímetro de trazo de boli lo hacen, más no.

Y por último: ¿Cómo evaluar competencias en donde no se trabajan competencias ni se sabe de qué se está hablando? Es complicado. 
En cuanto a las pruebas en sí, debo recordar que provengo de ELE y hace décadas, 2 que evalúo competencias comunicativas centrado en las macrodestrezas: hablar, oír, escribir y leer. Los primeros 2 años se veía de lejos que las pruebas parecían evaluar competencias, pero estaban echas por un neófito. La del año pasado mejoró ostensiblemente, no sé por qué pues no he podido obtener información de quién las está haciendo. Y este año parecen otra vez más flojas. 
Por ejemplo, si un texto dice que “el hurón persiguió a la presa hasta su escondite”, no se puede preguntar para saber si se ha entendido el texto: “¿Hasta dónde persiguió a la presa el hurón?”. Este tipo de preguntas obvias no evalúan nada precisamente por su obviedad. Pongamos otro ejemplo: en la comunidad de Madrid, las competencias básicas, un acuerdo a nivel europeo, las “mejoran” llamándolas “destrezas indispensables”, y tienen unas pruebas llamadas CDI, y en todas, en la prueba de Lengua la primera “destreza indispensable” es un dictado.

Como todos sabemos, copiar al dictado es una tarea fundamental de la vida, que hacemos prácticamente todos los días, y en todos los entornos sociales. Es para tirarse de los pelos. Pero cómo se está permitiendo que los políticos reinventen la realidad a su favor pervirtiendo los principios, las ciencias o la verdad, es algo que no quiero comentar ahora.

¿De qué estoy hablando cuando digo como una señal de una mala prueba de competencias que hay preguntas obvias que no evalúan? Tomo como ejemplo la segunda pregunta de una comprensión lectora de las pruebas CDI (conocimientos y destrezas imprescindibles) de Lengua de secundaria de Madrid de 2007. La pregunta dice: “¿Qué nación venció en la batalla de Trafalgar?” En el texto dice: “Fue un combate muy duro que terminó con la victoria inglesa.” Una pregunta como esta sólo evalúa que el alumno está presente y … nada más.

¿Qué significa que hay distractores que no lo son en las pruebas? De un texto escrito puedes hacer preguntas abiertas, que contendrán respuestas abiertas, muy complicadas para evaluar. ¿Cómo obtener la información de si un alumno-a sabe cierto conocimiento concreto? Bueno, hace muchos años que se pensó en la pregunta de opción múltiple como la más viable, especialmente porque los distractores son los que ponen a prueba el conocimiento o capacidad de la persona, y evitan en lo posible la realidad de que con 4 distractores, el alumno tiene de entrada un 25 % de posibilidades de acertar a priori. Por lo que la calidad de los distractores se vuelven elemento esencial.

Sin duda que la calidad de los distractores ofrece también mucha información sobre las destrezas finas que se tienen en la evaluación de competencias. ¿Qué problema hay con un distractor malo? Pues muy simple, que acabas de regalar el aprobado, pues uno que es de verdad, y uno que seguro que no es,  es un 50 % de aprobado a priori, lo que no parece muy profesional.

Iba a poner algún ejemplo de las pruebas de este año, pero como no quiero

hurgar herida alguna, sino aportar un punto de vista. Lo dejo aquí. No sin antes mencionar mi sospecha de que los números que se están manejando, dado el panorama, bien pudieran no tener nada que ver con la realidad.

Related Posts Plugin for WordPress, Blogger...

2 Respuestas a Parecía una buena idea. Pruebas de diagnóstico.


  1. Fatal error: Uncaught Error: Call to undefined function ereg() in /homepages/14/d321998377/htdocs/wp-content/themes/Canvas/canvas/includes/theme-comments.php:64 Stack trace: #0 /homepages/14/d321998377/htdocs/wp-content/themes/Canvas/canvas/includes/theme-comments.php(19): the_commenter_link() #1 /homepages/14/d321998377/htdocs/wp-includes/class-walker-comment.php(180): custom_comment(Object(WP_Comment), Array, 1) #2 /homepages/14/d321998377/htdocs/wp-includes/class-wp-walker.php(146): Walker_Comment->start_el('', Object(WP_Comment), 1, Array) #3 /homepages/14/d321998377/htdocs/wp-includes/class-walker-comment.php(140): Walker->display_element(Object(WP_Comment), Array, '5', 0, Array, '') #4 /homepages/14/d321998377/htdocs/wp-includes/class-wp-walker.php(371): Walker_Comment->display_element(Object(WP_Comment), Array, '5', 0, Array, '') #5 /homepages/14/d321998377/htdocs/wp-includes/comment-template.php(2096): Walker->paged_walk(Array, '5', 0, 0, Array) #6 /homepages/14/d321998377/htdocs/wp-content/themes/Canvas/canvas/co in /homepages/14/d321998377/htdocs/wp-content/themes/Canvas/canvas/includes/theme-comments.php on line 64