El pasado lunes 23 de junio impartí en la Escuela de Enfermería y Fisioterapia
de la Universidad de Casilla-La Mancha, la primera sesión presencial de un
curso titulado: “Evaluación en grados sanitarios: cómo evaluar competencias con
sentido común y los pies en el suelo”. Este curso usa una metodología de
blended learning que combina envío de materiales por medios electrónicos para el
estudio previo a las dos sesiones presenciales.
Fase de estudio previo
El curso empezó con un primer e-mail de bienvenida dirigido a los
participantes, en el cual les sugeríamos que contestasen a un cuestionario de
expectativas previas localizado en el link.
Se pidió a los participantes como tarea de preparación para el
curso que reflexionasen seriamente sobre una serie de preguntas relacionadas
con los sistemas de evaluación que utilizan en sus asignaturas.
En un segundo e-mail os propuse estudiar una presentación sobre evaluación de competencias.
y ver un vídeo sobre el enfoque de enseñanza
funcional en medicina.
En un tercer mail os propuse leer una presentación en la que se
iba a centrar el curso ¿Qué tiene que decir la investigación acerca de la
evaluación de competencias?
En un cuarto mensaje os envié otros dos documentos. Una
presentación sobre cómo hacer que nuestra evaluación continua sea más formativa
y eficiente.
Y otra sobre evaluación de competencias genéricas (que me había
sido solicitada por varios participantes en sus cuestionarios de expectativas).
También os propuse ver una serie de videos que ilustraban el
concepto del alineamiento constructivo y resaltan la
importancia del sistema de evaluación para conseguir los resultados de
aprendizaje que deseamos..
Resumen de la primera sesión presencial
En la primera sesión presencial del curso en Evaluación en grados sanitarios: cómo evaluar competencias con sentido
común y los pies en el suelo empezamos puntualmente
a las 9,30 poniendo como premio para los más puntuales, el famoso vídeo de la Universidad en Cinco Minutos.
Nos reímos bastante con esta parodia de
la enseñanza universitaria llevada al extremo del absurdo.
En ella el monologista, que se propone fundar un nuevo tipo de Universidad propone
que su institución otorgue títulos universitarios en cinco minutos en los que
sólo se enseñará a los alumnos, precisamente aquello que el graduado medio recuerda cinco
años después de terminar sus estudios de grado.
Después discutimos sobre el aspecto serio de este
monólogo de humor. La corta duración de muchos de los aprendizajes que nuestros
alumnos adquieren para superar los innumerables exámenes que les sirven para ir
aprobando las sucesivas asignaturas.
Si en
estos exámenes evaluamos cosas que pueden haberse aprendido la noche anterior, es casi seguro que ese aprendizaje será de muy corta duración. En países como
Holanda las facultades de Medicina realizan 4 progress tests anuales durante
todos los años del currículo en los que evalúan de manera interdisciplinar el
progreso en el dominio completo de los conocimientos que deben tener los
graduados en medicina y que cubre las
áreas más importantes de las ciencias básicas, clínicas, del comportamiento y
de la salud pública.
Los progress tests son como un examen MIR, tienen
formato MCQ y la prueba esta diseñada de
manera que, por su profundidad, amplitud y exhaustividad, los alumnos no puedan
prepararse mediante una rápida memorización de contenidos y de este modo no
tienen más remedio que ir adquiriendo conocimientos continuamente y de forma
que puedan movilizarlos en el momento en el que se les pida.
Los
resultados de cada alumno se acumulan en un registro electrónico de manera que
se puede seguir su progresión en la adquisición de conocimientos. Cada alumno
recibe información detallada sobre sus propios resultados, lo cual le hace
consciente del estado de sus conocimientos con respecto al nivel que deberá
adquirir para su graduación.
Este vídeo subtitulado al español cuenta que son los progress test que hacen en las facultades de medicina holandesas
Este vídeo subtitulado al español cuenta que son los progress test que hacen en las facultades de medicina holandesas
El análisis de la información proporciona
información muy valiosa para los profesores y tutores sobre el progreso de los
alumnos a su cargo. Este procedimiento permite detectar precozmente a los
estudiantes con problemas de aprendizaje graves. Dijimos que esto era un
ejemplo de cómo abordar la evaluación del aprendizaje de los alumnos con una
perspectiva de facultad o escuela con un enfoque (comprehensive) que abarcaba
el currículo formativo en toda su amplitud y longitud.
Pusimos los progress tests y los ECOES como
ejemplos de una evaluación programática global planteada por la institución
docente y la contrastamos con la
evaluación que puede plantearse desde la perspectiva de las asignaturas
individuales. Escocidos por el 5-1 que nos metieron los holandeses en el pasado mundial nos parecia recochineo el que encima evaluen mucho mejor a sus alumnos de medicina. Comentamos que la
dificultad de organizar sistemas de evaluación con óptica de facultad en España
era una muestra de lo lejos que estamos de Holanda (no en futbol sino en la
educación de las profesiones sanitarias).
Empezamos con una presentación de la
agenda del curso e introduciendo los distintos temas que íbamos a tratar.
Indiqué que el curso se iniciaba con
estudio previo a las sesiones presenciales, estudio entre las sesiones
presenciales y finalmente continuaría tras las sesiones presenciales con envíos
de información a mis exalumnos de formación de profesorado. Los participantes
en este curso pasarán a formar parte de la comunidad de casi 2.500 profesores
españoles que han sido alumnos de mis cursos de formación de profesorado y
reciben noticia de los recursos que voy desarrollando siguiendo mi blog profesor 3.0 y mis twitts como @alfredoprietoma.
Dijimos que en la primera sesión
trataríamos tres puntos principales:
1 Comentarios del profesor a vuestras
respuestas a los cuestionarios de expectativas.
2 ¿Qué tiene que decir la
investigación sobre la evaluación de las competencias?
3 Experimentación de metodologías para
evaluación formativa que usan tarjetas de respuesta y preguntas de elección de
respuesta entre múltiples opciones.
Comentarios del profesor a vuestras respuestas a los cuestionarios de expectativas
Empezamos comentando los cuestionarios
de expectativas recogidos por medio de la aplicación Survey monkey.
Empezamos por el de Carmen Torres Valdivieso que fue la primera en contestar.
Su cuestionario fue además muy representativo de comentarios compartidos por
otros compañeros participantes en el curso. En relación a las cosas que
logramos que los alumnos aprendan gracias al sistema de evaluación que
empleamos, Carmen señalaba (como también lo hacían otros compañeros) los
conocimientos básicos de su asignatura e incluso las relaciones entre ellos. Sin
embargo, señalaba como pendiente de lograr un uso más fluido y sofisticado del
lenguaje y un mayor desarrollo de la
competencia para el razonamiento crítico.
Carmen señalaba que sus alumnos, no
dedicaban el tiempo de trabajo suficiente en las partes iniciales de los
cuatrimestres y tendían a esforzarse principalmente al final. Comenté que este
era un problema muy frecuente que estaban intentando resolver las metodologías
de clase inversa o flipped clasroom. En estas metodologías se pide a los
alumnos que estudien por si mismos los materiales antes de tratarlos en clase.
Comentamos el hecho de que los alumnos
tienden a esforzarse más al final cuando la evaluación se acerca y cómo
podríamos usar ese impulso a estudiar justo antes del examen para hacer que
nuestros alumno estudien antes del principio de cada tema poniéndoles una
examen formativo o tareas de comprobación en cada tema.
Este principio es explotado por la pedagogía inversa o flipped classroom en la que pedimos a los alumnos que estudien el siguiente tema antes de que se lo expliquemos. Para aumentar su motivación para hacer este estudio previo se bonifica a los alumnos que estudian antes de cada tema y realizan una tarea o prueba de comprobación.
Este principio es explotado por la pedagogía inversa o flipped classroom en la que pedimos a los alumnos que estudien el siguiente tema antes de que se lo expliquemos. Para aumentar su motivación para hacer este estudio previo se bonifica a los alumnos que estudian antes de cada tema y realizan una tarea o prueba de comprobación.
En el just in time teaching la tarea
del alumno es responder a un cuestionario de preguntas abiertas por ejemplo:
•1. Apellidos y nombre (primero apellidos
para ordenaros alfabéticamente)
• 2. Indica cuál te parece la idea más importante o interesante
que has aprendido en este tema y justifica por qué.
• 3. ¿Qué parte del tema te parece más necesario profundizar en
clase? ¿Por qué?
• 4. ¿Qué es lo que te ha quedado menos claro del tema? ¿por qué?
• 5. ¿Qué pregunta te gustaría que te respondiéramos el primer
día? ¿por qué?
• 6. ¿Que parte no necesitas que te expliquen? ¿por qué?
• 7. Resume lo más importante del tema en menos de 200
palabras.
• 8. Comenta algo acerca de lo que has comprendido al ver cada uno de los
vídeos recomendados en el tema
• 9. ¿Cuánto tiempo has tardado en leer las diapositivas
intentando entenderlas, ver los vídeos y contestar a este cuestionario
(indícalo en minutos)?
• 10. Pon un tu e-mail de contacto por si te tenemos que pedir que lo vuelvas a reestudiar y volver a contestar mejor a las preguntas del cuestionario
Comenté que para que la supervisión de
estos cuestionarios no se convirtiese en
algo que esclavizase al profesor era conveniente semiautomatizar el proceso de
control y calificación, renunciar a la pretensión de proporcionar un feedback
personalizado salvo en aquelllos casos especiales que lo necesiten especialmente un correctivo urgente (los que te responden de una manera tan chapuza que demuestran que no se han mirado casi el tema).
A la inmensa mayoría les podemos proporcionar feedback colectivamente, por
ejemplo respondiendo a la lista de
preguntas urgentes de nuestros alumnos.
Comente que en la segunda sesión
presencial del curso veríamos otras metodologías de fomento del estudio previo
que utilizan preguntas MCQ para comprobar el estudio previo de nuestros
alumnos.
Demostré
que el fomento del estudio previo a las clases es una metodología con tradición
en las mejores universidades del mundo. Pusimos primero un vídeo para que se
viese como los profesores más huesos de Harvard comprobaban el estudio previo
por medio del método de la “llamada sin aviso” o “llamada en frio” (cold call). Estos profesores enviaban a
sus alumnos el mensaje de que para aprender más y aprobar en su asignatura había
que estudiar antes de las clases y prepararse para discutir los casos en público.
Comprobación
del estudio previo a la vieja usanza de Harvard
Después comentamos
que afortunadamente las metodologías habían evolucionado
mucho y ahora podía conseguirse que nuestros alumnos se preparasen para
las clases usando las metodologías de enseñanza inversa flipped learning e incluso
enviarles explicaciones en vídeo y podcast. Vimos el vídeo en el que Aaron Sams
nos cuenta en qué consiste la metodología de flipped classroom.
En cuanto a la pregunta urgente de
Carmen sobre si profesores y alumnos
llegaremos algún día a encontrarnos en una situación de encuentro más que de
desencuentro y lleguemos actuar como un equipo con objetivos comunes. Se
comentó que esto requiere mucho dialogo y comprensión del punto de vista del
otro. En fin, el establecimiento de una relación de ayuda y un sentimiento de
empatía mutua. A este dialogo ayudan
mucho las metodologías de enseñanza inversa con su flujo de comunicación bidireccional
entre el profesor y sus alumnos. Con esto nos llego la hora del recreo a mitad
de la mañana.
Tras el recreo pusimos como premio a
los que regresaron con más puntualidad, un vídeo en el que el profesor Kingsfield
explicaba a sus alumnos cual era la esencia del método socrático.
¿Qué tiene que decir la investigación sobre la evaluación de las competencias?
Empezamos la segunda parte de la sesión
con la presentación ¿Que tiene que decir
la investigación sobre la evaluación de competencias? basada en la conferencia
impartida por Cees van der Vleuten en el Karolinska Institutet con motivo de la
concesión del premio de este instituto en la modalidad de Educación Médica.
Empecé comentando las características de los instrumentos de
evaluación: Validez, Fiabilidad, Impacto educativo, Aceptabilidad
y Coste. A continuación expliqué el concepto de compromiso en
evaluación del aprendizaje de competencias. El compromiso es comprender que no
podemos tenerlo todo en nuestro sistema de evaluación. Tenemos que escoger qué características reforzaremos y cuales son menos esenciales y por tanto podemos
comprometer sin perder lo que más queremos lograr.
Dependiendo de del tipo y la utilidad de la evaluación deberemos
comprometer aquellas características de
las que podamos prescindir en cada caso. En la evaluación formativa la utilidad principal es el impacto
educativo: Esto incluye estimular el esfuerzo de los alumnos, con situaciones lo más auténticas posibles que proporcionen
ocasiones para el ejercicio de competencias y la generación de feedback a partir de ellas.
Esta evaluación formativa debe tener una cierta valoración para que tanto los
profesores como los alumnos se la tomen en serio. Sin embargo, no se tomarán a
partir de ella decisiones de alta repercusión y por tanto no debemos
preocuparnos excesivamente de la fiabilidad en la calificación. La evaluación continua no tiene
repercusiones drásticas e irreparables. Un examen de sólo 10 preguntas MCQ nos
puede valer para hacer la evaluación formativa de un tema para estimular el
estudio de los alumnos y para dar pie a la discusión y el feedback. Desde luego
la nota obtenida por cada alumno no será muy fiable (y si es on line nada fiable) pero no debemos
preocuparnos por ello si el peso de este examen en la calificación es escaso
(un 1% de la calificación final).
Sin embargo, en una prueba de evaluación acreditativa, en la que
cada alumno se juega una parte importante de la nota (por ejemplo un 35% de la
calificación) y que pesará decisivamente en la calificación de nuestros alumnos,
no podemos comprometer su seguridad, fiabilidad y validez. Deberemos esforzarnos por que
sean lo más altas posible.
La investigación en fiabilidad
de pruebas de evaluación demuestra que ningún instrumento de evaluación puede
evaluar con una fiabilidad superior a 0,80 en menos de 2 horas de prueba. Por
tanto la evaluación formativa y la acreditativa son distintas en sus utilidades
y en los compromisos que debemos adoptar en ellas.
Despues tratamos el problema que supone realizar una evaluación acreditativa en condiciones de autenticidad (que la prueba se parezca a la práctica profesional real). Si el objetivo es evaluar competencias clínicas al nivel de “demuestra
como” de manera acreditativa por ejemplo por medio de un ECOE no bastan los recursos de una asignatura se
necesitan los recursos de una escuela o facultad. Sin embargo para hacer evaluación formativa a este nivel
en el que no se pretende medir de un modo fiable sino tener un impacto formativo positivo, podemos usar ECOEs en las que algunos alumnos harán de pacientes y otros de tribunal.
Desde luego que su resultado no será una medida fiable, pero servirá para que
los alumnos aprendan y se entrenen para mejorar su desempeño en las ECOEs realmente acreditativas.
Otro ejemplo de diferencia de enfoque entre evaluación formativa y acreditativa es pretender usar pruebas de test de las que se usan para evaluación acreditativa para comprobar el estudio previo de los alumnos. Se comentó que los alumnos suelen hacer trampas en este tipo de evaluación on line que no es nada segura. Comente que es un grave error aplicar esquemas de evaluación acreditativa cuando queremos realizar evaluación formativa y queremos que el alumnos reflexione sobre lo que ha estudiado y de esa manera nos demuestre que ha estudiado. Pero para que nuestra evaluación continua y formativa sea más
eficiente debemos aprender a usar herramientas que nos la faciliten ahorrando
parte del tiempo que el profesor deberá dedicar a su revisión. A este fin nos
ayudarán los cuestionarios on line y las
herramientas de evaluación por compañeros (Taller de Moodle) y rúbricas. Si
queremos usar exámenes MCQ para la evaluación formativa on line (tal vez no sea la mejor estrategia) deberemos automatizar
su proceso de corrección y estar preparados para que si ofrecemos la oportunidad (por ejemplo ofreciendo feedback automático e inmediato) los alumnos nos hagan trampas soplando en face book las respuestas correctas a sus compañeros.
Por otro lado, debemos aumentar la fiabilidad de la evaluación
acreditativa por ejemplo realizando exámenes que combinen distintos
instrumentos: por ejemplo un 50% de la calificación por MCQ y otro 50% por preguntas
de respuesta escrita que incluyan preguntas de respuesta corta y la resolución problemas
y casos, así como alguna pregunta que permita evaluar la estructura de
comprensión de relaciones entre distintos conceptos. Este tipo de exámenes tendrá
alta fiabilidad y tendrá un impacto favorable en el tipo de estudio que
inducirá pero nos dará mucho trabajo de diseño y de corrección. Se comentó que
sería mucho más cómodo para el profesor evaluar todo con MCQ pero que eso
tendría un impacto muy negativo en el aprendizaje al inducir una preparación
exclusiva para test que se queda en un estudio memorístico y superficial así
como de estudio de preguntas de exámenes
pasados.
Se comentó que si les pedimos a nuestros alumnos que nos hagan
preguntas sobre las dudas que no comprenden podemos respondérselas colectivamente pero
indicándoles que las respuestas a esas preguntas pueden ser materia de examen.
A continuación presentamos la pirámide de Miller que define los
distintos niveles de autenticidad profesional a los que se pueden evaluar las competencias.
También comentamos que los instrumentos de evaluación tienen un formato
del estímulo y un formato de recogida de la respuesta y los relacionamos con
los niveles de evaluación en la pirámide de Miller. Presentamos que formatos de
estímulos y de recogida de respuesta son adecuados para evaluar competencias a distintos niveles de
la pirámide de Miller.
También dijimos que para los tres niveles inferiores tenemos
métodos de evaluación estandarizada mientras que para el nivel superior solo
podemos evaluarlo de una manera no estandarizada.
A continuación expuse y comenté los seis principios de evaluación
estandarizada del aprendizaje
1.
La competencia es específica (de
ciertos contextos), no genérica.
2.
La objetividad no es lo mismo que la
fiabilidad.
3.
El formato del estímulo determina más
lo que se mide que el formato de la
respuesta que se recoge.
4.
La validez puede ser construida e
incorporada a nuestro sistema.
5.
La evaluación conduce a los logros de aprendizaje
de nuestros alumnos.
6.
Ningún método único puede hacerlo
todo.
Empezamos nuestra discusión de los principios destacando la
importancia de los contextos de evaluación en la evaluación de competencias. Evaluar
competencias implica evaluar su aplicación en contextos reales o verosímiles. Si
como la investigación demuestra la medición de una competencia en un contexto
no predice absolutamente el desempeño en otro contexto distinto, entonces es
claro que si queremos evaluar las competencias de manera fiable deberemos
combinar el muestreo en contextos diversos. Debemos por tanto examinar una
misma competencia en distintos casos, momentos, por distintos profesores,
incluso en distintas asignaturas.
Vimos que la investigación demuestra que la fiabilidad no depende
tanto del método de evaluación como de la amplitud del muestreo. Hay métodos más factibles que otros pero para
ser fiables todos necesitan un amplio muestreo que requiere al menos 2 horas
por alumno.
Como ejemplo de aplicación
del primer principio planeamos la cuestión: ¿Son fiables los exámenes
realizados en una hora de clase con los alumnos como piojos en costura? Estábamos
todos de acuerdo en que esta práctica tan común hoy en día no es fiable y por
tanto los exámenes “parcialitos” deberían ser realizados de otra manera que
aumentase su fiabilidad.
Para que nuestra evaluación fuese más fiable sería necesario reservar
un aula más grande y durante más tiempo 2-3 horas. También nos ayudaría el usar
una prueba elaborada con items altamente discriminativos. Explique una manera
sencilla y al alcance de cualquiera, para estudiar el poder discriminativo de las
preguntas de sus exámenes. Para ello solo hay que usar una matriz de resultados de las distintas preguntas
del examen con sus filas (alumnos)
ordenadas por el ranking de calificación global y en cada columna las
puntuaciones obtenidas en cada pregunta (Excel te lo ordena como se lo pidas).
A partir de de esta matriz podemos comparar las calificaciones de
cada pregunta en grupos de alumnos con distinto nivel de conocimientos por
ejemplo del cuartil de alumnos con mejor calificación global respecto a
aquellos del cuartil con peores calificaciones. El cociente entre ambos valores
es el índice de discriminación de esa pregunta y nos permite comparar la
capacidad de distintas preguntas para discriminar entre los alumnos con
distintos niveles de conocimientos. De esta manera podemos escoger preguntas
con mayor poder discriminativo para elaborar nuestras pruebas que de esta
manera tendrían una mayor capacidad para discriminar entre alumnos con
distintos niveles de conocimientos.
Experimentación de metodologías para evaluación formativa que usan tarjetas de respuesta y preguntas de elección de respuesta entre múltiples opciones.
Después de esta disquisición matemática con la que concluía mi
exposición del primer principio os vi un poco cansados de teoría. Por ello
cambiamos de tercio y dedicamos los últimos cuarenta minutos a experimentar la
metodología Peer instruction con
preguntas conceptuales sobre física de bachillerato. Respondimos a las
preguntas con las flash cards y discutimos la justificación de las respuestas
al modo del peer instruction: unos
alumnos discuten con otros que han escogido otras opciones sobre las razones
que justifican las respuestas que han escogido.
También comentamos la
posibilidad de utilizar este método de evaluación formativa con la aplicación socrative que permite a los alumnos
responder con sus smartphones
a preguntas MCQ. Llego la hora de despedirnos y a las 3:25 cogí el AVE que me
llevaría a Atocha y de allí a Alcalá de Henares.
En la segunda sesión de este curso acabaremos de ver los
principios para mejorar la evaluación estandarizada de competencias. También nos
asomaremos a la evaluación no estandarizada y a los sistemas de evaluación
programática. Dedicaremos especial atención al uso que podemos hacer de las rúbricas,
a los concept tests para la evaluación de la comprensión, a cómo construir
preguntas MCQ con contexto que permitan evaluar comprensión y capacidad de transferencia
y también a la elaboración de pruebas de evaluación acreditativa de mayor
calidad.
A continuación el resumen de la segunda
sesión:
En la segunda sesión del curso empezamos utilizando la metodología Just in time teaching comentando los cuestionarios de expectativas que los participantes habían contestado después de leer los materiales instructivos del curso mostrando así sus reacciones a los mismos.
Empezamos por el de Ana Isabel
Cobo que planteaba la pregunta ¿Cómo mejorar la evaluación sin
sobrecargar a los estudiantes y al profesor? ¿Cómo mejorar la evaluación y no
morir en el intento? Respondí que la mejor evaluación es la que hace trabajar
al alumno las horas no presenciales que le corresponden por cada crédito ECTS
(unas 15 por crédito) sin que ello se traduzca en que su profesor se ahogue en una montaña de trabajos por revisar. Se planteó un debate acerca del problema de la coordinación y contesté que si un alumno con dedicación plena a sus estudios universitarios en el EEES debe trabajar en sus asignaturas 40 horas semanales (sumando las presenciales y no presenciales). Lo normal es que este alumno este matriculado en 5
asignaturas por cuatrimestre simultáneamente, entonces la carga de trabajo total (presencial+ no
presencial) media semanal de cada una de las cinco asignaturas debe ser de
40/5= 8 horas semanales de trabajo en cada asignatura (sumando horas presenciales y no presenciales).
Después comentamos las respuestas De
Teresa Martín Vecino a la que en primer lugar agradecí haberme propuesto como ponente de este
curso. Teresa comunicó el reciente fallecimiento (14-6-2014) de Carmen Vizcarro
Guarch, profesora de Psicología de la universidad autónoma de Madrid autora de
múltiples trabajos sobre la evaluación de competencias. Todos los que
trabajamos en evaluación de competencias hemos aprendido mucho de Carmen y sus
publicaciones.
Después de este emocionado recuerdo respondí a la pregunta
urgente del cuestionario de Teresa: ¿Cómo se puede mantener una evaluación
continua con menos inversión de tiempo que el que ahora dedico? usé una
presentación sobre gestión de la carga de trabajo que genera la
evaluación continua al profesor (gestión de la carga y más cosas). Este documento incluye un modelo de análisis y digestión de la carga de seguimiento de las tareas de evaluación continua, una explicación sobre los tests conceptuales y su aplicación a la medida de ganancias de aprendizaje y ejemplos de cómo usar La taxonomía de Bloom y la taxonomía SOLO (Structure of Observed Learning Outcomes) para crear preguntas de evaluación.
Finalmente, comentamos el cuestionario de Jose Antonio
de la Torre Brasas que quería conocer metodologías para que las
competencias específicas de su asignatura se adquiriesen con una mayor
profundidad y de forma más progresiva. Contesté explicando el modelo de
pedagogía inversa y las distintas metodologías para el fomento del estudio
previo. Os recomendé empezar por el just in time teaching por ser la más
sencilla y eficiente en términos de economía en términos de trabajo extra para el profesor. Este método usa para comprobar el estudio un cuestionario de preguntas abiertas que podemos reutilizar en los sucesivos temas por lo que no es necesario tanto trabajo adicional como en los métodos en los que el profesor debe generar preguntas MCQ nuevas y originales para cada tema o incluso para cada clase. Por ello os recomendé como estrategia de innovación empezar experimentando con el just in time teaching y después experimentar con las
metodologías que usan preguntas de elección entre múltiples opciones: team
based learning, PEPEOLA (preparación y estudio previo por evaluación on line automática)
y peer instruction.
Después acabamos de ver la presentación
que nos habíamos dejado a medias en la primera sesión sobre los
principios para mejorar la evaluación estandarizada de competencias. También
comentamos los 6 principios de la evaluación no estandarizada.
Tras el descanso vimos un ejemplo de un
sistema de evaluación programática, el del grado en Medicina e Investigación
Clínica de la Universidad de Maastricht.
Después realizamos una actividad en la
que respondimos a preguntas MCQ utilizando nuestros smartphones. Después
respondistéis en equipo a una serie de preguntas sobre las metodologías de
fomento del estudio previo y realizamos una competición entre los equipos al estilo del Team based learning. Discutimos la justificación de las respuestas a las preguntas. De esta manera experimentasteis la metodología TBL desde el punto de vista del alumno.
Finalizamos el curso con una presentación sobre
cómo construir preguntas MCQ de más calidad con contexto que permitan evaluar
comprensión y capacidad de transferencia y también a la elaboración de pruebas
de evaluación acreditativa de mayor calidad. Tal vez si aprendemos a hacer mejores pruebas de evaluación podamos evitar lo que ocurre en la actualidad, que los alumnos en lugar de estudiar temarios estudian exámenes de otros años.
Algo que puede observarse en la siguiente entrada Mafia en los exámenes de Medicina del blog el Linternista
No hay comentarios:
Publicar un comentario