Educación

Mejorando la enseñanza en el aula: ¿Qué hemos aprendido? (I)

14 Jun, 2016 -

En la era de los rankings internacionales de la educación y el rendimiento de los estudiantes,  muchos funcionarios y responsables políticos se están haciendo la misma pregunta: ¿Cómo podemos mejorar la enseñanza y formación que ocurre en nuestras aulas? Para los académicos, responder a esta pregunta a menudo significa estudiar los procesos de  instrucción en el aula para a continuación diseñar y probar programas destinados a mejorar dicha instrucción. El propósito de esta serie de entradas es plantear y revisar dichos esfuerzos en el contexto de Estados Unidos.

En primer lugar, algunos antecedentes. Se da por supuesto que una enseñanza de mayor calidad facilita que los estudiantes adquieran más conocimientos, y cientos de estudios correlacionales así lo han confirmado. Desde la década de 1970, los investigadores estadounidenses han identificado muchos aspectos de la calidad de la enseñanza – por ejemplo, gestionar el comportamiento de los estudiantes, ajustar el ritmo de la enseñanza a las necesidades de los estudiantes, utilizar el tiempo de clase en tareas académicas y plantear tareas que requieren que los estudiantes desarrollen su capacidad de razonamiento y creatividad – correlacionan con mejores resultados académicos. También se han identificado características del docente que están relacionadas con los resultados del estudiante, como la experiencia, el conocimiento de los contenidos que se enseñan, y las expectativas que tienen sobre los estudiantes.

Siempre resulta difícil demostrar una relación causal en estudios correlacionales y debido a la presión para mejorar los procesos de enseñanza y aprendizaje en EE.UU., el  gobierno federal comenzó en el año 2002 a apoyar proyectos de investigación destinados a desarrollar y evaluar programas basados en las conclusiones anteriores. En algunos casos, los fondos federales están ligados a evaluar el programa a través de un ensayo aleatorio (o RCT), similar a los experimentos llevados a cabo en medicina para determinar la eficacia de fármacos o nuevas terapias. Hasta la fecha, se han llevado a cabo cientos de programas diseñados para mejorar la enseñanza en el aula y el aprendizaje de este modo.

Los resultados de estas evaluaciones han sido sorprendentes para algunos y preocupantes para muchos. Una ONG que examinó las subvenciones otorgadas por un organismo encontró que aproximadamente 9 de cada 10 evaluaciones de programa mostraban resultados nulos o ligeramente positivos. En una revisión de las evaluaciones financiadas por otra agencia, Anna Ericksen y yo encontramos que más de 3 de cada 10 programas tuvieron un efecto nulo. El resultado es mejor, pero sigue siendo muy mejorable dado que la mayoría de estos programas tenían un perfil académico, estaban bien financiados, habían sido implementados por universidades y además habían sido evaluados en RCTs previos con resultados positivos. Sea cual sea el número real, es casi seguro que las escuelas estadounidenses están inundadas por proyectos y propuestas que no funcionan para mejorar el rendimiento de los estudiantes y, en muchos casos, ni siquiera cambian sustancialmente los procesos de enseñanaza.

Una pregunta relevante es si estas evaluaciones nos pueden decir qué tipos de programas mejoran la enseñanza y el aprendizaje. Tanto mi revisión de los estudios con Anna Ericksen como otra revisión de los programas de ciencia, tecnología, ingeniería y matemáticas (STEM) con mi colega Kathleen Lynch, apuntan a ciertas tendencias preliminares:

En primer lugar, lo que no funciona.

  1. Reuniones del equipo docente de cada curso orientadas al análisis de los datos de evaluación de los estudiantes. La proliferación de pruebas anuales estandarizadas en los EE.UU. llevó a muchos a una proposición sencilla: si los maestros estudian los resultados de las pruebas, sabrán qué estudiantes necesitan apoyo y en qué temas y podrán ajustar la práctica docente en consecuencia. Como resultado, las reuniones de equipos docentes en que los maestros revisan los resultados de las evaluaciones anuales y trimestrales de los estudiantes son frecuentes en muchos distritos. Los resultados de las evaluaciones de este tipo de iniciativas, sin embargo, han sido desalentadores. En las últimas seis evaluaciones llevadas a cabo, cuatro vieron efectos nulos y dos vieron efectos mixtos, es decir, resultados positivos en algunos cursos/asignaturas y ningún impacto en los demás (1, 2, 3, 4, 5, 6). Una evaluación encontró efectos negativos en dos de los cuatro distritos que participaban en el estudio.

 

  1. Mejorar los conocimientos matemáticos de los maestros sin relacionarlos con la instrucción. Otros resultados decepcionantes provienen de programas de desarrollo profesional centrados en la mejora de los conocimientos matemáticos de los profesores, pero que no cuentan con fuertes conexiones con la enseñanza en clase. Estos programas centrados en el contenido surgieron porque se consideró que el bajo nivel matemático entre los maestros de primaria y secundaria era un problema importante en los EE.UU. Sin embargo, estos programas parecen no funcionar bien. En un estudio de dos programas enfocados al contenido, por ejemplo, Mike Garet y sus colegas encontraron impacto nulo en el conocimiento de los maestros, cambios marginales leves en sus prácticas docentes y ninguna diferencia en los resultados estudiantiles entre los profesores del grupo de tratamiento y los del grupo de control. Estos dos programas incluían las siguientes actividades: resolver problemas de matemáticas, sesiones con facilitadores para discutir formas de presentar las matemáticas a los estudiantes, malentendidos comunes de los estudiantes y planificación de clases. Los maestros también recibieron tutorización en el propio centro. Todo esto, sin embargo, no fue suficiente para mejorar sustancialmente la enseñanza y el aprendizaje.

 

Vale la pena señalar que los programas que caen en estas dos primeras categorías no están directamente involucrados en la instrucción. En lugar de trabajar en mejorar la enseñanza directamente, estos programas tratan de mejorar el conocimiento de los profesores, dejándoles la tarea de encontrar la forma de aplicar esos conocimientos a la instrucción.

  1. Programas que entran en conflicto con las políticas existente.Una tercera categoría de programas de dudoso éxito podría titularse «cualquier programa que esté en conflicto con las estándares educativos estatales, las evaluaciones del estado, los temarios anuales del distrito, el plan de estudios del distrito y las rúbricas de evaluación de maestros.» Cuarenta años de políticas federales, estatales y de distrito agresivas destinadas a mejorar las escuelas se han traducido en una proliferación excesiva de guías de instrucción, de forma que la mayoría de profesores están sujetos a múltiples mensajes que compiten en el qué y el cómo enseñar. Los programas que buscan mejorar la enseñanza y el aprendizaje deben navegar y, a ser posible, coordinar esta maraña de mensajes contradictorios. Si no lo logran, los resultados tienden a ser pobres. Por ejemplo, en un estudio que acabé recientemente, los maestros estaban entusiasmados con las nuevas ideas que aprendieron en un programa de desarrollo profesional, pero pensaban que la guía de temas del distrito – un documento que indica qué lección se debe cubrir en cada día escolar- les impedía aplicar esas nuevas ideas. En algunas escuelas, los maestros también decían que los directores les requerían usar metodologías de enseñanza que entraban en conflicto con las ideas que habían aprendido en el programa de desarrollo profesional de matemáticas. Por lo tanto resulta poco sorprendente que este programa no mostrara ningún efecto sobre la enseñanza y los resultados de los estudiantes.

 

En la próxima entrada repasaré aquellas iniciativas en el aula que, a la luz de la investigación, sí parecen haber funcionado.


3 comentarios

  1. Enrique dice:

    Nadie duda de la utilidad de los testimonios escritos, en cuanto que aportan reflexión, experiencia y sugerencias de futuro; pero en muchos casos, más que para un uso personal, estos documentos se elaboran para calmar al legislador o para proporcionarle los datos que necesita para vender su gestión, para dar la falsa impresión de que todo está pensado, controlado y medido; de que el proceso educativo no se deja al azar, ni está sometido a la idiosincrasia de los que lo integran.
    Porque la concreción que se demanda puede llegar hasta el absurdo, en cuanto que pretende una descripción y un seguimiento exhaustivo de futuribles, de circunstancias que no se conocen en su totalidad o que no podemos tener previstas. Centrándonos, por ejemplo, en las programaciones que se le piden a cada profesor de su asignatura, se pretende que contengan un relato detallado de cómo se va a impartir cada una de las unidades que integran el temario: cuánto tiempo se va a emplear, qué contenidos se van a desarrollar, en qué secuencia, cómo se van a evaluar, cómo se va a calificar, qué recursos se van a utilizar, qué objetivos se persiguen, qué competencias se desarrollan con ellos, cuáles van a ser las lecturas recomendadas, qué actividades se van a emplear para atender a los rezagados y a los alumnos especialmente dotados, qué actuaciones se van a llevar a cabo con los que no alcanzan los objetivos previstos… Todo ello recogido en una tabla, ordenado en filas y columnas. Como si de un manual de instrucciones se tratara, indicando los pasos a seguir y el orden preciso para conseguir lo que se busca.
    http://www.otraspoliticas.com/educacion/programaciones-y-mentiras-compartidas

  2. Curioso dice:

    Estaría bien conocer resultados en escuelas no convencionales. Y cuando hablo de resultados, no me refiero a académicos, sino a situación final en la vida (profesiones, tasa de paro, salario medio, estudios superiores, etc.), de alumnos salidos de escuelas tipo Montessori, SummerHill, Sundbury, etc. ¿Hay estudios? Gracias.

  3. […] están inundadas por proyectos y propuestas para mejorar el rendimiento de los estudiantes. En mi entrada de la semana pasada, introducía el tema de lo que las evaluaciones de estos programas nos pueden […]

Comments are closed.