Hace unos días se publicaron los resultados de SIMCE 2016, donde los resultados muestran un endurecimiento en términos de logro de aprendizajes en la enseñanza básica (EB), esto es, una rigidez y estancamiento en las últimas mediciones, y un evidente retroceso en la enseñanza media (EM). La Agencia de Calidad, con la clara intención de presentar una lectura que permita valorar positivamente estos resultados (y la gestión del gobierno actual), destaca el crecimiento de los puntajes en Lenguaje 4EB, la reducción de la brecha de género y la detención de la baja en los resultados de Comprensión lectora en 6EB. Es, a la vez, menos expresiva al referirse a la profunda brecha del logro entre grupos socioecónómicos (cuya distancia es en promedio de más de 50 puntos entre los grupos de NSE Bajo y Alto, cualquiera sea el sector curricular evaluado.
Los resultados, como en las anteriores presentaciones correspondientes al gobierno en curso, se caracterizan por intentar una visión no centrada en los puntajes SIMCE y, en cambio, proponer una mirada donde estos puntajes son sólo una parte de la calidad educativa, lo que se conseguiría integrando los denominados "Otros indicadores educativos". El argumento plantea que de esta forma se logran una visión comprehensiva de la calidad, al tiempo que se aportarían elementos de orientación para la mejora. Este razonamiento, sin embargo, es discutido por Ma. Teresa Florez, quien desarrolla sus objeciones en la siguiente columna publicada en El Mostrador y que tituló "Últimos cambios al SIMCE: las contradicciones de la Agencia de Calidad". La transcribo ahora:
Dentro de la presentación de resultados del SIMCE y en sus últimas declaraciones, la Agencia de Calidad de la Educación ha pretendido entregar el mensaje de que el sistema de medición de la calidad ha cambiado y que se está generando un nuevo sistema de evaluación. Se quiere transmitir que se ha construido un sistema de evaluación más amplio y comprehensivo, equilibrado, con foco formativo y orientado hacia la mejora. Los elementos que estarían impulsando este supuesto cambio serían: la reducción de pruebas SIMCE, la incorporación de indicadores de desarrollo personal y social, la evaluación progresiva y formativa en ciertas escuelas, además de la entrega de resultados de manera simultánea. Sin embargo, cuando se analizan detenidamente estas medidas, es difícil concluir que estos cambios han logrado mejorar las tensiones asociadas al SIMCE. Más bien han generado un sistema en que persisten (e incluso crecen) las contradicciones.
Amplio y comprensivo: falso. La idea de un sistema más amplio y comprehensivo a partir de la inclusión de otros indicadores al concepto de calidad (autoestima académica y motivación escolar, clima de convivencia escolar, participación y formación ciudadana, hábitos de vida saludable), se contradice con el peso que siguen teniendo los resultados de las pruebas SIMCE en aquellas políticas que implican consecuencias para las escuelas y que son, finalmente, las que generan un clima de presión en ellas. Las políticas de Ordenación de Escuelas, el sistema de bonos a los docentes conocido como SNED y la Ley de Subvención Escolar Preferencial (ley SEP), todas con consecuencias significativas para las escuelas, otorgan a los resultados del SIMCE entre un 65% y 73% de importancia, en comparación con aquella que le otorgan a los Otros Indicadores de Calidad. En ese sentido, pese a la intención por una mirada más amplia y comprehensiva, el contexto de política educacional en el que se inserta el SIMCE, mantiene la concentración del trabajo de las escuelas en los resultados de las pruebas.
Equilibrado: falso. Se quiere responsabilizar a los rankings de establecimientos que generan los medios de comunicación por la excesiva presión que ejerce el SIMCE sobre las escuelas. La presentación de la Agencia enfatizó que dichos rankings ya no se producen y que ahora se realizan menos pruebas por año, lo que solucionaría en gran medida el problema de la presión del SIMCE. Sin embargo, esta interpretación es simplista, porque ignora que la presión experimentada por los establecimientos se deriva de las mismas políticas asociadas a SIMCE. Las escuelas siguen igual de presionadas por el SIMCE porque de sus resultados dependen el sueldo de los profesores, los dineros para el funcionamiento de la escuela, la autonomía que se pueda tener para trabajar y la posibilidad de que la escuela sea intervenida y, eventualmente, cerrada. Por otra parte, responsabilizar a los rankings de los medios es ignorar que la misma Agencia genera sus propios rankings, por ejemplo, al categorizar a las escuelas según una etiqueta pública, por medio del nuevo Sistema de Ordenación.
Foco pedagógico: falso. La presión antes señalada, como lo reconoce la literatura internacional, genera a su vez problemas para la posibilidad de dar un uso pedagógico y formativo a este sistema de evaluación. Si bien la Agencia ha realizado un intento valorable por promover la evaluación en función del mejoramiento de los aprendizajes a través de la promoción de la evaluación formativa en las escuelas y de la provisión de herramientas y materiales coherentes con esta función, las pruebas que se utilizan en el SIMCE no han sido modificadas en este mismo sentido y, por ello, generan nuevas contradicciones en el sistema. La misma Margaret Heritage, quien fuera invitada por la Agencia en el contexto un seminario donde se anunciaron estas nuevas medidas, critica fuertemente el uso de pruebas de selección múltiple, pues no permiten captar el aprendizaje de los estudiantes de manera contextualizada y auténtica, aspecto fundamental para trabajar la evaluación con una función formativa. De forma similar, expertos internacionales en esta mirada de la evaluación, como el Profesor Gordon Stobart, indican que, si se van a generar sistemas de evaluación de altas consecuencias para los que necesariamente las escuelas van a buscar prepararse, lo mínimo que se puede exigir a esos sistemas es que se trate de evaluaciones de buena calidad, para las que valga la pena prepararse. En este sentido, por mucho que las evaluaciones formativas de la Agencia apunten a actividades de evaluación más innovadoras, las pruebas del SIMCE siguen respondiendo a un formato en que predominan las preguntas de selección múltiple, las tareas rutinarias, y el aprendizaje descontextualizado. Al ser estas últimas las que determinan el futuro y el sustento de las escuelas, es el modelo en torno al cual se seguirá trabajando. Este modelo transforma al aprendizaje escolar en entrenamiento mecanicista y repetitivo, carente de sentido y significatividad.
Foco en la mejora: Falso. Se señala que un nuevo cambio se relaciona con la entrega simultánea y oportuna de todos los resultados del SIMCE, con el fin de favorecer los procesos de mejora en los establecimientos. Una evaluación de altas consecuencias como el SIMCE, por principio, no podrá nunca entregar, dado su carácter confidencial y su naturaleza técnica, un nivel de detalle de los resultados que realmente logre favorecer su uso pedagógico en función de la mejora de los aprendizajes. Ello requeriría resolver de forma más decidida las contradicciones de este sistema, optando claramente por una función formativa y de apoyo, como se hace en otros contextos, en lugar de tratar de sostener presión y apoyo como ejes de una misma evaluación. En ese sentido, habría que pensar si el bajo uso de los resultados del SIMCE es responsabilidad de las escuelas o simplemente revela, por una parte, lo poco significativos que estos son para generar procesos de reflexión que apoyen la labor pedagógica y, por otra parte, el carácter funcional de la participación de las escuelas en esta evaluación, motivada principalmente por los incentivos y castigos que pueden derivarse de ella.
Así, no parece tan clara la promesa de cambio hacia un sistema más equilibrado, pues la presión y las consecuencias siguen pesando más en la balanza que lo formativo; no es un sistema más amplio y comprehensivo, pues la calidad sigue siendo mayoritariamente equivalente a resultados en pruebas que miden solamente ciertas habilidades en unas pocas áreas curriculares; no es más coherente, pues hay claras tensiones entre las diversas visiones y modelos de evaluación que se están promoviendo simultáneamente; y tampoco es más diverso, pues dicha diversidad no ha penetrado el diseño del instrumento sobre el cual recaen todas las consecuencias del sistema.
No hay comentarios:
Publicar un comentario
Gracias por tus comentarios