Por: Eric Santamaria Vallejos
Universidad de Panamá
Facultad de Ciencias de la Educación
“Todo funciona en algún lado y nada funciona en todos lados»
Andrés Sandoval (2017)
En declaraciones dadas por el Sr. Presidente de la República de Panamá, en cuanto a recientes informes del los logros de aprendizajes obtenidos por estudiantes del país, en algunas asignaturas de la currícula escolar panameña y su “posible cansancio que los exámenes internacionales, nuestros estudiantes salgan mal”, efectivamente denota el desconocimiento de que los resultados de los estudiantes en las pruebas “Pisa” por ser pruebas “no estandarizada”, puede acarrear con el consecuente resultado final no determinante y reduccionista como asume el mandatario.
Matizar que la educación panameña, esta fracasada porque no superan las pruebas internacionales con los dominios de tres (3) asignaturas, llama poderosamente la atención, porque implica un currículo desacertado. Pues, al estar la educación panameña fracasada, genera la visión global de que no existe sistema escolar sea oficial o particular para cumplir con esos propósitos. Entonces, debemos suponer que los colegios oficiales no sólo se encuentran en tales desaciertos, sino que, además, los bajos resultados de la educación panameña, también son atribuidos a los colegios particulares, máxime que estos sistemas brindan un servicio con el incremento astronómicos cada año de las colegiaturas.
Si esto es así, que ambos sistema oficial y particular como parte del sistema de educación nacional, están “famélicos” de estructuras para pensar y superar una prueba que “mide” más no “evalúa”, interesante será conocer en qué colegios sean oficiales y particulares según su zona regional, condición y ubicación social se aplicaron las susodichas pruebas. ¿Cuáles han sido los logros de aprendizajes que marcaron diferencias en las escuelas particulares entre sí y en las escuelas oficiales entre ellas?.
Ahora bien, qué es la prueba Pisa y sus desavenencias académicas, que todos debemos saber y que, de alguna manera, el Sr. Presidente sesgo en su valoración con los consabidos descalificativos para el sistema nacional de educación, sea oficial y particular.
PISA son las iniciales del Programa para la Evaluación Internacional de los Alumnos de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), el examen mundial de las habilidades de los estudiantes de 15 años en Lectura, Matemáticas y Ciencias cada tres años y establece un ranking de países según el rendimiento en cada competencia. (Véase el informe McKinsey (2007); (2010) y (2015).
En su propio resumen ejecutivo, McKinsey, recalca que “no existe un consenso claro acerca de qué hace falta para brindar una educación de alta calidad”. Su ruta de tiempo que toma como referencias para la construcción de la prueba Pisa, se apoyan en el “machine learning” que implica el desarrollo de aplicación de técnicas analítica avanzada y aprendizaje automático.
El informe McKinsey, advierte, que, en la construcción de la prueba, se evalúa los conocimientos en matemática, lectura y ciencias, considerando las características sociales, económicas y actitudinales de estudiantes, docentes, autoridades y padres y madres de familia. Entonces. debemos preguntarnos; ¿Si la educación es un trabajo de todos, para la puesta y aplicación de la prueba qué comunidad de docentes según formación académica o área de especialidad, profesional fue parte de la muestra?¿Cuáles son los insumos instrumentales-didácticos con los que cuenta el centro escolar? ¿la prueba Pisa para su aplicación en Panamá, estuvo contextualizada y validada?
Pero, ¿qué explica el éxito mediático de PISA, que es capaz de poner en jaque a los sistemas y autoridades educativos de los países? Efectuando consultas bibliográficas en primer lugar, para que me amplíen mis andamiajes cognitivos sobre el tema, localizo la revista Perfiles educativos vol. 39 no. 156 de abril-junio del 2017, en la cual Márquez Jiménez A (2017), cita un pequeño editorial escrito por Prats J. (2011), académico de la Universidad de Barcelona, en donde explica a su entender, el dominio mediático de la Prueba Pisa, ya que esto tiene que ver con el arribo de las nuevas formas de concebir la gestión pública, una de las cuales se refiere a que la producción de los servicios públicos debe ser evaluada cuantitativamente.
Agrega Prats, que, en razón de ello, los resultados de PISA son utilizados por diversos sectores sociales, principalmente empresariales, como una medida rigurosa de la «producción» en la educación a escala planetaria, en el que los sistemas educativos son clasificados según una escala de rendimiento.
Estos instrumentos, recalca, se han constituido en evaluaciones del capital humano de cada país en el contexto de la competencia internacional y, citando a Apple, W (2016), advierte sobre los peligros de una desmedida supeditación de la educación a la economía, lo cual supondría un cambio imperceptible, pero importante, en las finalidades de la educación, ya que se pasaría a privilegiar la evaluación por encima de la propia educación.
Lo anteriormente señalado, nos orienta a la necesidad de recurrir, a una investigación que fue llevada a cabo por un grupo de investigadores de la mano de Norberto Corral Blanco, Carlos Carleos Artime y Sara Álvarez Morán. (2019), todos catedráticos de Universidad de Oviedo. En las áreas de Estadística e Investigación Operativa y Didáctica de la Matemática.
Estos catedráticos universitarios, mediante sus pesquisas investigativas sobre lo que la prueba Pisa, nos señalan sus aportes son concluyentes a manera de exorcizar la prueba Pisa, por su fuerte incidencia mediática que lleva a un mandatario a descalificar a todo un sistema nacional de la educación panameña y las réplicas de voces en diversos medios de comunicación que coinciden con lo expresado por él.
En las primeras ediciones, Finlandia ocupó el puesto número uno, pero en las últimas dio paso a Shanghái/China, Singapur y Hong-Kong, con sistemas educativos muy diferentes. Esto según los investigadores, muestra que “copiar” los métodos de educación sin tener en cuenta las características culturales de cada país no garantiza una mejora.
Si nos remitimos a nuestra región latinoamericana, en México los resultados de PISA han servido principalmente para cuestionar al sistema educativo nacional, como se puede percibir a través de algunos encabezados de la prensa escrita con motivo de la presentación de los resultados de PISA 2015: «OCDE: México, 15 años en el último lugar en educación» (Moreno, 2016). «México, sin avances en matemáticas, lectura y ciencia en una década (Poy, 2016); o bien el que retoma la declaración del secretario de Educación Pública, Aurelio Nuño, «México no está satisfecho con resultados de PISA (Notimex, 2017). Lo anterior ha servido, entre otras cosas, para reforzar la idea de aplicar una reforma educativa.
En la elaboración de las pruebas en Panamá y, sobre todo, en la Universidad de Panamá, se cuenta con una experticia en la elaboración de pruebas. Resaltamos que como se presentan los enunciados de las pruebas PISA, son inadecuados como afirman en sus ideas concluyentes los investigadores de la Universidad de Oviedo. ¿Por qué? Para medir y no evaluar, la oportunidad de aprender, PISA plantea preguntas sobre conceptos matemáticos como “ecuación lineal” o “vectores”, y el estudiante debe elegir su respuesta entre las opciones: 1) No lo he visto nunca. 2) Lo he visto una o dos veces. 3) Lo he visto varias veces. 4) Lo he visto a menudo.5) Lo conozco bien, entiendo el concepto. Ideas concluyentes de los investigadores sobre dichos enunciados: ¿A qué opción debe responder un alumno al que le hayan explicado el concepto varias veces y que lo entienda bien? En consecuencia, las conclusiones de analizar las respuestas a este ítem, ¿se refieren a lo que los alumnos creen que saben o a su exposición/conocimiento de los conceptos. Es decir, no es una cuestión de comprensión “conciente” sin “S”, como dicen algunos neurólogos, es una cuestión de percepción connotativa en palabras de Gutiérrez, F. (1990), de la respuesta por el alumno.
Un segundo componente de la prueba, lo denominado “sesgo cultural”, considera como un objetivo básico de la evaluación PISA es que sus instrumentos de medida sean aplicables y válidos en contextos culturales diferentes. Al buen entendedor, las pruebas Pisa, no están contextualizadas en cada país donde se aplica y en consecuencias incurrimos en “interpretaciones reduccionistas”. Un claro ejemplo remarcado por los investigadores de la Universidad de Oviedo, es que, en el 2012, para evaluar la familiaridad con conceptos matemáticos se incluyó trece (13) reales y tres (3) falsos: “número genuino”, “fracción declarativa” y “escala subjuntiva”. Esto posibilitó usar la técnica de “preguntas trampa” y elaborar el índice corregido FAMCONC (Familiaridad con los conceptos matemáticos).
En contra de lo esperado, la relación de FAMCONC con las Matemáticas es muy distinta al agrupar los países por zonas geográfico-culturales. Si el sesgo cultural se hubiese eliminado serían similares, pero en Europa y los países con cultura anglosajona FAMCONC y Matemáticas son independientes, mientras que en el resto la relación es creciente y muy fuerte. La prueba PISA no hace referencia alguna a estos problemas, ni empleó en 2015 estas técnicas de corrección.
La prueba PISA, entorno a la variante de modificar los cuestionarios y seguimientos de resultados, matiza lo significativo de analizar la evolución temporal de sus indicadores. Sin embargo, son frecuentes los cambios en los enunciados y las definiciones de los índices, sin que se explique la causa.
Un ejemplo de esta situación se produjo al estudiar la relación de la Enseñanza Dirigida por el Docente (EDD) con el rendimiento (en este estilo docente priman las clases magistrales, frente a la Enseñanza Basada en la Investigación, caracterizada por trabajo por proyectos, por ejemplo). En 2012, se empleó un cuestionario para Matemáticas y otro muy diferente en 2015 para Ciencias. Ambos eran generales y sin preguntas específicas ni de Ciencias ni de Matemáticas.
Por otro lado, en 2012 la relación de (EDD) en Matemáticas con el rendimiento en esta materia es casi idéntica a la que tiene con Ciencias y Lectura; en 2015 ocurre lo mismo con la (EDD) de Ciencias. Este resultado es sorprendente porque las tres materias se imparten de manera independiente, lo que plantea dudas sobre qué mide el índice que PISA define para cuantificar la (EDD). Los investigadores consultados, se cuestiona de acuerdo con este desacierto de la Prueba Pisa: ¿Dados la modificación de los cuestionarios, el cambio de signo en las correlaciones y la ausencia de especificidad de (EDD, ¿qué fiabilidad puede darse a las conclusiones de PISA sobre este tema?
La no contextualización de la prueba Pisa, o las explicaciones de saber en que contexto fueron elaboradas y las posibles comparaciones pertinente o no del “coeficiente” entre relación interpaís o intrapaís, sesga los resultados esperados y no orientan dichos resultados para atender el reto de un plan de mejoramiento inter contexto panameño con todos los actores del escenario educativo, sean estos, oficial o particular.
Es necesario, de acuerdo a lo descrito, que entre todos busquemos predictores e indicadores con logros de aprendizajes en función de las necesidades del individuo, la sociedad y la vida productiva, para a partir de allí, diseñar pruebas o Exámenes de la Calidad y el Logro Educativos mediante un Sistema Nacional para la Evaluación de los Aprendizajes contextualizado inter país y intra país con todos los actores educativos del sistema nacional de educación y la aplicación de una metodología comparada de sistemas educativos exitosos, es decir, “Bechmarketing”.
Las lamentables expresiones de un mandatario en su laberinto, nos lleva a sospechar que la generalidad de su expresión “posible cansancio que los exámenes internacionales, nuestros estudiantes salgan mal”, fueron influenciadas por algún despiste de algún tecnócrata, que recurre a lo que comúnmente la prueba Pisa obvia cuando no puede explicar los resultados inesperados y brindar una explicación coherente y fundamentada y lo que comparte son, generalidades o explicaciones sin base a los datos del estudio.
Las pesquisas documentales, bibliográficas e investigaciones consultadas y la propia inquietud intelectual a la luz de sendos comentarios dados en diversos medios de comunicación, sobre las declaraciones de nuestro mandatario, entorno a los resultados de una prueba con grandes falencias de credibilidad objeto de recientes investigaciones, y que muchos panameños desconocen con las consecuencias de emitir juicios valorativos desacertados que no edifican, sino más bien, contribuyen en atacar la autoestima y la identidad de los panameños, con las posibles consecuencias de un sector empresarial e industrial que se aprovecha para descalificar y usufructuar una mano de obra barata, vienen a ser el “lei motiv” del presente escrito.
No obvio ni mucho menos descuido la realidad del estado del arte de la situación educativa del país y de la región. Que, en definitiva, se ve arropada de grandes transformaciones industriales y digitales desde la ciencia y la tecnología, sin descuidar otras transformaciones sociales como la llamada “modernidad liquida y la sociedad disruptiva”, que, en definitiva, agudizan las situaciones.
Pero, endiosar una prueba PISA que ha demostrado debilidad en la fiabilidad; en los errores en la elaboración de los cuestionarios; en el sesgo cultural que no han sido capaces de eliminar; resultados contradictorios y dificultades para el seguimiento longitudinal y sobre todo, explicaciones superficiales o reduccionista ante resultados inesperados, deben obligar tanto a colegios oficiales y particulares, validar sus logros de aprendizajes con predictores e indicadores confiables que en ocasiones en certamen nacional e internacional (olimpiadas de matemáticas, física, ciencias, robótica), nuestros estudiantes logran reconocimientos académicos superando países que aparentemente logran mejores resultados en la Prueba Pisa que parece no le comparten al Sr. Presidente.
1 Hay un solo Like:(