juandon

f0adc9b5755df38abe6ad37026cfd32b

La evaluación no está en ningún aprendizaje, es el aprendizaje! juandon
Al introducir el análisis de enfoques modélicos para la evaluación de centros podemos establecer que una aproximación importante es la de la metaevaluación de los modelos utilizados por los sistemas educativos. En la práctica, esta aproximación nos parece que termina coincidiendo con la que toma el evaluador cuando analiza todos y cada uno de los pasos y fases del proceso evaluador y va valorando las posibles alternativas que puede tomar en cada caso. A la postre, tal como ya hemos señalado, es cada equipo de evaluación, en su contexto concreto, el que termina construyendo su propio modelo para evaluar el objeto de evaluación que tiene.
Bartolomé y otros (1991) llevaron a cabo un análisis de los modelos institucionales de evaluación de centros utilizados en Cataluña, seis en total, a los que añadieron dos europeos (ECIS y GRIDS) y uno americano (DELAWARE). Tras consultar la literatura especializada sobre el tema, este equipo estableció un listado de criterios comparativos agrupados en los cinco bloques siguientes:
1. OBJETIVOS DE LA EVALUACIÓN
1.1. Finalidad: necesidades o decisiones a las que sirve.
1.2. Audiencia de la evaluación: personas principales a las que se les informa de los resultados.

2. OBJETO DE LA EVALUACIÓN
Variables o aspectos sobre los que se recoge información categorizadas en:
2.1. Capacidad del sistema: contextuales, organizativas…
2.2. Proceso: durante el desarrollo de actividades.
2.3. Producto: resultados, efectos.

3. METODOLOGÍA DE EVALUACIÓN
3.1. Dinámica del proceso evaluativo: origen de la demanda de evaluación, nivel de formalización y sistematización establecido «a priori» y «durante el desarrollo», ¿quién selecciona las cuestiones evaluativas, temporabilidad, etc.?
3.2. Instrumentos de recogida de información categorizado en: de tipo cerrado (cuestionarios, escalas, etc.), de tipo abierto (entrevistas, registros anecdóticos, etc.) y de tipo mixto (proporción aproximada de uno u otro tipo).
3.3. Fuentes de información: ¿quién debe cumplimentar los instrumentos?
3.4. Estudios de validez y fiabilidad de los instrumentos: constatar SÍ o NO, o matizar en caso necesario.

4. CRITERIOS DE EVALUACIÓN
Tipo de criterio que utiliza. «De tipo absoluto»: quién y cómo se establecen (basados en estudios o teorías, ordenanzas legales, etc.). «De tipo comparativo»: comparaciones entre centros, etc.

5. EL PAPEL DEL EVALUADOR
En caso de una «evaluación externa»: agente o responsables de la evaluación. En caso de una «evaluación interna»: formación de equipo evaluador, presencia o no de un experto o agente externo al centro.
A partir de estos criterios establecieron ocho apartados con diferentes subapartados en cada caso, llegando en total a algo menos de medio centenar de potenciales entradas para una tabla de comparación y, consiguientemente, de definición de modelos de evaluación. Las entradas potenciales de la citada tabla de comparación de modelos de evaluación de centros son: 1) Objetivos, 2) Evaluador, 3) Audiencia primaria, 4) Instrumentos de evaluación, 5) Fuentes de información, 6) Criterios, 7) Dinámica y 8) Objeto de evaluación.
Bartolomé y otros (1991) analizan los nueve modelos de evaluación antes aludidos, señalando en cada entrada la existencia o no de esa característica en cada uno de los modelos. Solamente en el apartado del objeto de evaluación, ordenan por prioridad los tres aspectos recogidos. De su análisis comparativo destacan algunos aspectos como que solamente el GRIDS es concebido íntegramente bajo la perspectiva de evaluación interna y que solamente este modelo y el DELAWARE enfatizan claramente su orientación optimizadora.
En la mayoría de los programas evaluados se sitúa la responsabilidad evaluadora en el exterior del centro, pero con ayudas internas. Las audiencias principales son los profesores y la Administración. Todos los programas salvo el GRIDS tienen instrumentos propios de evaluación, pero sólo en uno de los modelos se han realizado estudios métricos de los mismos. Todos los programas, salvo uno que se centra únicamente en los profesores, utilizan a la dirección del centro como fuente de información. Sobre la presencia de estándares o criterios propios existe una clara división en los modelos evaluados.
La dinámica de la evaluación tiende a estar formalizada explicando cuándo y cómo debe evaluarse. El objeto prioritario de evaluación se reparte entre la capacidad del sistema y el proceso de enseñanza-aprendizaje; en todos los modelos evaluados el producto aparece en el tercer lugar en cuanto a prioridad.
Gallegos (1994) nos informa de una metaevaluación de actuales modelos de evaluación de centros en Estados Unidos, llevada a cabo por el CREATE (Center for Research on Educational Accountability and Teacher Evaluation), en la que se revisaron un total de cincuenta y un modelos de distinto carácter, nacional, regional, estatal, local y de agencias públicas y privadas. Este estudio partió de la clasificación de modelos reflejada en el estudio de Richards (1988), que incluye los siguientes tipos de modelos de evaluación de centros:
A) Modelos centrados en el cumplimiento, que determinan si el centro está operando de acuerdo con determinadas normas o requisitos externamente establecidos, que normalmente enfatizan más los «inputs» y los recursos disponibles que el rendimiento.
B) Modelos centrados en el diagnóstico de la mejora de los estudiantes y se apoyan en buena medida en pruebas criteriales antes y después. Tienen un énfasis preferentemente formativo y centran su interés en la búsqueda de fórmulas para cubrir las necesidades detectadas en los alumnos.
C) Modelos centrados en el rendimiento, sobre todo a partir de pruebas normalizadas aplicadas al final de los ciclos educativos. Se intenta una evaluación normativa que permita comparación de centros y distritos escolares, transversal y longitudinalmente.
También el equipo de Gallegos (1994) elaboró una matriz de análisis de modelos con el objetivo de clarificar y valorar los modelos de manera más detallada que la anterior clasificación general, puesto que son muchos los modelos prácticos que resulta difícil incluirlos en uno de estos grandes bloques, ya que comparten características de más de uno. Las categorías de la matriz de clasificación de modelos son los siguientes (mantenemos las siglas utilizadas por el estudio procedentes del nombre inglés para denominar entre paréntesis los aspectos de las diferentes categorías):

a) PROCESO
En esta categoría se indica si se solicita un autoestudio por parte del personal del centro, se requiere una visita de un equipo de consultores externos, o se omite esta a favor de una auditoría administrativa , llevada a cabo por algún responsable a partir de la información recogida.

b) NIVEL EDUCATIVO
Se indica si se usa para evaluar centros básicos o secundarios o de todos los niveles o de todo elterritorio…

c) ORIENTACIÓN
Aquí se indica la perspectiva para la que se recoge la información, formativa para mejorar el centro o sumativa para tomar decisiones sobre la eficacia de sus programas y su continuidad.

d) DATOS
Esta categoría clasifica a los modelos según el uso de datos cuantitativos (Quan) o cualitativos (Qual).

e) PLANIFICACIÓN/TOMA DE DECISIONES
Esta categoría se apoya en el modelo CIPP de Stufflebeam (1983) e indica si el modelo evaluado incluye el contexto , esto es, trata de identificar las necesidades, problemas y oportunidades del entorno, las entradas buscando información útil sobre la mejor ubicación de los recursos disponibles para cubrir las necesidades y obtener los objetivos, el proceso (P1) que detecta y documenta si lo que ocurre coincide con lo planificado y si existen mecanismos de corrección durante el mismo y los productos que miden los resultados previstos y no previstos, interpretados a la vista de las necesidades, los objetivos, las entradas y el proceso.

f) ÁREAS DE RENDICIÓN DE CUENTAS
Siguiendo los planteamientos de Stufflebeam (1991) se establecen los componentes o ámbitos sobre los que el centro debe rendir cuentas, tales como el crecimiento (, en relación con las necesidades de desarrollo, la equidad en relación con la igualdad de oportunidades, la factibilidad sobre la adecuación de la planificación en relación con los recursos y la excelencia , sobre si existe o no un clima que busque el aprendizaje y la excelencia en la enseñanza y en el rendimiento de los alumnos.

g) NORMAS DE LA EVALUACIÓN
Se utilizan las normas del Joint Committee (1981), en las cuatro categorías clásicas. Normas de utilidad que aseguran que la evaluación sirve para cubrir las necesidades informativas de las distintas audiencias, normas de factibilidad que aseguran que una evaluación es realista, normas de legitimidad , que aseguran que se lleva a cabo de manera legal, ética y con el debido respeto a los implicados y normas de precisión, relacionadas con la adecuación técnica de la evaluación para determinar el mérito y el valor de lo evaluado.

h) RELACIONES CON EL SISTEMA
Esta categoría identifica los niveles de interacción o relación que son requeridos para poder llevar adecuadamente la evaluación, con el sistema escolar determinado, con la Administración, etc.

i) FORTALEZAS ESPECÍFICAS
Identificación de aquellos aspectos fuertes del modelo de evaluación, que le son específicos y que van más allá de las características genéricas del mismo.

j) PUNTUACIÓN
Se establece una puntuación de 1 a 5 para las distintas categorías genéricas de la matriz. La puntuación va desde el 1 (más de lo previsto) hasta el 4 (no cumple lo previsto), siendo 5 la indicación de que falta documentación para la valoración de dicha categoría. La puntuación 2 significa que se cumple lo previsto y la 3 que se cumple parcialmente.
Con todas estas categorías se articula una matriz sobre la que se identifica el modelo concreto de evaluación que se está evaluando, puntuando al nivel correspondiente las entradas de las distintas categorías.
El equipo de Gallegos evaluó con estos sistemas descritos seis modelos nacionales elaborados por asociaciones profesionales y organizaciones de centros y por las agencias federales. Uno de ellos, el de la Asociación Educativa Católica, es un modelo de autoestudio para sus centros miembros, los otros siguen apoyándose en gran medida en la evaluación externa. El programa América 2000, por ejemplo, se centra sobre el análisis de escuelas individuales, un poco en la línea promovida por la Administración de premiar con apoyos y reconocimiento a los centros con altos rendimientos.
Los modelos regionales evaluados procedían de las siete asociaciones regionales de acreditación y de un laboratorio educativo regional. Estos modelos han sólido ser modelos centrados en el cumplimiento de los requerimientos legales para su funcionamiento. Sin embargo, en los últimos años se están ofreciendo también alternativas más centradas en el rendimiento y en el diagnóstico para el perfeccionamiento institucional.
En conjunto, Gallegos (1994) detecta un movimiento en la evaluación de centros que va más allá del control de su cumplimiento, interesándose cada vez más en el diagnóstico y solución de los problemas y en el rendimiento de los centros. Sin embargo, también detecta que la evaluación sigue fundamentalmente basada en mediciones propias de los viejos modelos; se necesita una revisión y ampliación de los indicadores de las evaluaciones. Pero, sobre este aspecto no parece existir suficiente trabajo empírico y, en consecuencia, es uno de los claros retos de la investigación evaluativa de instituciones escolares en la actualidad.
LA PRÁCTICA DE LA EVALUACIÓN DE INSTITUCIONES ESCOLARES: ESTRATEGIAS Y APOYOS METODOLÓGICOS
Sea cual sea el enfoque modélico que se tome, la evaluación de centros educativos, como casi todas las grandes investigaciones evaluativas, es una tarea compleja, sobre todo en la práctica , por razones técnicas, presiones ambientales, falta de evaluadores cualificados y dificultades de lograr la colaboración y participación necesarias. De hecho, la práctica de la evaluación, a pesar de sus avances, sobre todo en la última década, necesita seguir su proceso de desarrollo y solucionar algunos problemas importantes todavía demasiado frecuentes.
En referencia con lo anterior, Gallegos (1994), en su metaevaluación de más de medio centenar de modelos de evaluación americanos, encontró algunos defectos y lagunas muy generalizados. Los más comunes eran los siguientes:

Falta de indicaciones claras de que los evaluadores han recibido un entrenamiento adecuado en evaluación de centros.

Escasa evidencia de que las evaluaciones están basadas en un conjunto aceptable y reconocido de normas de evaluación de programas y productos.

Limitada evidencia de que se comprende y utiliza un enfoque sistemático para la evaluación del centro.

Insuficientes intentos de abordar las cuestiones de calidad de manera razonable.

Ausencia de indicaciones de que se llevó a cabo o se ha sugerido una metaevaluación de la práctica evaluadora del personal del centro.

Ante estos problemas, la reforma y mejora escolar a través de procesos de evaluación, profundizando en las tendencias emergentes en los últimos años, parece requerir cambios en algunos terrenos.

Las administraciones educativas deben potenciar la formación de evaluadores, sobre todo dentro del personal de los centros educativos, pues no se puede seguir demandando y construyendo modelos que partan de la participación del personal de los centros, si este no tiene la debida preparación técnica para ello. Ya es suficientemente difícil lograr su participación por otros motivos como para añadir un impedimento que sí se puede evitar con programas de formación adecuados. Esto, lógicamente, podría hacerse más fácilmente y mejor, promoviendo la colaboración con los centros y departamentos universitarios especializados en estos campos de la investigación.
Otro aspecto de capital importancia es la contextualización del proceso de evaluación del centro, adaptándolo a sus objetivos, entorno y posibilidades,…, buscando su mejora como institución individual. De los programas estandarizados es muy difícil obtener beneficios relevantes para cada centro, de acuerdo con su situación y necesidades particulares.
Otra necesidad reconocida a la que ya nos hemos referido con anterioridad, es la de identificar indicadores de calidad de los centros más útiles que los habituales, profundizando en una línea de investigación ya en marcha (Oakes 1989: National Council on Educational Statistics, 1991), que busca indicadores verdaderamente relacionados con la salud del centro y con aspectos críticos para mejorar su funcionamiento. Pero en este intento se debe ser extremadamente cuidadoso, ya que si se enfatiza la atención a unos pocos indicadores, pero no relacionados con los temas relevantes, se pueden crear problemas en vez de resolverlos (National Council on Educational Statistics, 1991). Los buenos indicadores deben permitir comprobar el progreso de un centro educativo con el tiempo.
A estas reflexiones estratégicas podemos añadir las que nos ofrece Nevo (1994) tras cuatro años de trabajo en un experimento de evaluación interna y externa. Las sugerencias son las siguientes:

a) La mejor manera de que el personal del centro comprenda el significado de la evaluación es a través de la distinción de lo que es descripción y lo que es valoración o juicio.
Muchos de los problemas y resistencias a la evaluación proceden de las diferentes concepciones que de ellos tienen los profesores y los administradores de los centros, a veces concepciones erróneas (Nevo y Goldblat, 1988). Se necesita crear un clima de franca y abierta comunicación, sobre la base de conceptos y concepciones claros para todos, especialmente en componentes y funciones tan importantes de la evaluación como son la descripción y la valoración (Stake, 1967; Guba y Lincoln, 1981; Nevo, 1983).
En primer lugar, el personal de los centros debe entender que evaluar es un proceso sistemático y técnicamente riguroso, y no intuitivo, para el que se necesita preparación. En segundo lugar, dejar en claro que esta sistematicidad técnica mejora la objetividad de la descripción, pero no totalmente. En tercer lugar, aclarar que la subjetividad interviene más en la valoración que en la descripción, pero que la subjetividad no implica arbitrariedad. Precisamente la evaluación intenta evitar la arbitrariedad en los juicios, siempre con algún componente de subjetividad.

 

b) Los estudiantes y su rendimiento no deberían ser el único objeto de la evaluación escolar
Muchos profesores identifican la evaluación con la evaluación y las pruebas del rendimiento de los alumnos, en el sentido de calificarlos (Stiggins y Faires Conklin, 1992), teniendo dificultades para introducir en el proceso los programas y otros objetos o elementos escolares, tales como los proyectos, el currículum, los materiales, los profesores, otro personal, los estudiantes,…, y el centro como entidad global. Esto debe explicarse bien.

 

c) Los resultados o impactos no deberían ser lo único que se examina cuando se evalúa un programa, un proyecto o cualquier otro objeto escolar.
Esto no quiere decir que los resultados e impactos no sean variables importantes, pero los méritos de un programa o del centro no pueden limitarse a ellos. Habría que fijarse al menos en los objetivos, las estrategias y planes y el proceso de implementación, en unión de los resultados e impactos. Esto ya fue propuesto hace más de un cuarto de siglo (Stake, 1967; Stufflebeam y otros, 1971), pero no tiene la consideranción debida en la práctica evaluativa.

 

d) La evaluación del centro debe tener tanto la función formativa como la sumativa, proporcionando información para la planificación y el perfeccionamiento, así como para la certificación y la rendición de cuentas.
La corriente que niega el valor de la evaluación sumativa es errónea porque también es muy útil. No cabe duda de que la evaluación es importante para mejorar los centros, pero también lo es para acreditar su funcionamiento, sobre todo ante proyectos de reforma, cuando se ponen en contraste distintos proyectos. Evitar la evaluación sumativa ante el empuje de la formativa es un error.

 

e) No se puede juzgar de manera razonable la calidad global de un centro escolar con un sólo criterio, o incluso por criterios múltiples, ni se necesita hacerlo así.
Pero esto no significa que sólo haya que proporcionar datos descriptivos y evitar los juicios. La evaluación debe proporcionar juicios de valor a partir de diversos criterios sobre distintos aspectos del centro. Lo que probablemente no es necesario son las valoraciones globales, porque son escasamente útiles para la evaluación formativa y se mezclan con el terreno de las decisiones en el caso de la sumativa.

 

f) Las necesidades de evaluación interna de una escuela se atienden de la mejor manera por un equipo de profesores y otros educadores, para quienes la evaluación es solamente parte definitoria de su trabajo, apoyados por un apropiado entrenamiento y asistencia técnica externa.
Scriven (1967) llamó a este equipo «amateur», cuya fortaleza está en su familiaridad con el centro y sus funciones, así como en no ser visto como una amenaza por el resto de compañeros. Su debilidad puede estar en la falta de experiencia y preparación, pero esto puede ser compensado con la asistencia de expertos externos.

 

g) Para llevar a cabo evaluaciones internas razonables es necesario utilizar instrumentos y métodos alternativos de las ciencias del comportamiento y de otros campos de estudio relacionados y adaptarlos a las necesidades del centro y a las capacidades del equipo “amateur” de evaluación.
No hay evaluación sin medición y recogida de información, pero los evaluadores internos de la escuela necesitan instrumentos de fácil manejo. Las cosas deben mejorarse bastante en este terreno (Stiggins y Faires Couklin, 1992).

 

h) «Aprender haciendo» sigue siendo todavía la mejor manera de aprender a evaluar.
Es más eficaz motivar y explicar bien la evaluación y su significado y formar poco a poco con el apoyo de la práctica, que introducir en bloque una visión profunda o incluso «recetaria» de la evaluación. La evaluación interna suele ser mejor camino de aprendizaje que la evaluación externa.
Cuando nos referimos a las variables que deben considerarse en la evaluación de un centro, siempre nos vamos a encontrar con variables que son antecedentes, como los de entrada y las contextuales, que tienen básicamente un carácter estático, con variables del proceso, que tienen carácter dinámico y con las variables producto, que vuelven a tener carácter estático. El énfasis que demos a unas u otras variables en el proceso de evaluación marcará en buena medida nuestro enfoque modélico. Las variables antecedentes y de proceso coincidirían con índices indirectos de calidad del centro, mientras que los productos serían los índices directos de calidad. Listados amplios de distintos tipos de variables a considerar en la evaluación de centros, pueden encontrarse, por ejemplo, en los trabajos de Escudero (1980), García Ramos (1989) y Pérez Juste y Martínez Aragón (1989).
Buena parte de las variables producto de un centro en un momento, en un periodo, se convierten en antecedentes para un periodo posterior.
Los evaluadores ante todo el conjunto de variables posibles, tienen que plantearse un proceso de selección dentro de cada tipo, en función del objeto, de la finalidad y de la orientación preferente de la evaluación.
Si el evaluador decidiera prestar atención únicamente a los productos, estaría aplicando un modelo economicista que desvirtúa incluso el propio concepto de educación. Se podrían juzgar y comparar niveles educativos y de salida del centro, pero nunca valorar la educación que se imparte en el mismo. En rigor, este enfoque sería un verdadero disparate.
Dedicarse a los productos, pero a la vista de los antecedentes, lo que coincide con el conocido modelo input-output, con los inputs como covariables o predictores, supone utilizar un enfoque eficaz en cuanto a medición de los rendimientos del sistema, pero muy limitado, porque se pueden detectar problemas, pero, en muchas ocasiones no se sabe donde ubicarlos ni, por consiguiente, ofrecer alternativas de solución.
Dedicarse a los productos, a la vista de los antecedentes y del proceso es un enfoque más educativo y más completo, pues permite la mejora real del sistema. Para compaginar la evaluación formativa y sumativa es necesario tener en cuenta tanto los índices directos como los indirectos de calidad del centro. Dentro de la consideración de estos tres tipos de variables, se pueden plantear diferentes esquemas de tratamiento y enfatizar más o menos unas u otras variables.
La consideración de las variables antecedentes y productos, por la naturaleza métrica de estas variables, generalmente estáticas, resalta la metodología cuantitativa. Por el contrario, la consideración de las variables de proceso, por sus características y dinamismo, resalta la metodología cualitativa. En todo caso, estas situaciones no son siempre así, aunque sean las más frecuentes, puesto que existen productos claramente cualitativos (elección de estudios, intereses, etc.) y variables del proceso que sí se pueden cuantificar (intervenciones en el aula, tiempos de explicación, etc.).
Seleccionadas sus variables, el evaluador de centros necesita instrumentos de medición de las mismas, instrumentos que con bastante frecuencia tiene que elaborar o, al menos, adecuar a partir de instrumentos de manuales u otros proyectos o modelos de evaluación.
Ya hemos dicho anteriormente que la investigación evaluativa debe incidir mucho más en la elaboración de buenos instrumentos de evaluación, pero esto no niega que en los últimos años se han producido muchos materiales y muchos instrumentos que están a disposición de los evaluadores.
De hecho, lo habitual es que los textos que tratan de la evaluación de centros, incluyan también instrumentos para la evaluación. Así, por ejemplo, el libro de De Miguel y otros (1994) que trata de la evaluación de centros e institutos de educación secundaria, ofrece quince cuestionarios de evaluación de otros tantos aspectos de la vida de un instituto, tales como el contexto sociocultural y educativo, la organización y funcionamiento del Consejo Escolar, el Proyecto Educativo de Centro, el liderazgo del equipo directivo, los procesos en el aula, el clima institucional, etc. Al describir estos cuestionarios se indican los correspondientes indicadores y los «items» relacionados con cada uno de ellos.
Los modelos de evaluación de centros utilizados en Cataluña, evaluados por Bartolomé y otros (1991), son en algunos casos un conjunto de cuestionarios de evaluación sobre distintos aspectos de los centros y su funcionamiento. Borrell (1995) referencia algunos de los apoyos instrumentales elaborados en la última década en nuestro país. El plan EVA ministerial (MEC, 1991), por ejemplo, ha desarrollado muchísimos materiales para la evaluación (encuestas, entrevistas, listados, etc.). Esteban y Bueno (1988) construyeron guías para la discusión y el autoanálisis. Como trabajos pioneros en nuestro país pueden citarse la pauta de evaluación de centros educativos de García Hoz (1975), las pautas del Servicio de Inspección Técnica de Educación de mediados de los setenta (Pérez Juste y Martínez Aragón, 1989), los cuestionarios sobre las tareas del profesor, los objetivos educativos y la dirección del centro que ofrece en su libro Isaacs (1977) y los instrumentos que presenta Ibar (1976) para evaluar el modelo económico-administrativo de un centro. Previamente, el CEDODEP (1966) había editado su escala de evaluación de centros de básica.
En un trabajo mucho más reciente sobre los instrumentos para evaluar los centros escolares de secundaria, Cardona (1995) analiza una serie de instrumentos elaborados en España, diferenciando los que tienen una perspectiva global, esto es, que intentan evaluar los diferentes aspectos del centro, de los que la tienen específica y se centran en determinados aspectos de la vida o características del centro. En este trabajo Cardona analiza su Escala de Evaluación Diagnóstica para Centros de Educación Secundaria (EED/CES).

En tan sólo los últimos diez años, la imagen de la tecnología en el aula se ha desplazado desde las filas de escritorios en un laboratorio de computación dedicada (todo en la misma dirección) a uno donde una variedad de diferentes dispositivos coexisten, a menudo con inquietud, dentro y fuera del laboratorio . El papel del profesor, por su parte, se mantiene dinámico como siempre: morphing hora a hora, si no un minuto a otro, entre el profesor, entrenador, guía, mentor, árbitro, y solucionador de problemas de guardia. Tiene el desencadenamiento de la tecnología del laboratorio, lejos de los escritorios voluminosos, siempre que el salón de clases con mejores herramientas para apoyar al maestro en todas sus funciones y los estudiantes en todas sus actividades?

 
Reciente artículo de Terry Heick sobre “aprendizaje de una segunda pantalla” ( Sync Método de enseñanza , TeachThought, 12/17/2013) aborda esta cuestión en la cabeza. Él proporciona un marco para entender cómo un 1:1 (o 1: algunos) medio ambiente mejor se puede aprovechar. ¿Cómo puede la tecnología potencialmente ubicua de hoy apoyar la variedad de interacciones y estructuras que es todo en un día de trabajo de incluso una sola clase? ¿Qué debemos pensar cuando pensamos en el tipo de interacción entre el dispositivo del profesor y de los estudiantes que pueden mejor apoyo y ampliar la eficacia de un salón de clases?
La diferencia entre 1:01 y aprendizaje de una segunda pantalla “es una cuestión de sincronización.” Aprendizaje Synced requiere dos tecnologías potencialmente opuestas: una, la capacidad de participar del mismo material de la base, y dos, la capacidad de enganchar el material de forma independiente. “En segundo aulas de aprendizaje de la pantalla, los profesores y los estudiantes son ‘sincronizado’ en cuanto al contenido con los otros, sin dejar de tener las herramientas, estrategias, la libertad y el espacio para aclarar, ampliar, crear o conectar el aprendizaje.”

 
Esta noción de una clase que se mueve de forma fluida de enfoque en un solo tema a la actividad individual o en grupos pequeños, y viceversa, no es nueva. El profesor guía la clase como un “conductor”, mientras que desatar cada alumno a profundizar en los temas por su cuenta, así, el aprovechamiento de la curiosidad y la aptitud de cada individuo. Y esto ocurre rutinariamente, con o sin los medios digitales.

redarquía
Este post es una breve introducción a las tecnologías que pueden apoyar un aula sincronizado utilizando pantallas segundo-que se centran en el uso de los recursos basados ​​en la web. Dado que los recursos basados ​​en la Web desempeñan un papel cada vez más importante en la educación K-12, la posibilidad de una mejor disputa y adaptarlos a los ritmos naturales de la instrucción en el aula aumenta en importancia. La esperanza es que esta discusión sea útil para los educadores que piensan acerca de lo que las tecnologías de la adopción en la amplificación de la sincronización y desatar que ya practican.

Estos últimpos tiempos en los cuales la evaluación está siendo la gran estrella (tengo un post en el hornos, pero aún no está cocido ya que estoy investigando en diferes documentaciones), mientras algunos están intentado establecer estandares de calidad (hay muchos en la red) así como diferentes indicadores que gestionen la misma en cualquier ámbito,

Direcciones, profesores, alumnos, tecnologías (y eso que no sabemos ni como usarlas), hablan de competencias ( y no las empleamos)…en fin que lo quieren mezclar todo pero eso si, que los docentes lo parcelen, lo acoten y claro, que lo escriban-eso si es importante-asi constará que se hace….

Les aseguro que personalmente me pase 2 años realizando proyectos curriculares, de centros, prouectos tutoriales, medologicos, organizacionales, de evaluación…para que los mandatarios del momento en Cataluña, los exportaran por todo el territorio…Centenares y centenares de folios en word, previo a centenares de cursos de formación y especialización en todas estas facetas, por lo que me consideraron un EXPERTO, por eso a lo mejor ahora voy por otros caminos….bien a lo que íbamos…

Otra vez van por el camino contrario, es decir, cuando la sociedad pide personalización, aprendizajes abiertos, inclusivos, ubícuos…ahora las administraciones quieren todo lo contrario, ESTANDARIZACIÓN, UNIFORMAIZACION, INDICADORES GENERALIZADORES….la verdad no o lo entiendo, mejor sicho, si lo entiendo…pero les diría, déjennos a los EXPERTOS y a cualquier persona que de verdad quiera emprender una nueva praxis que este relacionada con la vida real, no se acuerdan? HACE UNOS DÍAS DIJEROSN QUE NO ERAMONS COMPETENTES EN RESOLUCIÓN DE PROBLEMAS CON LA VIDA REAL, EN COMPETENCIAS TIC, EN IDIOMAS EXTRANJEROS…por favor, no les pidan a los equipos directicvos, a los docentes…algo que no saben hacer porque nadie se lo ha mostrado, no les hagan hacer trabajos que no van con ellos…denles todo tipo de indicadores, de competencias, de estrategias, para que ellos, los aprendices, la comunidad educativa, …puedan elegir lo mejor para cada persona….y entérense de una vez….

 

El aprendizaje si no va relacionado con la vida real, no vale para nada, ha pasado el tiempo que unos pocos RICOS debían tener un título colgado en la pared para dar prestigio…

Trabajar, aprender, praxis….conceptos que ya son lo mismo.

Con todos estos escenarios abiertos, con todos estos frentes en tierra de nadie, afirmamos que la EVALUACIÓN, no solo no forma parte de ningún aprendizaje (como dice Jordi Adell), si no que no forma parte de ningún aprendizaje formal ni informal, ya que lo que si es, es el mismo aprendizaje.

 

Como ya hemos indicado ahora las administraciones político-educativa quieren que establezcamos criterios que lo evalúen todo, lo que muchos expertos venimos llamando des de hace muchos años, CONTROLES DE CALIDAD, que al fin y al cabo es lo que son…y claro para ello debemos “meter”, aunque sea con “calzador” todo tipo de indicadores que sirvan como referentes de una evaluación universalizadora, uniformizadora y que sirva de patrón para una vez más, segregar, a los alumnos, escuelas, universidades…

Cuando el mundo gira hacia lo particular, lo personalizado, algunos lugares del mundo se empeñan en seguir caminos equivocados para llegar a una meta, que las estadísticas, PISA, OCDE, les digan que están a la altura, craso error, porque precisamente el camino que están emprendiendo es el contrario para llegar a esta meta.

Con ello seguimos “enseñando” por tanto transmitiendo, memorizando….y los alumnos siguen en perpétuo estado, no de Beta, si no de pasividad y desmotivación, a lo que ahora se unirá la desidia de docentes, ya que esto les va a superar por todas partes (no son diseñadores ni estruccionales, ni pedagógicos, …)…..

Considerar la evaluación como un registro de datos, aunque lo quieran disfrazar con las competencias por en medio (y eso que aún no sabemos ni lo que son), es empezar la casa por el tejado.

Por otra parte si queremos “medir el impacto”, por ejemplo, el de las TIC en los aprendizaje, hacerlo de manera estandarizada, es lo contrario de l oque se debería hacer, ya que las TIC si algo no son, es un fin en si mismas, si no un medio…

Las tendencias actuales y futuras en el aprendizaje van des del Social Learning al Learning is Work, con una Educación Disruptiva que es la encargada de enlazar todos estos componentes y transformarlos en una única cosa, propia de la realidad, del contexto y de las circunstancias en qué vivimos…

No podemos caer ahora en el troceamiento, segmaentación…de asignaturas, materias, incluso en la selección de alumnos, si no todo lo contrario, facilitar todo tipo de mecanismos que sirvan para dar calidad al proceso real que estamos comenzando a diseñar y que nada tiene que ver con lo que pretenden que hagamos…

Ahora se trata de hablar de causa.efecto, de acción-reacción, de ensayo-error…pero todo dentro de aprendizaje implementado en una mejora del trabajo y de nuestra formación como personas….

Las evaluaciones al uso deben desaparecer de una vez del sistema y por tanto de las organizaciones educativas, incluso de las empresas….la jerarquización no se debe ni valorar, la redárquica y transversal, por supuesto que si…y con ello podremos entender que el aprendizaje formal e informal deben ser ya lo mismo y si bien no tiene el mismo reconocimiento social-titulaciones, badges…, esto debe cambiarse de una vez ya que el aprender ha pasado de ser un DERECHO, a una OBLIGACIÓN, y que no esté sujeta por ley, ni a una localización ni física ni virtual, por tanto ubicuidad, deslocalización…es l oque debe primar…

Algunos dicen que el aprendizaje natural es utópico y lo entiendo, claro, pero es que no hablamos de esto, este proceso ya está superado, hablamos que aprendizaje y trabajo son lo mismo, con lo que esta “montaña rusa” se rompe y pasa a ser otra cosa, pasando a ser una praxis aplicada, distribuida, escalable, con opciones de inversiones que serán rendibles porque no solo se hacen en aprendizajes teóricos, si no en trabajos productivos y a su vez fomenta que las personas sean más competentes en mejorar sus habilidades, para crear, para criticar..

Hasta que no tengamos claro todo este hilo narrativo siempre estaremos introduciendo mejoras parciales, que a corto plazo darán resultados, pero que a medio y largo plazo serán como siempre un desastre.

La Sociedad 3.0 ya nos está marcando el camino, algunos dirán que nos metemos en una “voragine”, en una gran infoxicación” en “una deriva”, en un “caos”, en una “utopía”, pero nada más lejos de la realidad, ya que lo que queremos hacer es simplmente, vivir.

copy

juandon