Archivos de etiquetas: inteligencia

La “tecnología social”: inteligencia y divergencia del siglo XXI

juandon

ictus

En la sociedad de hoy hay dos coneptos que o confundimos o no asimilamos, …la digitalización informatizada es un proceso técnico, mientras que la digitalización social es un proceso humano que en este caso implica una profunda revolución sociotécnica, todo ello nos lleva (como muy bien nos explica el profesor Fernando Saez Vacas), a otra sociedad, e aplica al proceso de interiorización personal y de coherencia social de las funcionalidades y efectos múltiples, directos, secundarios y hasta ocultos de esta tecnología.

Su socialización, cuyo resultado es la Sociedad de la Información, es un factor engañoso de progreso, si no está dirigido por una cultura madura de la tecnología, a la que podríamos denominar sociotecnocultura y que representa un objetivo educativo por el que luchar.

Entre las medidas necesarias para comprender mejor la dinámica de esta revolución sociotécnica que vivimos habría que completar la formación en muchas especialidades con dosis adecuadas de interdisciplinariedad, generalizar la práctica del sistemismo diversificado (inclusividad socio.educativa, por ejemplo) y del pensamiento complejo y crear, para difundirlo, un repertorio básico de conceptos sociotecnoculturales…

Rosendo Arenas

Esto deberías de aclararlo mejor, pues hay muchas personas que confunden la tecnología con la tecnología informática.
……………………………………………………………………..
Por supuesto, por ello tenemos lo que Saez Vacas llama TECNOLOGÍA DE LA INTELIGENCIA, que podemos entender como aquellas creaciones técnicas que no van dirigidas a producir cosas, sino a permitir que el cerebro humano se organice y funcione de manera distinta, es decir… no solo el SOFTWARE es un elemento básico dentro de la sociedad, si no por encima de ello está nuestra capacidad y mentalidad cognitiva de aceptar que estamos en una época cuya idiosincrasia hace que las tecnologías formen parte de nosotros, es más, que las consideremos en nosotros…
cono_exper_dale

  • Rosendo Arenas ·

    Desgraciadamente muchos confunden contextos y piensan que la tecnología en el aula. es enseñarle a los alumnos a hacer todo en la computadora.
  • Rosendo Arenas ·

    Opino que debes de separar primero los conceptos y después hacer una análisis para poder dar un contexto sobre Ciencia, Tecnología, Sociedad y Valores de lo que se pretende.
    …………………………………………………………………………………………
    Ahora ya no es necesario ser “ingenieros computacionales”, todos y cada uno de nosotros podemos ser y de hecho, lo somos, NODOS CON la capacidad para SER en el centro o en un nodo de una o varias de las redes sociales que PODEMOS FORMAR, copiosas y casi intangibles, , con un dinamismo y una densidad progresivamente crecientes gracias al desarrollo de un variado abanico de tecnologías de cooperación…
    Rosendo Arenas ·

    Así como le menciona Mariano Martín Gordillo: Ciencia, tecnología, sociedad y valores no son cuatro conceptos en los que la certeza y la neutralidad corresponda a los dos primeros y la incertidumbre y la controversia sean sólo propias de los dos segundos.
    La ciencia y la tecnología son productos humanos y, como tales, incorporan también los valores y los intereses propios de los seres humanos. Por otra parte, en la sociedad actual no es posible hablar de valores sin tomar en consideración las implicaciones que, para lo bueno y para lo malo, se derivan del desarrollo de la ciencia y la tecnología.
    La ciencia, la tecnología, la sociedad y los valores son, por tanto, cuatro conceptos en cuyo desarrollo se trenzan de un modo muy sutil los aspectos epistémicos y axiológicos, lo fáctico y lo valorativo, lo que atañe a lo que es y a lo que debe ser. Porque ser y deber ser son ámbitos que continuamente interaccionan en las controversias sociales y, especialmente, en las controversias referidas al desarrollo de la ciencia y la tecnología y sus implicaciones para los seres humanos.
    ………………………………………………………………………………………….
    • Francisco Torregrosa

      Estoy de acuerdo contigo que la tecnología está muy bien pero hay que enseñarla para que tengo un efecto positivo.
    • Rosendo Arenas ·

      Por ejemplo ayer mismo veía un comentario del periodista Andrés Oppenheimer (Grupo Televisa) sobre los comentarios catastroficos de Dan Brown en sus libros sobre la humanidad y la tecnología. El ignorante, omitió aclarar las diferencias entre una y otra. En lo personal, estoy terminando de leer los 4 libros y me han ayudado a aclarar y sobre todo a aclarar estos conceptos, para como te repito hacer un contexto diferente. Imparto la materia de Ciencia, Tecnología, sociedad y Valores.
      …………………………………………………………………………………….
      Algunos dirán que eso lleva hacia la mediocridad, que los expertos siempre han existido, pues bien, ahora los “expertos” somos todos, por tanto continuan existiendo, las tecnologías nos hacen así y todavía nos catapultarán hacia caminos que nunca antes habíamos soñado que seríamos capaces de andar…
      QR_CODE_BRANDED_635122728567784568
      juandon

La “inteligencia en red”, la nueva “interfaz” de la sociedad!

juandon

inteligencia_en_red_620x260

Internet está haciendo que los hipermedia, los hiperlinks…la intercomunicación síncrona y asíncrona, no solo sea una manera de comunicación más “intensa”, más inmediata, si cabe, si no que es algo que está cambiando el “metodo de producción”, si, han leído bien´, toda esta nueva INTERFAZ que utilizamos en cada instante…

Sin que casi ni nos damos cuenta, ni le damos “valor”, está cambiando los planteamientos económicos, sociales, en definitiva, está aumentando y mucho la “productividad”, es decir, con menos costos, menos esfuerzo, pero muchas más posibilidades de compra-venta, somos capaces de mejorar y mucho en este nuevo aspecto.

Ciertamente decimos que ya no estamos en la era industrial ni post-industrial, y a sí es, pero eso no quita que de “otras maneras de actuar y de pensar”, podamos gracias a nuestro cambio de mentalidad y ayuda de la tecnología, a cambiar nuestra manera de relacionarnos en todos sus aspectos y uno de muy importante, también es el económico, por qué no?

Todo esta evolución viene determinada: por la colaboración, la transparencia y la confianza…lo que hace que toda la “arquitectura” de nuestro pensamiento de diseño y por tanto, de nuestras estructuras mentales y de realizaciones personales y económicas, evoluciones con unas concepciones muy diferentes pero mucho más potentes que las anteriores…

Lo podemos definir como: con menos podemos mas….

Incluso las organizaciones, instituciones…públicas…están al descubierto, quieran o no quieran, la sociedad sin darse cuenta las está poniendo al descubierto, las está desnudando ( para quedar bien lo llamamos “gobierno abierto, ciudades digitales..) pero en definitiva no es más que la sociedad para la sociedad..

Ya no se trata de que sea mejor o peor, es sencillamente así, y si estas instituciones están al descubierto, desnudas…su “aspecto” debe ser mejor que nunca, ya que las van a ver todo el mundo, por tanto la transparencia, la honrados…deben ser sus anagramas principales, si no van a salir mal en las “fotos” y si salen mal, las van a “borrar”…

La sociedad comparte, distribuye y se empodera y lo hace en nombre suyo, no de ninguna minoría, poderosa o no, es no importa, ahora somos capaces con un artilugio móvil, con una simple cuenta en Twitter, de hacer revoluciones, pero no las harán las tecnologías, las haremos las personas, ya que con estas herramientas vemos que podemos hacerlo, que tendrán que escucharnos y no les va a quedar más remedio, porque todo lo que digamos se sabe al momento en cualquier parte del mundo y ese empoderamiento (poder)da transparencia proporciona libertad…

Hasta ahora la lectura, la escritura, nos daba acceso al conocimiento, a la información, ahora en cambio internet, nos hace partícipes de ello, nos hace prosusimidores, nos permite no solo conocer lo que vemos, escuchamos y leemos, sino que podemos acceder y coparticipar con los mejores expertos del mundo y al momento, si la Imprenta de Gutemberg fue como dijeron los “protestantes” la primera gran concesión de dios”, internet no solo significa eso sino otra concepción del mundo.

Y como dice Tapscott y con el cual coincido: No estamos en una sociedad de la información y del conocimiento, que va, de ninguna manera, estamos en la ÉPOCA DE LA INTELIGENCIA EN RED, una época donde nada es mío ni tuyo, queramos o no, si no que lo que existe en un momento determinado, pasa a ser de todo el mundo…juandon

Fuentes:

http://juandomingoarnos.wordpress.com  Innovación y conocimiento de Juan Domingo Farnós

http://juandomingdisruption.blogspott.com Disruption! de Juan Domingo Farnós

http://blogthinkbig.com/la-inteligencia-de-la-red-i/ La Inteligencia en Red de Enrique Blanco

 

 

La Inteligencia-humana y artificial-mejoran la relación Aprendizaje-Trabajo!

juandon

Vamos a extrapolar el ANÁLISIS DE DESEMPEÑO EMPRESARIAL a la conjunción “aprendizaje-trabajo” y lo vamos a desarrollar según los parámetro de Phillips que estableció en el año 2002….

 

Hay cuatro necesidades de mejora en el  rendimiento del aprendizaje-trabajo y no cómo un objetivo final, sino como un proceso:

Establecer las diferentes posibilidades de aprendizaje, el desempeño laboral, la capacitación de las personas que intervienen en le proceso y también las características y necesidades de manera personalizada y personal.

Cuando se realiza un análisis, lo mejor es tomar un enfoque a largo plazo para asegurar que los lazos de mejora del rendimiento en la iniciativa con la visión de la organización, misión y valores. Esto conecta cada necesidad con una métrica para asegurarse de que lo que realmente hace lo que se supone que debe hacer. Esto se logra mejor mediante la vinculación de las necesidades de análisis de rendimiento con cuatro niveles de Kirkpatrick evaluaciones (Phillips, 2002):

  • Necesidades de nuestro proceso aprendizaje.trabajo …
  • Necesidades de trabajo de rendimiento, las cuales  están relacionados con el comportamiento, actitudes…
  • Necesidades de capacitación están vinculados al aprendizaje
  • Necesidades personalizadas y personales, están vinculados al proceso Acción-Reacción.

El análisis se realiza para determinar lo que se necesita, por lo que se inicia con un análisis de las carencias: las “necesidades” de la organización, menos el nivel de rendimiento actual, es igual a la diferencia….

Mejoramiento del Desempeño es una herramienta para cerrar la brecha en el desempeño…

Más que preocuparnos de cómo cerrar la brecha (la creación de contenido y contexto), es mejor tener siempre presente descubrir el nivel actual de rendimiento y el rendimiento que se exige. Además, conocer el “por qué”. Es decir,  ¿qué está causando la brecha?

Los japoneses tienen un concepto de mejora del rendimiento interesante – se preguntan “por qué” cinco veces cuando se enfrentan con un problema. En el momento en el quinto por qué se responde, creen haber encontrado la causa última (raíz) del problema. Así que cuando se mira en un déficit de rendimiento, mirar profundamente – “¿Qué es exactamente que está causando la brecha?”

Una vez que entienda el problema, entonces tenemos que ver cómo encaja con los distintos niveles de la organización.

La tabla a continuación muestra el esquema básico de un análisis de rendimiento y cómo Cuatro Phillips Necesidades y cuatro niveles de Kirkpatrick de enlace con las evaluaciones realizadas en Rummler y Brache Tres Marco de nivel de rendimiento.

 

Investigar la iniciativa problema o el rendimiento y ver cómo se apoya la declaración de la misión, la visión del líder y / o metas de la organización, etc solucionar un problema o realizar un mejor proceso es tan bueno como una retroalimentación bien echa, es decir, es más importante tener en cuenta LA RETROALIMENTACIÓN que los propios resultados en si….

Un mejor enfoque es mejorar el rendimiento o un proceso que es compatible con una meta clave de la organización, visión o misión.

“Cuando los altos ejecutivos se les pidió a las iniciativas de formación más importantes, el 77% mencionó “la alineación de las estrategias de aprendizaje con los objetivos de negocio”, el 75% mencionó, “asegurar el contenido de aprendizaje cumple con los requisitos de mano de obra”, y el 72% “, aumentando la productividad y la agilidad” (Training Magazine , octubre de 2004). Por lo tanto, la alta dirección no está mirando a la formación para ser un centro de beneficio (que es lo que las otras unidades de negocio son para), sino que está buscando en las iniciativas de mejora de rendimiento para ayudar a “crecer” a la organización para que pueda alcanzar sus objetivos y llevar a cabo su misión” (investigación realizada por…. .Rummler, G. & Brache, A., (1990). Improving Performance: How to Manage the White Space on the Organization Chart. San Francisco: Jossey-Bass.)

El objetivo es hacer un impacto o conseguir algún tipo de resultado. Así que una vez que haya identificado la brecha entre el desempeño actual y las metas de la organización y la visión,buscaremos qué criterios se deben cumplir a fin de demostrar que la diferencia ha sido en realidad un puente en nuestro camino de aprendizaje para obtener mejores reultados laborales…

Para asegurarse de que ha capturado con precisión las necesidades del negocio, el análisis debe contemplar las necesidades del nivel de la organización y medir los resultados, mejor dicho, el grado de impacto que está teniendo y en todo caso, el que se debe mejorar….

La evaluación es la determinación sistemática del mérito, el valor y la importancia de un aprendizaje o proceso de formación mediante el uso de criterios respecto a un conjunto de normas. La fase de evaluación es continuo a lo largo del proceso. El objetivo principal es garantizar que los objetivos declarados del proceso de aprendizaje en realidad se reunirá la necesidad de la empresa requerida. Por lo tanto, se realiza durante las primeras cuatro etapas del mismo proceso::

  • Análisis: ¿El problema es el rendimiento de un problema de entrenamiento? ¿Cómo implementar una plataforma de aprendizaje un impacto positivo en una necesidad comercial o meta? ¿Qué debe hacer a los alumnos ser capaces de hacer con el fin de asegurar el cambio requerido en el rendimiento?
  • Diseño: ¿Cuál debe ser aprendido por los alumnos, que les permitan cumplir con las necesidades del negocio o meta deseada
  • Desarrollo: ¿Qué actividades lo mejor será llevar a cabo la actuación requerida.
  • Implementación: Los alumnos deberán convertido en intérpretes (tienen las habilidades y conocimientos necesarios para realizar las tareas requeridas)?

También se toma un paso más allá al asegurar que los alumnos realmente puede satisfacer las nuevas normas de funcionamiento una vez que han completado su formación y regresaron a sus puestos de trabajo. Y en segundo lugar, asegurarse de que la necesidad de la empresa o meta que realmente se cumplen.

El lugar más emocionante en la enseñanza es la brecha entre lo que el maestro enseña y lo que el alumno aprende. Aquí es donde la transformación se lleva a cabo impredecible, la transformación que significa que somos seres humanos, creando y dividiendo nuestro mundo, y no objetos, pasivo y definido. - Alice Reich (1983).

Las evaluaciones ayudan a medir la diferencia de Reich, determinando el valor y la eficacia de un programa de aprendizaje. Utiliza las herramientas de evaluación y validación de proporcionar datos para la evaluación. La evaluación es la medición de los resultados prácticos de la formación en el entorno laboral, mientras que la validación determina si los objetivos de la meta de capacitación se cumplieron.

Bramley y Newby (1984) identificó cinco objetivos principales de evaluación:

  1. Comentarios – Vinculación de los resultados del aprendizaje de los objetivos y proporcionar una forma de control de calidad.
  2. Control – Realizar vínculos de la formación con las actividades de la organización y de considerar la rentabilidad.
  3. Investigación – La determinación de las relaciones entre el aprendizaje, la capacitación y la transferencia de la formación para el trabajo.
  4. Intervención – Los resultados de la evaluación influir en el contexto en el que se está produciendo.
  5. Los juegos de poder – Manipulación de los datos de evaluación para la política de la organización.

Una revisión de la literatura para el período de 17 años previos a 1986 sugiere que hay una infravaloración generalizada de programas de formación, y que lo que se está haciendo es de calidad desigual (Foxon, 1989). Sin embargo, con la economía actual y las organizaciones que buscan recortar programas que no funcionan, esta actitud displicente hacia la evaluación de la formación está cambiando, pero no necesariamente hacia el ROI (Retorno de la Inversión), sino más bien para garantizar que la formación apoya las necesidades de las unidades de negocio. Esto se debe principalmente a las partes interesadas en su mayor parte no consideran la formación como un centro de beneficios, sino como un socio estratégico que apoya sus metas…..

De  Foxon, M. (1989). Evaluation of training and development programs: A review of the literature. Australian Journal of Educational Technology,http://www.ascilite.org.au/ajet/ajet5/foxon.html

 

…y quizás lo más importante…nuestra formación continuada….  el análisis de las necesidades individuales es la identificación de la población objetivo. Si bien esto está estrechamente relacionado con la formación Necesita más arriba, ya que ambos se ven en el nivel de empleo / Intérprete, las necesidades individuales de ir un poco más profundo.

Se asegura que la intervención rendimiento realmente se ajusta a los requisitos individuales. Por ejemplo, en el análisis de necesidades de capacitación, podría determinar que los titulares de los puestos de trabajo tienen que aprender un nuevo proceso. En este análisis de las necesidades, la población objetivo se mira más de cerca para determinar el contenido real, el contexto y forma de entrega de la intervención rendimiento.

En el análisis de necesidades formativas, nos fijamos en los educandos como conjunto, mientras que en este análisis de necesidades nos fijamos en ellos individualmente…

Además, se desea determinar qué tan bien este análisis se llevó a cabo mediante el uso de un nivel de una evaluación , por lo que determinamos que tanto en el APRENDIZAJE como en su implicación directa con EL TRABAJO, no debe ligarse a una sola posibilidad de resultados, sino a diferentes caminos, de esta manera nos aseguramos una realización personalizada y de la misma manera, con mayores probabilidades de mejoras y de retroalimentación, a la vez….

.A lo largo  de la capacitación esta evaluación también se conoce como hojas de smiley – qué tan bien lo hicieron los alumnos como la intervención rendimiento.

Detrás de todo el contexto planteado, lo esencial es el de analizar el sistema, identificar una necesidad, construir una evaluación (instrumento de medición) que identifica el objetivo que se requiere, preparar las diferentes posiciones de RETROALIMENTACIÓN-incluso para cambiar todo el proceso-identificar el contenido, “por qué” seleccionamos la intervención, y luego construir en el contexto cerrando la brecha entre la necesidad y el objetivo. Una vez que tenga un programa en el lugar, la realización de una evaluación debe ser instantánea porque ya dispone de las herramientas de medición en el lugar, lo que provocará todo un ESCENARIO INCLUSIVO y “prácticamente automatizado, por lo que tanto se podrá realizar por medio de la Inteligencia humana cómo por la Inteligencia Artificial.

 

 

Las TIC, del conductismo a las inteligencias múltiples y del esfuerzo al Connectivismo “informal y personalizado”

juandon

(foto: sferrerobravo.wordpress.com)

De todos es aceptado que las tecnologías de la información y de la comunicación sirven entre otras cosas, de medio transmisor que facilita los procesos de aprendizaje con un mayor “empoderamiento” técnico y metodológico y con una “igualdad ” democratizadora que hasta ahora nunca había sucedido.

Y no menos cierto también, que si bien empezamos a investigar en Educación con el Conductismo y su férrea disciplina harmonizadora, la cual no admite ningún innatismo, o lo que es lo mismo, la conducta siempre es aprendida y el reesfuerzo juega un rol fundamental en el proceso, lo cual por otra parte favorece la retroalimentación como un prooceso de aprendizaje.

Este apartado del conductismo nos aproxima a la Inteligencia única, Gottfredson definió en 1997 la inteligencia humana como “una capacidad mental muy general que, entre otras cosas, incluye la aptitud para razonar, planear, resolver problemas, pensar de forma abstracta, comprender ideas complejas, aprender rápidamente y aprender de la experiencia. No es únicamente aprender de los libros, una habilidad académica limitada, o hacer bien los tests. Por el contrario, refleja una capacidad más amplia y profunda de abarcar lo que nos rodea, pero obviamente al ser muy general también es difusa y por eso nos permite adentrarnos en el terreno de HOWARD GARDNER y sus INTELIGENCIAS MÚLTIPLES

Es en este momento cunado las TIC nos ayudan a ver que las Inteligencias deben ser varias, ya que de alguna manera no todos somos igual de hábiles o de astutos de por medio de estas tecnologías llegar a los mismos aprendizajes, por tanto, ahora ya es una obviedad, cuando solo hace diez años esto era totalmente increible, lo dijera quien fuera.

Es más, las TIC nos han hecho pasar de las inteligencias medibles o categorizables, como se suele decir, a ver también el TALENTO y el ESFUERZO, como dos elementos tan importantes como el primero.

Podemos entender que las Inteligencias se suelen localizar en la corteza del cerebro y también que suelen llevarnos a planteamientos genéticos y de experiencia, es decir, de entrenamiento, pues bien, también las habilidades talentosa y el esfuerzo para aprender, llevan las mismas connotaciones y han sido precisamente el  “apoderarnos” de las TIC y el tenerlas como algo natural (invisible) a nosotros, lo que ha hecho permeabilizar estas diferencias y establecer un hibridaje que hasta ahora era imposible.

Es precismanete la “regeneración” de la cultura del ESFUERZO lo que de alguna manera nos ha llevado a aceptar el Connectivismo como una manera más de acuerdo a esta Sociedad del Conocimiento, lo cual nos permite no solo aprender nosotros mismos, sino de otros, con lo qué las TIC tienen un papel VIRALIZADOR y permanente para ello, lo que ha fomentado la aparición de los PROSUMERS…”aquellos que consumen y producen..aquellos que enseñan y aprenden”…marcando la desaparición de los EXPERTOS a la vieja usanza -los únicos detentadores de los saberes- a una sociedad de EXPERTOS, lo cuál no ha significado una ninguneación del aprendizaje, si no todo lo contrario,el aumento de posibilidades gracias a todo ello.

Si bien el Conectivsimo es criticado y mucho por el aprendizje formal, por el “poder de los estados”, todos sabemos que representa el adalid del APRENDIZAJE INFORMAL, lo podríamos apellidar, “POPULAR”, de todos y para todos, lo cuál lleva al USUARIO y a las Tecnologías de la Información y la Comunicación, a reinar en un reino llAmado SOCIEDAD, cogiendo las riendas, pero también la responsabilidad de todo su acontecer…

Ya somos capaces de crear Escenarios de Aprendizaje personalizados que no individualizados, es decir, no aprendemos solos, sino con los demás y nuestra aportación es para mejorar nosotros mismos y los demás, con lo cuál el aprendizaje pasa de ser una cuestión “intima” y solitaria, a estar dentro de la maraña de lo que llmaríamos ecosistema, entornos, o en definitiva Escenarios, siempre cambiables y mejorables, tanto por razones de evolución, de experiencias o de retroalimentaciones siempre necesarias.

Los Escenarios de aprendizaje son micromundos reales y contextualizados que ayudan al desarrollo de capacidades, destrezas y actitudes de los estudiantes. Por ejemplo, una plaza, una municipalidad, un museo, una mina, una panadería, Etc.

Se trata de una nueva metodología que conlleva una serie de cambios que alcanzan desde la administración de los recursos hasta las prácticas pedagógicas en el aula, lo que implica abordar de manera interdisciplinaria los contenidos curriculares y asumir un diseño de programación abierto y flexible, lo que determina una nueva forma de aprender, informall (no formal), más autónoma y autogestionada, pero más ajustada a la ublicuidad de lo que representa la Sociedad y las enseñanzas que de ella emanan.

Se han realizado algunas investigaciones que han demostrado la efectividad de este estilo de trabajo, especialmente en lo referido al desarrollo de las habilidades cognitivas, en el uso de estrategias de aprendizaje de nivel superior, en el logro de habilidades socioafectivas y en el aumento de la autoestima social, entre otras.

El desarrollo de la metodología involucra la actuación tanto de los profesores como la de los alumnos en varios momentos, los que se inician con la planificación de una Unidad de Aprendizaje interdisciplinaria, la motivación (presentación a los alumnos ) , la visita al escenario, la relación de los contenidos curriculares con lo recogido y aprendido en la visita y el producto final que condensa lo que ya existe en la realidad con la propuesta original, nueva y única de los alumnos.

Los nuevos Escenarios Educativos (presentación en slideshare) : 

View more presentations from luisamaya.
El fenómeno descrito se traduce en lenguaje pedagógico, como la capacidad de construir sus conocimientos de un modo participativo y activo que transforma al alumno en un agente protagonista de su propio aprendizaje y por tanto responsable del mismo.
Al ser un trabajo pedagógico enmarcado bajo un paradigma ecológico, el alumno tiene la oportunidad de poner en prácticas sus propios estilos de aprender y a la vez crear otros ante las tareas que se derivan del escenario, incluyendo su propia evaluación, en la que los docentes sólo ejercerán un rol de facilitadores del mismo.
La visita a un lugar real y concreto como lo es un escenario de aprendizaje, con objetivos claramente definidos, el trabajo en equipo, la investigación en diversas fuentes, el intercambio de impresiones en el aula, la elaboración de un producto final, etc. Constituyen una serie de estrategias que facilitan elaprendizaje informal de los educandos y lo preparan para enfrentar de mejor forma los desafíos intelectuales y laborales del futuro.



En definitiva, la experiencia de los escenarios de aprendizajes permite construir un modelo pedagógico que articula elementos como un Currículum contextualizado, pertinente, e interrelacionado, prácticas pedagógicas con metodologías activas y motivadoras, ambientes y espacios adecuados para trabajar en equipo y para generar aprendizajes significativos, todo esto en el contexto de una gestión pertinente a los requerimientos innovadores del Proyecto. Escenarios de Aprendizaje Informal con las TIC / Informal LEARNNING with ICT
http://viewer.docstoc.com/

…no podemos dejar pasar esta ocasión y conformar unos planteamientos adecuados a esta sociedad permeable, si, afortunadamente, de expertos que aprenden continuamente (aprendices)y de personas que son eso, personas individuales y sociales, si conseguimos aunar eso y no tener miedo a que las TIC nos ayuden a ser mejores, lograremos serlo, eso seguro.

//

La Inteligencia Artificial en un “mundo disruptivo!!

juandon

“Google respaldada por la escuela prepara para la ‘interrupción” del sistema actual y apuesta por la tecnologñia en estado puro (IA)”

El rey de los buscadores no ha dudado en poner mucho dinero para ayudar a realizar esta propuesta a Ray Kurzweil, para r un futuro en que la inteligencia artificial puede que ya no nos necesitan para funcionar.

       Kurzweill responde a PZ Myers http://bit.ly/d9uxni Pelea pelea!…

El primer movimiento se lo tenemos que adjudicar a Ray Kurzweil que abre la partida con unas declaraciones en la revista Wired sobre ingeniería inversa cerebral y predice que, en una década llegaremos a la singularidad tecnológica: Ordenadores más inteligentes que los humanos.

Aclaro primero que cuando Kurzweil habla de ingeniería inversa se refiere a desvelar el funcionamiento del cerebro humano y mediante ingeniería informática aplicarlo tecnológicamente para crear inteligencia artificial.

Las declaraciones de Kurzweil aparecieron en Gizmodo mediante Wired. Aquí tenéis el artículo y su traducción al castellano en Gizmodo: “Ordenadores que nos superen ¿para el año 2020?

Estas afirmaciones, que conociendo a Kurzweil no me sorprenden, cayeron en manos de PZ Myers que inició la batalla refiriéndose a ellas en un artículo titulado: “Ray Kurzweil no entiende el cerebro

Seguramente los puristas de la Educación, por ejemplo, pondrán el grito en el cielo y dirán lo que es obvio por otra parte, las tecnologías por si solas no son nada, por supuesto, y así creemos que siga, pero nunca hay una verdad absoluta para nada, todo es relativo, afortunadamente.

Google, puede actuar como un “caza talentos” eso haría que no solo la Intelegencia Artificial (IA) sino también la humana pudiera complementarse y “generar” líderes que fomenten una nueva manera de “diseñar” y de entender los acontecimientos que posteriormente llevarán a un nuevo orden de las cosas.

El aprendizaje actualmente ya es un MASHUP, una hibridación entre personas que creen en la pura instrucción y otras que abogamos por una disrupción inclusiva que  lleve a la excelencia personalizada de cada uno de nosostros para aportar bienes generales a la sociedad.

Es necesaria esta combinación, esta “hermandad” de maneras de aprender, de maneras de “evolucionar” en la sociedad? Naturalmente todo es opinable, pero si hasta ahora era la instrucción la que dominava de manera “aboslutista” todo lo relacionado con la formación de las personas y algunos queremos acabar con ste reinado, por qué no dejarnos intentarlo?,…esa es la gran pregunta y también la gran preocupación de una Sociedad que ya no es tal, ahora son “sociedades· diversas que quieren vivir juntas y cionectadas. 

(El lavado de cerebro masivo)… leer

Kurzeweil, puede abogar hasta la idea de que las personas ya no morirán que serán incluso medio máquinas…pues como vamos a saberlo, esperemos que no, pero en todo caso será lo que la sociedad desee ser, eso si es seguro.

También podemos enlazar la teoría conectivista de George Siemens y la desintermediación de O’reilly, como una lucha permanente entre Sociedad y tecnologías, cuando lo que verdaderamente importa es una Sociedad mejor, y si las tecnologías nos ayudan a ello, pues adelante.

Google, representa el “imperio” , la guerra del MAL ( las tecnologías) contra la “bondad” de la inteligencia humana..y que lejos de la realidad, ….Inteligencia Artificial, Robótica, Holística…todo es preciso para ser mejores, eso es lo que importa.

…”la Educación no tiene otro enemigo que la propia Educación” y en ello hemos de incidir, en establecer lo que queremos que sea la nueva educación….

y si lo logramos entonces podemos empezar a trabajar, a construir los cimientos de un nuevo SANGRIL.LÁ,, una nueva vida en un mundo mejor…

 

juandon

De la inteligencia colectiva, pasando por la colaborativa a los e-cosistemas del conociiento

juandon

La educación ‘a distancia’ ha muerto desplazada por la ‘inteligencia colaborativa’, que crece a paso firme de la mano de los jóvenes en la web 2.0, aseguró Pablo Aristizábal, creador de una plataforma en la que estudian millones de niños y adolescentes de once países de América y Europa.

Aristizábal subrayó que ‘es mejor aprender desde la oportunidad que desde la adversidad’, al defender la necesidad de sustentar el crecimiento de la ‘inteligencia colaborativa’ para aprovechar la ‘sociedad del conocimiento’ que anida en internet.

‘Es una de las habilidades que va a tener que tener un chico para pasar de ser transeúnte a trascendente en la construcción de valor: va a tener que innovar en red, crear en red, pensar en red’, comentó.

‘Los chicos ya no piensan tanto en ser ejecutivos de una multinacional sino en ser emprendedores de sus propios proyectos’, dijo el experto, de 47 años, catedrático de la Facultad de Ciencias Económicas de la Universidad de Buenos Aires.

Estas características del avance tecnológico han terminado por desplazar al concepto de ‘educación a distancia’ debido que la relación entre alumno y maestro es ‘bidireccional’ desde un mismo lugar de la web 2.0, indicó.

Cabe distinguir a la inteligencia colaborativa de la inteligencia colectiva, de la que representaría un caso particular. Así, en la inteligencia colectiva emergería un producto final a partir de las acciones de un grupo de personas que no interactúan entre sí. Ambos tipos de inteligencia se encuentran íntimamente relacionados con la denominada Web 2.0, en general, y, en particular con algunas aplicaciones y variaciones de esa filosofía y tecnología web, como Management 2.0, Marketing 2.0, E-learning 2.0 y Empresa 2.0. La Wikipedia representa el ejemplo paradigmático de la plasmación de la inteligencia colaborativa en el universo de la Web 2.0

Por otra parte, en ambos tipos de inteligencia existe una serie de matices claramente expresados a través del concepto “Power Law of Participation” de Ross Mayfield. Este autor sugiere la enumeración de una serie de actividades a través de las cuales se lograría la transición desde una inteligencia colectiva hacia una colaborativa, caracterizada por un mayor involucramiento. Tales actividades incluyen: leer, etiquetar contenido (taggear), comentar, suscribir, compartir, participar en redes sociales, escribir, refactorizar, escribir, colaborar y liderar. La web 2.0 parece la última encarnación de la que ha sido la fantasía más común de la cibercultura, anticipada y anhelada en textos como ‘Out of Control’ de Kevin Kelly o ‘Emergence’ de Stephen Johnson.

La idea de que la web acabará convirtiéndose en un sistema nervioso global, un cerebro en el que cada internauta constituye una neurona y que acabará generando algún tipo de inteligencia colectiva que produzca pensamientos e ideas por encima de las capacidades de cada una de sus pequeñas partes. Lo que está claro es que cada vez surgen más proyectos web en los que se empieza a deslumbrar esa inteligencia colectiva, como es el caso de la Wikipedia para el conocimiento.

http://www.slideshare.net/mlbossolasco/nuevas-formas-de-trabajo-acadmico-e-inteligencia-colaborativa-1979846

(Trabajo académico e inteligencia colaborativa)

Para crear centros de innovacion, para reunir a todos los agentes que puedan aportar valor tangible, debemos crear ecosistemas de conocimiento, ser punteros, invertir en capital humano y en transformacion social. No es solo una cuestion de dinero ni de aumentos presupuestarios, que tambien, sino de trazar un “plan estrategico” donde legislacion, opinion publica, universidades, mercado laboral, etc caminen de la mano.(ecosistemas del conocimiento)

“Al intercambiar conocimiento y experiencias, y al adquirir nuevos productos, las grandes empresas estimulan la creación de start-up innovadoras y se benefician de ello”.

 

EL APRENDIZAJE Y LA INTELIGENCIA

  1. JUANDON

El aprendizaje es tarea de la vida y del ser vivo. Depende de las capacidades receptivas del ser vivo que aprende. En los animales entra en juego el sistema nervioso: los sentidos y los registros cerebrales. De forma automática y de forma inconsciente. En el ser humanos se basa en las facultades superiores: en la inteligencia y en la voluntad.  Y es más o menos consciente y más o menos voluntario según la madurez y las circunstancias de cada acto de aprendizaje

En el ser humanos hay dos tipos de aprendizaje: el vital que se basa en la experiencia y en los actos que va realizando cada día; y el formal que responde a programas graduados de conocimientos teóricos, que pueden llevar a la práctica, pero que se ofrecen desde la reflexión, la comprensión y la sistematización.

En estos segundos ha estado basada la docencia en todos los siglos anteriores. Y desde la intención de entender la mente que los soporta y de poder valorar la capacidad que se puede ostentar de realizarlos es como surgió la medida, el análisis de los niveles, el estudio de las respuestas, la exploración de los rasgos que acaso configure el todo mental. Es a lo que llamamos intención pragmática o  inteligencia operativa. Lo que interesa sobre todo al explorar la mente en esta clave es precisamente el poder realizar mejor el aprendizaje que en el contexto de los procesos formales de estudio y aprendizaje.

Los pedagogos y los antropólogos discrepan en su perspectiva. Para los primeros la inteligencia se debe estudiar desde la perspectiva de su capacidad de aprendizajes formales. Lo cual hace posible entender mejor al aprendiz o  al docente, al discípulo o al maestro, al explorar sus respectivos procedimientos y conocimientos por dentro. Los antropólogos sospechan que los aprendizajes escolares, por lo tanto el ejercicio de la inteligencia desde esa óptica, no representan más que una pequeña parte del uso de la mente humana. Importa más la vida, la familia, la sociedad, el trabajo, la diversión, los problemas de la defensa, etc. Los psicólogos sonríen ante las discusiones parciales y se quedan en el medio, pues ellos saben que la facultad es independiente del ámbito en el que se la explora.

En esa perspectiva encontramos a investigadores rigurosos y sistemáticos como Jean Piaget y su equipo de Ginebra, a los psicómetras como Galton  o Weschler, que trataron de cuantificar o diversificar la inteligencia para poder conocer más su realidad desde los ingredientes parciales que la configuran; e incluso a los factorialistas y creativistas .

Jean Piaget (1896-1980)

 

La visión de Piaget,  y de su equipo de trabajo con el que explora la  inteligencia y sus procesos de aprendizaje, no resulta fácil. Determinar de forma simple sus prioridades es entrar en un campo complejo. La mente es analizada por él en el terreno filosófico, y así la deja descrita en sus escritos de Filosofía “epigenética”.  Pero sobre todo sus análisis experimentales se centran en el campo psicológico, en el que también quiso adentrarse para poder explicar mejor los modos y los campos del aprendizaje humano.

Jean Piaget (1896-1980) nació en la zona francófona de Suiza, en la proximidad de Neuchatel. Su padre, profesor de literatura en la Universidad, le infundió el sentido de la reflexión y de la observación. Se licenció en Biología  y obtuvo el doctorado. Trabajó en la Universidad de Zurich, desde donde se orientó a la Psicología. Ejerció la docencia en una escuela dirigida por Alfred Binet y pronto trabajó con el maestro y con otros de los grandes psicólogos que se formaron en torno a Binet. Participó inicialmente de las inquietudes por descubrir lo que es la inteligencia y sobre el modo de medirla.

Sus trabajos sobre la gestación de las ideas y sobre el aprendizaje fueron muy pronto publicados en algunos estudios y su reputación de buen psicólogo comenzó a darle aureola de científico. Su teoría de que el proceso cognitivo o pensamiento de los niños y jóvenes es radicalmente diferente del que desarrollan los adultos fue ganando adeptos y pronto con él trabajaron otros psicólogo creando un grupo muy cohesionado. Más tarde se llamaría a ese grupo “Escuela de Ginebra”.

En 1920 participó en el perfeccionamiento de la Prueba de Inteligencia de C.I. (Cociente de Inteligencia) inventada por Alfred Binet. Fue una labor muy importante en la orientación de su actividad futura, pues detectó “errores sistemáticos” en las respuestas de los niños que desafiaron su curiosidad y su interés científico.

Retornado a Suiza, fue nombrado director del Instituto Rousseau de Ginebra. En 1923 contrajo matrimonio con Valentine Châtenay, con quien tuvo tres hijos, a quienes Piaget estudió desde su infancia. Actuó toda su vida como Profesor universitario en Ginebra y en períodos variables en Paris y en Neuchatel. Del mismo modo se desarrollaron en esas localidades todos sus experimentos de exploración de niños mediante la entrevista rigurosamente planificada, realizada pacientemente y después interpretada.

Luchó toda su vida contra las instituciones y los prejuicios intelectuales de su época, y tal vez también contra sus propias preocupaciones espiritualistas e idealistas de la juventud. Fue un científico riguroso y original, al defender y promover el enfoque vital y no de laboratorio artificial.

En 1955 Piaget creó el Centro Internacional por la Epistemología Genética de Ginebra, el cuál dirigió hasta su muerte en 1980.

Sus obras escritas fueron numerosas en forma de artículos de revista científica, de discursos y de informes sobre sus investigaciones. Se conocen más de 500.  Algunos de sus libros fueron “La misión de la idea”, ”La Investigación”, “El derecho a la educación en el mundo actual”, “Infancia y educación”, “Psicología del niño”, “Psicología y pedagogía”, “Hacia donde va la educación” “La toma de conciencia” y “Acertar y comprender”.

Los trabajos de Piaget asumen una visión generatriz del pensamiento. Sus teorías provocan su investigación y ésta repercute en multiplicar incansablemente sus mismas teorías. Creó una taxonomía evolutiva propia, en donde diferencia fuertemente los tres estadios más significativo: el de niños pequeños, prioritariamente sensorial; el de los procesos concretos desde los 3 a los 11 años: y el del surgimiento de las operaciones formales, o capacidades abstractivas, de los 11 a los 13 y 14, en el que  la inteligencia ya  logra su estadio de adultez.

Piaget  insiste en la fuerza gestadora de las ideas y la creciente actitud crítica que hace de filtro ante las informaciones externas. La inteligencia matiza lo que recibe según el estadio en el que se encuentra la persona. Los tres estadios son referencia necesaria para entender las actividades intelectuales de cada sujeto en cada período y subperíodo

De sus teorías se desprenden múltiples consecuencias para la actividad escolar, tanto en su dimensión de docencia para los profesores, como en sus referencias para la actividad de los alumnos. Es el motivo por el cual Piaget ha tenido tanta resonancia en los ambientes educativos.

Sus explicaciones  sobre los procesos del aprendizaje, con la base experimental con que dota a sus afirmaciones y las consignas didácticas sólidas que se desprenden  le convierten en uno de los mejores psicólogos y docentes de todos los tiempos.

Sus criterios han mejorado y clarificado los procesos del aprendizaje en las diversas edades y ha mejorado lo sistemas y los resultados docentes. Han ido desde el crecimiento físico hasta los criterios morales en el niño, desde los temas del conocimiento hasta los más complicados de la personalidad, desde los cálculos numéricos hasta la concepción global del mundo. En todos ellos lo metodológico fue cuidado con esmero, pues ante todo Piaget y su equipo desarrollaron una investigación modélica, sello de su garantía científica.

La metodología investigadora de Piaget le alejó de los postulados tradicionales y de las conclusiones generalizadas, sacadas con experimentos  de laboratorio sobre animales. No identifica el aprendizaje del niño con el del animal, ni quiere exponer, mediante leyes generales, conclusiones indiscutibles. En el mundo de los vivientes todos no son iguales, aunque hay cuestiones o aspectos comunes.

Lo que sabe claro Piaget  es que  lo que se produce con los sujetos animales, como pueden ser las ratas, los perros o los conejillos de laboratorio, no es extrapolable a los seres humanos. El prefiere  siempre  los experimentos de vida. Ello significa que los hechos naturales y cotidianos en los niños y en los escolares, observados con parámetros científicos y acumulados con suficiente sentido de objetividad, son la primera fuente para entender lo que el hombre vive, piensa, construye, comparte o expone a veces y oculta en ocasiones.

Su teoría sobre el aprendizaje es claramente genética, en el sentido de que es la experiencia la que le interesa, es decir el análisis directo del niño que va hablando cada vez mejor por necesidad y por imitación.  Parte de la idea de que la estructura mental genera unas formas de hablar que no responden a las influencias, a los contenidos y a los elementos que configuran el lenguaje. Estos interfieren después los modos naturales y primarios de hablar y de pensar.

Toda la vida de Piaget discurrió en torno a la biología y psicología del conocimiento, de la mente, del aprender y del aplicar lo aprendido. Abandonó ya de joven otros campos que le habían atraído como el psicoanálisis y la psiquiatría. Y por eso tuvo tiempo de realizar los mejores estudios hechos en este terreno en todo el mundo

Sus consignas en el campo psicogenético, es decir de la formación de la mente, de la configuración del pensamiento, se centran en lo siguiente:

-  La mente humana tiene fuerzas que la llevan a descubrir el mundo de su entorno. Esas fuerzas tiene una configuración  biológica (neurológica dirán los demás psicólogos)

-  Para entender al hombre hay que entender cómo nace su pensamiento y cómo seguirá toda su vida buscando y explicando lo que hay en el entorno. Los años infantiles son más decisivos que los adultos para entrar en la mente del hombre.

– Hace falta un medio adecuado para entender algunos aspectos de la mente, como es el aprendizaje: el vital y el de los conceptos formales, los escolares. Hay que organizar una escuela sin coerción, en la que el alumno debe experimentar creativamente para reconstruir por sí mismo lo que ha de aprender. Este es en líneas generales el proyecto educativo de Piaget.

– No se aprende a experimentar simplemente viendo experimentar al maestro o dedicándose a ejercicios ya totalmente organizados: sólo se aprende a experimentar probando uno mismo, trabajando activamente, es decir, en libertad y disponiendo de  todo su tiempo”

-  En la mayor parte de los países, la escuela forma lingüistas, gramáticos, historiadores,  matemáticos, pero no educa el espíritu experimental. Hay que insistir en la misión mucho mayor de formar el espíritu experimental que el espíritu matemático en las escuelas primarias y secundarias. … Es mucho más fácil razonar que experimentar.

El postulado básico de la psicoepistemología genética de Piaget está en la explicación de todo fenómeno, sea físico, psicológico o social. Defiende que debe buscarse en su propia génesis y no en otra parte. Ello  ha contribuido a dar un nuevo papel a la dimensión histórica, tanto en la práctica pedagógica como en la reflexión sobre la educación.

Toda teoría, todo concepto, todo objeto creado por el hombre fue anteriormente una estrategia, una acción, un gesto. De este postulado básico nace entonces una nueva norma pedagógica: si, para aprender bien, es necesario comprender bien, para comprender bien es preciso reconstruir por sí mismo no tanto el concepto u objeto de que se trate, sino el recorrido que ha llevado del gesto inicial a ese concepto o a ese objeto.

Además, este principio puede aplicarse tanto al objeto del conocimiento como al sujeto que conoce;  y de ahí la necesidad de desarrollar paralelamente a todo aprendizaje una metarreflexión sobre el proceso mismo del aprender

Dos campos cubre el sujeto a lo largo de la infancia: el campo de  la cultura, o serie de conocimientos que se viven; y el campo la ciencia, o abanico de conocimientos que se retienen, se aplican, se acumulan en al memoria y sólo se usan ocasionalmente.

Los primeros entran en el alma, en la entraña y se viven y se piensa según ellos: lengua, arte, tradiciones, creencias. Los segundos son  orgánicos, valiosos, flotan en el entorno de cada persona según sus circunstancias, pero no entran en su interior.

La cultura es una suerte de edificio que se construye progresivamente según un procedimiento espontáneo y lleno de improvisaciones. No se aprende, se comprende y se considera más bien como una especie de red dotada de cierta plasticidad y de una capacidad de autoorganización muy fuerte.

Por consiguiente, su proceso de construcción, o de reconstrucción, se puede provocar o facilitar, pero no dominar totalmente. La ciencia se transmite más orgánicamente y de forma programada. Se mejora, se incrementa, se controla.

En la mayor parte de sus contenidos sólo se descubre, se contempla cuando se conoce y se mantiene en la medida en que se usa.

Ambas cosas y ambas realidades hacen referencia al constructivismo genético de Piaget.   Para entender ese doble campo y esos conocimientos que se aprenden y se llevan a la vida, hay que acudir a la teoría de los estadios evolutivos que tanto interés tenía Piaget en desarrollar y clarificar.

Cada estadio es como un escalón, una etapa precisa y necesaria en la construcción del edificio de la cultura, etapa determinada por la naturaleza misma, casi biológica, del proceso de crecimiento y que,  según se entiende, representa un logro estable y sólido sin el cual toda construcción posterior sería imposible. Cada eslabón, cada estudio, tiene su forma de asimilar y retener la cultura y la ciencia

Es pues un aprendizaje diferenciado, graduado, progresivo, el que se debe tener en cuenta desde las perspectivas de Piaget.

3. Otras teorías generalistas

Francisco Galton y David Weschler, entre otras figuras, son las singulares mentes privilegiadas que buscaron el modo de llevar la psicometría a los actos de inteligencia, a los niveles de comprensión, a las capacidades mentales. Fue el instrumento que más hico progresar el conocimiento d e la mente t el que más permitió a los educadores y  profesores el adaptarse a la realidad de cada persona

Estas figuras plantearías una cuestión previa, sin entrar a resolverla ¿Se puede medir numéricamente el aprendizaje) ¿Se puede medir cuantitativamente o cualitativamente?

Sin entras a dar respuesta ellos diseñaron instrumentos para medir y para representar gráficamente lo medido.

La psicometría y la psicografía están siempre flotando en los entornos del conceptos del aprender

Sir Francis  Galton

a) Francis Galton (1822 – 1911)

Nació en Sparkbrook, Birmingham y murió en Londres. Estudió en el Hospital General de Birmingham en el King’s College de Londres y en el Trynity College de Cambridge. Era primo de Charles Darwin y basó todos sus estudios en la teoría de su familiar, para entonces ya famoso.

Fue  investigador y científico polifacético: en psicología, biología, estadística, en geografía y meteorología,…

Entre sus libros cabe recordar sus estudios sobre la herencia del genio  y publicaciones como “Herencia del Genio” y “La herencia natural”

Su gran interés era el estudio del ser humano y las diferencias individuales. Por este motivo es considerado el padre de la Psicología Diferencial. Sus ideas se opusieron a las preponderantes de la época, que eran las de Wundt.  En 1884 fundó su laboratorio antropométrico en Londres. Gracias a este laboratorio Galton consiguió numerosos datos sobre diferentes características de las personas. Al tener gran cantidad de datos empezó a utilizar los primeros análisis estadísticos.

Centró su interés en el estudio de las diferencias individuales de las capacidades humanas, siempre desde una perspectiva adaptativa y biológica. Para ello, se centró en el estudio de los procesos. Galton pensó en aplicar la selección artificial al ser humano para mejorar la raza, formalizándose así por primera vez la teoría de la eugenesia.  Las repercusiones del movimiento eugenésico no tardaron en llegar. Éstas y otras teorías similares sirvieron de base a los ideales de superioridad de raza, como los del nazismo alemán, pero también tuvieron gran aceptación en el resto de Europa y en Estados Unidos. La práctica de la eugenesia se reflejó en la limpieza étnica, así como en la esterilización de personas con discapacidad intelectual, delincuentes, pobres o enfermos mentales.

A Galton le preocupaba además la medición de la inteligencia y propuso una técnica conocida como el «Método biométrico», que consiste en evaluar ciertas características físicas como la fuerza con que se aprieta el puño, la circunferencia del cráneo y el tiempo de reacción refleja. Si bien hoy el método biométrico ha perdido crédito, aún tiene cabida en la biología, las investigaciones sobre ejercitación física y la psicología fisiológica.

Puede decirse que el eje en torno del cual giró toda la obra de Galton fue su aseveración de que la herencia importa más que el medio. Aunque esta concepción general fue perdiendo popularidad entre los científicos de la conducta a lo largo del siglo XX

Galton demostró que una combinación de variables normales era a su vez normal, a pesar de no contar con una formación importante en matemáticas. Fue el primero en utilizar la estadística en sus observaciones. Midió la inteligencia aplicando la Campana de Gauss. Para él, el factor más importante de la inteligencia era el genético, mucho más que el ambiental.  Subrayaba que la propia naturaleza o conjunto de dotaciones innatas del individuo, era un factor determinante del éxito en la vida. Comprobó que los padres que presentaban características sobresalientes tendían a tener hijos con iguales características, y pensó que esto debía explicarse fundamentalmente en función de la naturaleza y no de la crianza.


Planteó determinadas afirmaciones que luego serían seguidas y desarrolladas por psicólogos posteriores:

Que la inteligencia  es ante todo capacidad cognitiva general (factor g)

Que la inteligencia se determina por factores genéticos y hereditarios

Que la inteligencia se puede reducir a medidas relativamente seguras.

Es normal que en con estos presupuestos la idea que Galton desarrolló sobre el aprendizaje se convirtiera en algo un tanto mecánico, más poder medir y calcula, incluso representar gráficamente, que para analizar en su naturaleza radical. A más inteligencia más capacidad de aprender. A menos inteligencia más difíciles son los registros. Pero todo ello en función de la capacidad de reflexión. Muchas cosas se pueden retener mecánicamente y no se puede razonar sobre ellas. Galton no entró en el estudio de las relaciones entre memoria e inteligencia, pero siempre sospechó que era estrecha a juzgar por los comportamientos de los sujetos que exploraba.

b) David Weschler


Otro especialista de la inteligencia fue David Wechsler (1896-1981) psicólogo rumano que se  entregó  a desarrollar escalas de inteligencia. Las más conocidas y usadas son la WAIS (Wechsler Adult Intelligence Scale) y la WIS (Wechsler Intelligence Scale for Children)

David Weschler

Nació en una familia judía en Lespezi, Rumania, y emigró con sus padres a los Estados Unidos cuando era niño. Estudió en el City College of New York y en la Columbia University, donde adquirió su grado de maestro en 1917 y su doctorado en 1925 bajo la dirección de Robert S. Woodworth. Durante la Primera Guerra Mundial trabajó con el ejército de los Estados Unidos para desarrollar tests que sirvieran para examinar a los nuevos reclutas. Mientras él mismo estudiaba bajo la tutela de Charles Spearman y Karl Pearson.

Después de cortos períodos en diferentes lugares y trabajos particulares,  Wechsler se convirtió en el psicólogo jefe del Bellevue Psychiatric Hospital en 1932. Allí permaneció hasta 1967. Murió en 1981, cuando sus tests psicológicos ya eran altamente respetados.

Inferior                Normal                Superior

Wechsler es mejor conocido por sus tests de inteligencia. La Escala Wechsler de Inteligencia para Adultos (WAIS) fue desarrollada por primera vez en 1939 y fue llamada entonces el Wechsler-Bellevue Intelligence Test. De esa escala test se derivó la Escala Wechsler de Inteligencia para niños (WISC) en 1949 y la Wechsler Preschool and Primary Scale of Intelligence (WPPSI) en 1967. Wechsler originalmente creó estos tests para saber más acerca de sus pacientes en la clínica Bellevue, al encontrar el entonces vigente test de Binet insatisfactorio. Estos tests están todavía basados en su filosofía de que la inteligencia es “la capacidad global de actuar intencionalmente, de pensar racionalmente y de interactuar efectivamente con el ambiente”

Para él la inteligencia es una cualidad de la mente y se manifiesta a través del modo de resolver las tareas que se encuentran en la vida, tanto las inesperadas como las que se ofrecen para probar su capacidad de respuesta.   Es una facultad o poder unitario y singular que se puede detectar por las acciones  que genera.


Se descubre por el modo como operan las funciones de la mente. Esas funciones son variadas. Algunas son:


·  Su función adaptativa que permite al sujeto acomodarse al medio.

·  Su relación con el funcionamiento cerebral.

·  Su natural  diferencia  entre los individuos, siempre distintos.

·  La no-observabilidad de la misma (excepto a través de sus indicadores)

En ese contexto es donde se sitúa la idea de Weschler sobre el aprendizaje del hombre en el mundo. Aprende muchos contenidos y de diversas formas, pero siempre poniendo en movimiento las funciones indicadas: adaptarse, realizar ejercicios, conexionarse con los otros individuos, adquirir acciones y dominar reacciones. El inteligente aprende con rapidez y con adaptación y hace todo con soltura. El no inteligente es lento en el tiempo y confuso en las respuestas.

Lo que hace Weschler es intentar hallar rasgos que puedan ser susceptibles de medida para poder luego  describir según intensidades y según relaciones entre los rasgos. Así construye más fácilmente sus escalas.

Esas escalas de Wechsler introdujeron muchos conceptos novedosos e innovaciones al movimiento de los tests de inteligencia. Primero, Wechsler se apartó de la tradicional costumbre de hablar de puntos y de coeficientes.  En lugar de eso, asignó un valor arbitrario de cien a la inteligencia media y agregó o sustrajo otros 15 puntos por cada desviación estándar por encima o por debajo de la media en la que se encontraba el sujeto.

Rechazando un concepto de inteligencia global (como el propuesto por Spearman), dividió el concepto de inteligencia en dos áreas principales: área verbal y área de ejecución (no-verbal), cada una subdividida y evaluada con diferentes subtests. Estas conceptualizaciones aun se reflejan en las versiones más recientes de las escalas de Wechsler.

4. Teoría monofactorialista

El concepto de inteligencia factorial se detiene en la sospecha de que la inteligencia no es algo unitario, puro y simple, sino el producto de determinados factores. Es más fácil calcular las incidencias de su presencia y los rasgos de su influencia, que intentar definir su naturaleza.

Charles Edward Spearman (1863-1945) fue un psicólogo inglés. Estudió en las universidades de Leipzig, Wurzburgo y Göttinga y enseñó e investigó en la Universidad de Londres. Formuló la teoría de que la inteligencia se compone de un factor general y otros específicos. Creyó en la existencia de un factor general que interviene en todas las fases de la conducta humana y atribuyó a las capacidades específicas papel determinante en cada actividad.

Entre sus obras figuran “Las habilidades del hombre“, “La mente creadora” y Psicología de las edades en el síndrome Down” sobre todo “La naturaleza de la inteligencia y los principios del conocimiento”

Sus aportaciones a la psicología fueron muy importantes, sobre todo por la instrumentación estadística que fue capaz de generar: técnicas de medida, coeficientes de correlación ordinal, análisis factorial, etc.

Ch. Spearman

La inteligencia, según Spearman se entiende una capacidad o energía producida por algo diferente en cada operación mental y por algo permanente en todos los procesos. Lo diferente forma una gama de factores especiales (S) que entran en cada operación de manera diferente y resultan difíciles o imposibles de detectar directamente. Lo común es el factor general (G), que es los que estrictamente merece el nombre de inteligencia.

La intuición de la existencia de ese factor G despertó gran interés y mucha controversia. Spearman desarrolló la técnica estadística conocida como análisis factorial, como complemento indispensable de su teoría. También aportó el coeficiente de correlación ordinal que lleva su nombre, y que permite correlacionar dos variables por rangos en lugar de medir numéricamente el rendimiento separado en cada una de ellas.

A esta teoría de la inteligencia la denominó “Teoría bifactorial, ya que la inteligencia se compondría tanto del Factor general (G), que sería hereditario y los factores especiales (S) que serían adquiridos. Intentó comprobar que el factor G correspondía a una propiedad específica del cerebro, una suerte de energía mental a nivel de la corteza cerebral, que varía de un individuo a otro, pero se mantiene estable a través del tiempo. Y los factores secundarios, o específicos, los variables (S) representan las habilidades específicas de un sujeto frente a determinada tarea, que también tendría una localización específica en el cerebro, pero sin ser hereditarios o al menos  radicales como el G.

 

Por lo tanto, si bien la inteligencia es hereditaria en cuanto a su Factor G, es posible que la educación tenga importante incidencia el Factor S. El aprendizaje, en el contexto intelectual de Spearman, tiene su campo de acción en las habilidades y se rige más por dimensiones cuantitativas que cualitativas.

Poco se puede hacer en el aprendizaje con el factor G que, al ser estable por ser hereditario, sólo indirectamente se podría someter a procesos de mejora o de intensificación.

Cualquier medida de la inteligencia presenta una proporción g/s determinada (se llama presupuesto). Por eso el llama a su teoría “bifactorial”, aunque muchos psicólogos interpretan en clave monofactorialista al expresar G en forma estable y S en formas variables.

Según Spearman, la inteligencia es una aptitud general que incide en el éxito de los tests “cualquiera que sea la naturaleza de los mismos”.

En referencia a lo anterior, Spearman presupone que en cualquier matriz de correlaciones entre rendimiento e inteligencia, todas las correlaciones serán positivas, porque todas las medidas comparten el efecto del componente “G” de la inteligencia. Por eso cualquier tarea de rendimiento cognitivo refleja el efecto de la inteligencia como energía. Y los aspectos especiales (Factores S) resultan aleatorios o muy variables.


Spearman estudió de manera especial la relación entre la inteligencia general y las funciones sensoriales, esto es, los vínculos entre la fuerza mental y las capacidades sensoriomotrices. En 1923 formuló las leyes de lo que llamó la “neogénesis” para intentar justificar el funcionamiento de la inteligencia general que, según él, se caracteriza por la capacidad de crear información nueva a partir de la información conocida.

Este proceso de Spearman se regula por 3 leyes:


a) Percepción de la experiencia: capacidad de observar lo que sucede en su propia mente.

b) Inferencia de las relaciones: capacidad para descubrir relaciones entre dos o más ideas.

c) Inferencia de correlatos: toda persona que tiene en su mente cualquier idea acompañada de una relación, posee una capacidad variable para generar la idea correlativa.

El factor “G”,  tal y como es definido por Spearman y al que denominó “educción”, consiste en que, dado un fundamento y una relación, ha de extraerse el otro fundamento, (educción de correlatos), y dados ambos fundamentos, extraer la relación, (educción de relaciones).


La teoría “bifactorial” de Spearman defiende que todas las habilidades humanas incluyen un factor común o general y otros varios específicos. En medio, entre el factor general y los factores específicos, Spearman termina por situar los factores del grupo.

Y, aplicando su técnica del análisis factorial (una matriz de correlaciones interrelacionadas), concluye que “G” representa el total general de energía mental característica del individuo; y que los factores “S” muestran la eficiencia de determinados mecanismos mentales específicos.

Ahora bien, sus postulados convertidos en tesis firmes son:

En relación al Factor G, que se halla en toda operación mental significa Entre  los factores especiales (S) hallados en sus trabajos  cita:
-   La aplicabilidad de “g” da el índice de la potencialidad o energía mental.
-  La base neurológica o correlación inteligencia/cerebro es innegable.
- “s” y “g”, a pesar de ser factores, no son del todo independientes.
- “s” depende de “g” aun no de modo absoluto (correlación débil)
- “g” se manifiesta en una acción  genérica extendida en  todo el organismo

– Factor verbal: Sería la mayor capacidad que tienen algunas personas para realizar operaciones lingüísticas.

– Factor numérico: Es la mayor capacidad para operar con números.

– Factor espacial: Es la mayor capacidad para relacionar cuerpos en el espacio.

-   Factor de razonamiento: Es la capacidad para establecer operaciones mentales, bien de forma deductiva o bien de forma inductiva.

Las aplicaciones para el aprendizaje son espontáneas y lógicas. Donde hay que poner el énfasis interpretativo de lo que es aprender y la facilidad para conseguir sus efectos positivos, es en la fuerza común  en todas las operaciones, en el factor G. Hay personas con más “capacidad” y personas con menos.

Pero además hay “capacidades” o habilidades” específicos y variables para determinados campos o acciones: musicales, dinámicas, numéricas, verbales. En eso yo no es la cantidad lo que incide, sino la cualidad. Quien más “sss” tiene en su estructura mejor dotados esta para el aprendizaje

Se plantean tres teorías explicativas sobre los factores encontrados:

a) G, como cualidad caracterizadora del sistema nervioso total del individuo. Dicha cualidad se describe como la plasticidad relativa de cada sistema nervioso.

b)  G, como energía mental global y configurativa. Se considera al cerebro o a una porción importante del mismo como depósito o sede de una característica cualitativa global que opera como si hubiera una constante producción de energía, distribuida en proporciones varias.

c)  Se considera al cerebro funcionalmente divisible como mero soporte de  gran número de elementos, cuyo efecto total es la suma de los efectos singulares. Con respecto a la naturaleza de los elementos mencionados, se formulan tres propuestas: neuronas cerebrales, sinapsis neuronales, y los elementos que se encuentran en los genes responsables de la herencia.


Las medidas que Spearman investigaba le llevaban a preferir la primera de las teorías. Pero existen suficientes apoyos experimentales para no rechazar o ignorar las otras dos preferencias. Al afán por medios y apoyar en datos métricos cualquier de las tres posturas multiplico el afán por medir la inteligencia, que fue característico de las décadas centrales del siglo XX.

En el estudio sobre el carácter hereditario de la inteligencia Spearman usó datos sobre el coeficiente de inteligencia que, en gran medida responden a esta categoría global del factor G.. En cualquier caso, si unas determinadas funciones relacionales son hereditarias es lógico suponer que las demás también lo serán aunque sus mecanismos de expresión sean diferentes.

Spearman tuvo el mérito de ser el primero en aplicar el análisis factorial para investigar la estructura intelectual. La tabla de correlaciones que obtuvo de la aplicación de tests diversos a una población numerosa y heterogénea, mostró una correlación alta y positiva, por lo que concluyó la existencia de un factor general “G”, o habilidad general.

5. Plurifactorialismo intelectual

Thursnone con dos caras

Louis León Thurstone (1887-1955) fue admirador de Spearman,  por lo que hizo estudios para desarrollar al máximo sus investigaciones en torno a los factores especiales, hasta formular una teoría que terminaría desplazando en el mundo de los psicólogos el monofactorialismo.

Nació en Chicago y fue un ingeniero convertido en psicólogo, pionero en los campos de la psicometría y psicofísica.  Estudió ingeniería eléctrica en la Universidad de Cornell; recibió su grado en1912. Durante su estancia en Cornell se caracterizó por ser buen estudiante, inventó nuevas máquinas y se interesó profundamente en la curva del aprendizaje y cómo representarla matemáticamente. Posteriormente, fue asistente de Thomas Alba Edison, quien le había ofrecido una beca para que trabajara con él apenas culminara sus estudios en Cornell.

Se doctoró en la Universidad de Chicago, donde impartió luego clases la mayor parte de su vida. Actuó como profesor de geometría en la Universidad de Minnesota, entre 1912 y 1914. Durante este tiempo tomó cursos de psicología con H. Woodrow y J. B Miner.

Especializado en psicometría, desarrolló nuevas técnicas para medir las cualidades mentales. Realizó y publicó varias escalas de actitud que pretendían medir la influencia de la propaganda en los prejuicios del hombre. También se interesó por la medición del aprendizaje e intentó entender lo que es el aprendizaje y cómo se produce a través de unidades absolutas y de pruebas objetivas.

En 1917 obtuvo su doctorado en psicología en Chicago, después de trabajar en la División de Psicología Aplicada del Instituto Carnegie de Tecnología de Pittsburg (Pensilvania. En los siete años que duró en Pittsburg (1917-1923), Thurstone enseñó estadística y recogió elementos que iban a ser de gran  utilidad en sus elaboraciones teóricas posteriores.

Entre los cargos más importantes que ocupó se encuentran: Presidente de la American Psychological Association en 1932, Primer Presidente de la American Psychometric Society en1936, y su brillante participación en el desarrollo de la revista Psychometrika,  primera revista dedicada al estudio de la psicología cuantitativa.

Comenzó a ver en la psicología un campo con amplias posibilidades de desarrollo y escenario para obtener respuesta a preguntas que se había comenzado a plantear siendo estudiante en Cornell, como la función matemática para la curva del aprendizaje.

Desarrolló un método estadístico que llamó “Ley del juicio comparativoy que consiste en un sistema de ecuaciones que permiten estimar el valor de un conjunto de estímulos. Además es reconocido por sus aportes al análisis factorial y por la creación de la escala Thurston para la medición de actitudes.

Sus aportes ayudaron a comprender las diferencias intraindividuales observadas en el desempeño frente a pruebas de inteligencia general, permitiendo la construcción y mejora de tests de inteligencia, de personalidad e intereses, entre otros aspectos psicológicos.

Concibió la inteligencia como una combinación de varias capacidades distintivas, por ejemplo la comprensión verbal, el razonamiento y la memoria. Empleó una nueva técnica para la medición, conocida como análisis factorial múltiple, que puede manejar varios factores de capacidad simultáneamente. Sus trabajos sobre análisis factorial pudieron aplicarse a múltiples problemas, como el análisis de las capacidades perceptivas humanas o el desarrollo de nuevos tests de aptitudes.

Se interesó también por las características de la personalidad y elaboró un test de tendencias psiconeuróticas. Fundador y director de la revista “Psicometrika”, entre sus obras destacanLa naturaleza de la inteligencia donde consideró la inteligencia como capacidad de abstracción.

También desarrolla su atractiva teoría en “Inteligencia considerada como ejercicio mental”, en “Un método graduado de los tests psicológicos y educativos”. Los Vectores de la mente”, en “Estudio factorial de la inteligencia”, en  “Análisis factorial múltiple” y en “Medida de las actitudes”.

En relación a los diversos factores, cuyo producto es la inteligencia, sostiene que:

  1. No hay relaciones jerárquicas entre las diversas aptitudes. Cada factor es independiente.

  1. Existen 7 factores, a los que llamó aptitudes mentales primarias:

+ Comprensión verbal: capacidad para captar ideas y significados verbales orales o gráficos.

+  Fluidez verbal: capacidad para manejar con rapidez y eficacia palabras simples (riqueza de vocabulario natural)

+ Aptitud numérica: capacidad de realizar con rapidez y eficacia cálculos numéricos.

+ Aptitud de visualización espacial: capacidad para percibir relaciones espaciales, geométricas, figurativas e imaginar sus cambios de posición.

+ Memoria mecánica: capacidad de recordar letras, nombres, cifras,..

+ Razonamiento: capacidad para extraer un patrón o principio general y aplicarlo para alcanzar una conclusión.

+ Aptitud perceptiva: capacidad para percibir con rapidez detalles, semejanzas, diferencias,...

También hay que reconocer que en ocasionas en sus análisis factoriales, Thurstone detectaba entre 11 y 13 factores.

En la actualidad se usan preferentemente cinco de sus factores cuando se trata de usos escolares (E, N. V, C, R) y se suele añadir M o I. Son los factores Espacial, Numérico, Fluidez verbal, Comprensión Verbal, Razonamiento,  Memoria, Inducción.

Thurstone tuvo como  uno de sus propósitos comprender la estructura de la inteligencia humana. La pregunta que orientó su trabajo se centró en establecer cuántos factores comunes se necesitan para explicar un número cualquiera de pruebas. Para ello  incorporó al análisis factorial clásico desarrollado por Spearman los métodos del álgebra de matrices.

Su acierto más importante fue considerar la tabla de correlaciones de las pruebas como una matriz. Así pudo mostrar que los factores comunes necesarios para explicar las correlaciones entre un número cualquiera de pruebas psicológicas viene dado por la característica de la tabla de correlaciones de esas pruebas, considerada como una matriz simétrica cuadrada.

Teniendo en cuenta estos hallazgos postuló que el método de componentes principales descubierto por Spearman no era la única posibilidad matemática existente, sino sólo una de las muchas posiciones geométricas que se pueden adoptar.

De acuerdo con esto, el factor “g” y los factores menores esbozados por Spearman correspondían sólo a una posibilidad de agrupación de los datos y se pueden realizar diferentes agrupaciones con los mismos datos, empleando el mismo método para encontrar factores que expliquen lo que entendemos de inteligencia.

Producto de estas elaboraciones, desarrolló lo que hoy en día se conoce como “modelo de los factores mentales primarios”. Esos factores son los que condicionan el aprendizaje en general y las cualidades que manifiesta el aprender en cada uno de los sujetos.  Su tesis quedó plasmada en su Test de Aptitudes Primarias (TAT), que todavía se aplica masivamente para detectar la capacidad y la forma del aprendizaje de cada escolar y las carencias que puedan existir para poder buscar refuerzos o compensaciones adecuadas

Thurstone falleció en el año de 1955, y dejó un gran legado para la comprensión de varios procesos psicológicos desde una perspectiva psicométrica, integrando los conocimientos obtenidos en ingeniería y matemática con el corpus de la psicología, y mostrando que la psicología y la matemática, lejos de ser disciplinas aisladas e inconexas, pueden apoyarse mutuamente para desarrollar modelos explicativos y técnicas de análisis de datos tendientes a indagar sobre la naturaleza de los procesos psicológicos.

El trabajo de Thurstone es además una invitación a conocer los fundamentos teóricos que subyacen a los instrumentos y pruebas que comúnmente utilizamos los psicólogos en la actualidad, a fin de tener una clara visión de lo que estamos midiendo, cómo lo estamos midiendo y los resultados que podemos obtener de los  instrumentos; estas tareas forman parte de nuestra ética profesional y de un óptimo desempeño en las áreas donde el psicólogo tiene la oportunidad de aportar sus conocimientos y experiencia.

 

La escuela de Thurstone fue abundante

Tanto en vida como después de su muerte la línea por él seguida se impuso como mayoritarias en el mundo. En España y latinoamérica, desde su cátedra de la Universidad Complutense de Madrid y desde la Escuela Superior de Psicología de la misma Universidad, fue Mariano Yela Granizo (1921-1994) el que difundió la metodología investigadora de Thurstone y participó de muchas de sus ideas sobre el aprendizaje y la inteligencia y sobre los instrumentos de medida por él empleados.

 

Mariano Yela

 

Sus libros más significativos fueron:La forja de mi vocación”, “La percepción de la causalidad a distancia*,”Los tests y el análisis factorial”,”La estructura de la conducta. Estímulo, situación y conciencia” , La evolución del conductismo”, “ El progreso de la inteligencia: evolución biológica y desarrollo cultural”, “Los tests” , “Psicología de la inteligencia: un ensayo de síntesis”, “La estructura diferencial de la inteligencia: el enfoque factorial”,  “El problema del método científico en psicología” , Evaluar qué y para qué: el problema del criterio”, “Problemas psicológicos de la educación.”

Es evidente que, con sólo leer el titulo de sus libros, se entiende que su orientación factorialista convierte la inteligencia en algo complejo y el aprendizaje en operación enormemente complicada, al tener muchas dimensiones que obtener.

La escuela multifactorialista en todos los países, al igual que con el ejemplo de Mariano Yela, ha mejorado gracias a que se ha sabido diferenciar los distintos rasgos que entran en juego para conocer, estudiar, aprender y enseñar. El funcionamiento de la mente no es simple ni homogéneo. Entre funcionamiento numérico y  verbal, entre la abstracción y la inducción, hay diferencias significativas.

 

 

Algunos otros psicólogos y pedagogos han rozado las teorías factorialistas de forma más original y moderada. Conviene recordar  a dos:

Raymond  B. Cattell (1905-1998)

Nació y estudio Química en Londres y toda su vida la paso en el ejercicio de una fecunda investigación sobre los factores componentes de la personalidad. En Londres obtuvo el doctorado en Química y luego en Filosofía. Trabajó en el laboratorio  de  Ch. Spearmann en Estados Unidos. Fue Profesor de la Universidad de Illinois. Los últimos años lo pasó en el apacible clima de Honolulu donde falleció en 1998.

Un día de 1984 confesó: “Mis lecturas me hicieron entrever que la psicología era realmente la nueva y desafiante frontera de la ciencia así como la fuente de esperanzas racionales para el progreso humano”. Se dedicó por completo al desarrollo de la Psicología como Ciencia, siendo su aportación tan peculiar como productiva.

En la década de los treinta, dirigió durante cinco años un centro de psicología clínica infantil en la ciudad de Leicester. A continuación fue becado por la Fundación Darwin para estudiar los aspectos genéticos que podían subyacer al desempeño humano en pruebas “libres de cultura” lo que le puso en contacto con Leonard Darwin, hijo del Darwin que ha pasado a la Historia.

En los diversos libros, medio centenar, que escribió merece especial recuerdo “Los 16 Factores de la Personalidad”

Para Cattell la personalidad también está compuesta de rasgos de personalidad y los rasgos significan tendencias permanentes a reaccionar de una forma determinada.  Distingue tres tipos de rasgos en el interior de las personas:

-  Rasgos aptitudinales referidos a los recursos intelectuales con los que cuenta una persona para enfrentarse al mundo.

-   Rasgos temperamentales referidos a l estilo de comportamiento de cada individuo.

–  Rasgos dinámicos referidos a las distintas motivaciones del comportamiento.

Cattell se va a interesar por los rasgos temperamentales y dinámicos, comunes y causales. Recopila una gran cantidad de datos sobre los que construir su teoría factorial  de 16 rasgos  factores temperamentales de personalidad que, para él, conforman la estructura de la personalidad humana.

En ese contexto factorial es donde sitúa el dinamismo que le lleva a aprender cosas y a seguir toda su vida curioseando en su entorno, pero de manera muy original según la estructura de que se compone la personalidad de cada uno. Es decir, en el ser humano predomina la curiosidad vital sobre la curiosidad intelectual. De aquí la gran importancia que otorga a los dinamismos que rigen la adquisiciones de informaciones y el afán por saber aquello a lo que su personalidad se entrega por necesidad.

La conclusión concreta y práctica a la que llega es que la forma intelectual es un resultado, un rasgo, de la personalidad y no una facultad independiente como habitualmente han enseñado los psicólogos racionalistas.

R. Cattell      y             Eysenck

El otro gran factorialista es Hans Jürgen Eysenck. ( 19161997) psicólogo factorialista inglés de origen alemán, especializado en el estudio de la personalidad.

En 1934 se vio forzado a emigrar de la Alemania nazi, refugiándose hasta 1939 en Francia y luego en el Reino Unido. Estudió en la Universidad de Londres, desplegando sus funciones como psicólogo entre los años 1942 y 1945 en el hospital londinense de Mill Hill y, desde 1945, en el hospital Maudsley dependiente de la Universidad de Londres. Entre 1950 y 1955 fue director de la Unidad de Psicología del Instituto de Psiquiatría y luego, entre 1955 y 1984, jefe de cátedra de la carrera de Psicología en la Universidad de Londres, universidad en la que recibió el título de doctor emérito.

Falleció en Londres, en donde se había aclimatado después de su salida de Alemania

Para Eysenck “la psicología ha de ser una ciencia y ha de utilizar el método de la ciencia, que no es otro que el método hipotético deductivo”. Esto quiere decir que habrá que plantear las investigaciones en términos operativamente definibles; en términos cuantitativamente medibles y obteniéndose resultados que puedan ser replicables (reproducir las condiciones y volver a obtener los mismos resultados

Así llegó a un modelo factorial biológico en donde lo importante es ver de donde nace cada rasgo y cual es el elemento biológico que condiciona su funcionamiento

El primer presupuesto básico de Eysenck tiene que ver con que el análisis estadístico de los datos que se logran cuando se explora el comportamiento y las manifestaciones de lo que hay dentro de cada persona. La estadística es el lenguaje de la  ciencia, la herramienta perfecta que permite separa todo lo que trivial de todo lo que es importante. Lo trivial es lo particular, la casuística, todo lo que es circunstancias. Lo grupal es lo que nos ofrece la estadística y a lo que se debe atender.

Y el otro supuesto básico es que el individuo es un organismo biológico y todo debe explicarse por el motor que desencadena los comportamiento en tre los muchos rasgos, factores, que analiza estadísticamente es el deseo de conocer cosas y el afán de incrementar lo que se ha visto y experimentado en la vida.

Llega a afirmar que el aprendizaje proviene de impulsos nerviosos que perturban el organismo si quedan insatisfechos. Se acercaron su postura a biologismo casi total. Ha todo dependiente de lo neuronal y del ADN que es el secreto del registro en la persona humana, como lo es en el animal no racional. Su teoría es pues un biologismo y su mensaje sobre la acción intelectual del ser humano se acerca a un mecanicismo bioneurológico que poco espacio deja para el ejercicio de la libertad o por la interpretación más espiritualista de la ciencia, de la sabiduría

6 Creatividad y aprendizaje

 

La interpretación creativista ha sido la más difundida en los tiem­pos recientes en lo que a la inteligencia se refiere y a sus procesos de aprender, explicar, comprender, y expresar. Ha estado con frecuencia en la mente de los filósofos y de los sociólogos de todos los tiempos. Pero la oleada de interés se despertó con una conferencia de Joy Paul Guilford (1897-1987) en 1951 titulada Creativity y con el “Ensayo” publicado poco después.

Joy Paul Guilford nació cerca de Marquette, Nebraska, EE.UU. y falleció en Los Angeles. Trabajó como psicólogo en la Universidad de Harvard y elaboro una teoría dinámica y factorialista, partiendo de la idea de que la inteligencia es la “capacidad d enfrentarse diná­micamente con la reali­dad y responder de forma original y práctica a los problemas que se presentan en la vida”.

Llevó a cabo numerosos análisis factoriales sobre la personalidad y las aptitudes cognitivas y elaboró un modelo de la estructura de la inteligencia, desarrollando al máximo los análisis factoriales de Thurstone

. Sus trabajos suscitaron muchos cuestionarios sobre la originalidad, la novedad, la habilidad, la creatividad que se advierte en la personalidad en cuanto al ser y del a inteligencia en cuanto al obrar. Destacan sus obras “Psicología general” (1940),  “Creatividad y educación” y “Aptitud para la creación”.

En sus estudios posteriores, como en “La estructura de la Inteligencia”, de 1956, y en “La medida y el desarrollo de la creatividad”, de 1962, o en “La estructura factorial de la inteli­gencia”, de 1964, perfila la teoría de la inteligen­cia como resultado de diversas operaciones que conducen a diversos productos en diversos campos, contenidos o terrenos.

 

 

J.P.Guilford

El centro de referencia es, para Guil­ford, el pensamiento diver­gente o expan­sivo. El pone al sujeto en disposi­ción de resolver cuestiones. Para ello precisa iniciativa, fantasía, originali­dad, inventivi­dad, productividad, expresividad… y cuantas fuerzas le proyecten a actuar, no en función de aprendizajes (memoria), sino originales (fanta­sía y dina­micidad).

.

Discurrió un modelo morfológico, presentado en 1958, que intentaba superar la visión restringida de las aptitudes que mostraban los modelos factoriales. Suponía su idea una clasificación cruzada de fenómenos que se interceptan e interactúan. Se puede describir como una matriz matemática en tres dimensiones. Toma como punto de partida un análisis de cómo actúa el sistema cognitivo al resolver problemas.

Para ello establece tres categorías cuyas intercepciones dan lugar a cada aptitud:

  • OPERACIONES: Tipo de proceso intelectual (valoración, producción convergente, producción divergente, retención de memoria, registro de memoria, cognición)
  • CONTENIDOS: Tipo de información con el cual se trabaja (visual, auditivo, simbólico, semántico, comportamental)
  • PRODUCTOS: Forma que adopta la información en el procesamiento que el organismo hace de ella (unidades, clases, relaciones, sistemas, transformaciones, implicaciones)

De esta forma una aptitud es una operación determinada, de seis posibles aspectos, sobre un contenido de información que da lugar a uno de los seis productos posibles. Con este sistema taxonómico Guilford encontró 150 aptitudes diferentes en 1977, que se ampliaron a 180 en 1988. En esta clasificación no aparecen relaciones jerárquicas entre los elementos, lo cual no quiere decir que no existan. Lo que aparecen son interconexiones entre un aspecto operacional, uno conceptual y uno operativo

Es como si en una matriz de laboratorio se mezclaran diversos elementos y se analizaran luego los compuestos resultantes de las diversas mezclas.

Por ejemplos si exploramos la fuente de las OPERACIONES, nos encontramos con cinco grandes formas de operar:

  • Cognición: Lo que el individuo conoce o puede descubrir fácilmente a partir de lo que ya sabe.
  • Memoria: almacenar información
  • Producción divergente: cantidad y variedad de información producida a partir de una misma fuente.
  • Producción convergente: consecución de resultados únicos o considerados como los mejores.
  • Valoración: Alcanzar decisiones que estén de acuerdo con un criterio dado.

Si nos detenemos en los CONTENIDOS o campos en donde se producen las actividades creadoras, hallamos varios “espacios de creatividad”

-       Contenido visuales, que afectan a todas la realidades externas que llegan a los ojos y que suponen dimensiones ópticas.

-       Contenido auditivos que juegan con la audición y la producción auditiva como la música, la canción

-       Contenidos simbólicos, que son todos los gestos y signos creativos como los iconos, los emblemas, las metáforas,  las iconografías.

-       Contendidos semánticos, en forma de palabras, de juicios y de argumentos coherentes y bien desarrollados, originales y sugestivos.

-       Contenidos conductales o acciones de la vida que van desde el movimiento artístico, como la danza, a los competitivos, como el deporte.

Y en cada intersección de las anteriores podemos hallar NIVELES de complejidad creciente, que van

-  desde las unidad que reflejan singularidad

-  hasta las redes más complicada o implicadas

-  pasando por los grupos o clases,

-  por las relaciones o vínculos,

-   los sistemas y los grupos o asociaciones de sistemas.

Es difícil imaginarlo con sólo la fantasía, pero, cuando Guilford perfila matrices de correlaciones y detecta nada menos que 150 0 180 elementos, rasgos, aspectos o factores que entran en juego, surge la interrogación y la duda. ¿Tan complicada es la máquina creativa que el hombre lleva dentro y que produce todo lo que brota de su inteligencia, o acaso que todo ello es lo que constituye su inteligencia creadora?

 

Si es la respuesta negativa, quedamos con la duda de si aprender a crear, el aprendizaje creativo va por este camino o no. Y si la conclusión es positiva intuimos que el proceso de aprender en clave de creatividad resulta una operación humana de mayor complejidad que lo que a simple vista nos ofrece la experiencia cotidiana.

La interpretación de Guilford, tal vez sobreva­lorada en los últimos tiempos, es una respuesta válida a los desafíos que plantea la vida moder­na. Por eso se aleja de inter­pretaciones espe­culati­vas y pre­fiere las pragmáticas, al mismo tiempo que promueve las  operativas y personales

7 Las inteligencias múltiples

Las enseñanzas de Howad Gardner (1943-) han servido, sin especial profundidad, para actualizar los planteamientos factoriales sobre la inteligencia y el conocer. Profesor y psicólogo de la Universidad de Harvard fue hijo de familia de refugiados de la Alemania nazi.   Nació en Scranton, Pensilvania, en 1943. Estudió en la Universidad de Harvard, donde se orientó hacia la psicología y la neuropsicología.

Se dedicó a la investigación en la misma Universidad y ocupó cargos, como codirector del Proyecto Zero en la Escuela Superior de Educación del Centro, donde además se desempeña como profesor de educación y de psicología. También ejerce la docencia en Neurología en la Facultad de Medicina de la Universidad de Boston.

En 1983 presentó su teoría en el libro “Frames of Mind: The Theory of Multiple Intelligences”. En 1990, fue el primer estadounidense que recibió el Premio de Educación Grawmeyer de la Universidad de Louisville.

En él critica la idea de la existencia de una sola inteligencia, a través de las pruebas psicométricas.

Fue conocido en el ambiente de la educación por su teoría de las inteligencias múltiples, basada en que cada persona tiene —por lo menos— ocho inteligencias o habilidades cognoscitivas (musical, cinético-corporal, lógico-matemática, lingüística, espacial, interpersonal, intrapersonal y naturista).

Howard Gardner

La teoría de las inteligencias múltiples es un modelo de  inteligencia en que esta capacidad no es vista como algo unitario, que agrupa diferentes capacidades específicas con distinto nivel de generalidad, sino como un conjunto de inteligencias múltiples, distintas e independientes. Gardner define la inteligencia como la “capacidad de resolver problemas o elaborar productos que sean valiosos en una o más culturas“.

Primero amplía el campo de lo que es la inteligencia y reconoce lo que se sabía intuitivamente: que la brillantez académica no lo es todo. A la hora de desenvolverse en la vida no basta con tener un gran expediente académico.

Hay gente de gran capacidad intelectual pero incapaz de, por ejemplo, elegir ya bien a sus amigos; por el contrario, hay gente menos brillante en el colegio que triunfa en el mundo de los negocios o en su vida personal. Triunfar en los negocios, o en los deportes, requiere ser inteligente, pero en cada campo se utiliza un tipo de inteligencia diferente. No se trata de cualificar, de si es mejor o peor; sólo se precisa detectar que es distinto. Dicho de otro modo, Einstein no es más ni menos inteligente que Michael Jordan, simplemente sus inteligencias pertenecen a campos diferentes.

Segundo, y no menos importante, Gardner define la inteligencia como una capacidad. Hasta hace muy poco tiempo la inteligencia se consideraba algo innato e inamovible. Se nacía inteligente o no, y la educación no podía cambiar ese hecho. Tanto es así que en épocas muy cercanas a los deficientes psíquicos no se les educaba, porque se consideraba que era un esfuerzo inútil.

Considerando la importancia de la psicología de las inteligencias múltiples, ha de ser más racional tener un objeto para todo lo que hacemos, y no solo por medio de estas inteligencias. Puesto que deja de lado la objetividad, que es el orden para captar el mundo.

Howard Gardner añade que así como hay muchos tipos de problemas que resolver, también hay muchos tipos de inteligencia. Hasta la fecha  Gardner y su equipo de la Universidad de Harvard han identificado ocho tipos distintos:

  • Inteligencia lógica-matemática: utilizada para resolver problemas de lógica y matemáticas. Es la inteligencia que tienen los científicos. Se corresponde con el modo de pensamiento del hemisferio lógico y con lo que la cultura occidental ha considerado siempre como la única inteligencia.
  • Inteligencia espacial: consiste en formar un modelo mental del mundo en tres dimensiones; es la inteligencia que tienen los marineros, pilotos, ingenieros, cirujanos, escultores, arquitectos, decoradores y diseñadores.
  • Inteligencia corporal cinética: o capacidad de utilizar el propio cuerpo para realizar actividades o resolver problemas. Es la inteligencia de los deportistas, artesanos, cirujanos y bailarines.
  • Inteligencia intrapersonal: permite entenderse a sí mismo y a los demás; se la suele encontrar en los buenos vendedores, políticos, profesores o terapeutas.
  • Inteligencia interpersonal: es la inteligencia que tiene que ver con la capacidad de entender a otras personas y trabajar con ellas; se la suele encontrar en políticos, profesores, psicólogos y administradores.
  • Inteligencia naturalista: utilizada cuando se observa y estudia la naturaleza, con el motivo de saber organizar, clasificar y ordenar. Es la que demuestran los biólogos o los herbolarios.

Según esta teoría, todos los seres humanos poseen las ocho inteligencias  en mayor o menor medida. Al igual que con los estilos de aprendizaje no hay tipos puros, y si los hubiera les resultaría imposible funcionar. Un ingeniero necesita una inteligencia espacial bien desarrollada, pero también necesita de todas las demás, de la inteligencia lógico matemática para poder realizar cálculos de estructuras, de la inteligencia interpersonal para poder presentar sus proyectos, de la inteligencia corporal – cinestésica para poder conducir su coche hasta la obra, etc.

Gardner resalta que todas las inteligencias son igualmente importantes, El sistema escolar vigente no las cultiva por igual, sino que prioriza las dos primeras de la lista, (la lógico -matemática y la lingüística). Sin embargo en la mayoría de los ambientes es urgente que se promueva en los docentes la preocupación por una educación más diversificada, que realicen el proceso de enseñanza y aprendizaje a través de actividades múltiples y de experiencias vitales y no sólo académicas.

Para Gardner es absurdo que, sabiendo lo que se sabe sobre estilos de aprendizaje, tipos de inteligencia y estilos de enseñanza, se siga insistiendo en que todos los alumnos aprendan de la misma manera.

La misma materia se podría presentar de formas muy diversas: resultaría más fácil al alumno asimilar contenidos según capacidades y aprovechar los puntos fuertes de cada persona.

El aprendizaje para Gardner no existe como algo simple y mecánico. Es preciso descubrir su multipolaridad  y obrar en consecuencia. Es muy diferente, incluso antagónico,  aprender elementos musicales o tratar con operaciones matemáticas.

 

 

 

 

 

UN MENSAJE PARA REFLEXIONAR:

COMO VE EL APRENDIZAJE HOWARD GADNER EN SU TEORIA

DE LA INTELIGENCIAS MULTIPLES

Citas varias

La inteligencia, lo que consideramos acciones inteligentes, se modifica a lo largo de la historia. La inteligencia no es una sustancia en la cabeza como es el aceite en un tanque de aceite. Es una colección de potencialidades que se completan.

Cada ser humano tiene una combinación única de inteligencia. Éste es el desafío educativo fundamental. Podemos ignorar estas diferencias y suponer que todas nuestras mentes son iguales. O podemos tomar las diferencias entre ellas.  Una inteligencia es un potencial biopsicológico que no debe confundirse con un dominio del saber, que es una actividad socialmente construida.

En la mayor parte de los países del mundo las escuelas se organizan de maneras uniformes. Se enseñan y evalúan las mismas materias de las mismas maneras, a todos los estudiantes por igual, porque parece justo poder tratar a todos los estudiantes como si fueran iguales. Ellos se apoyan en el supuesto equivocado de que todas las personas tienen el mismo tipo de mente. Pero yo creo que todas las personas tienen un tipo de mente distinto. Nadie gastaría dinero en un terapeuta que ignorara todo aquello que es específico de los individuos.

En el futuro vamos a ser capaces de individualizar, de personalizar la educación tanto cuanto queramos.  Es muy importante evaluar las inteligencias, pero los tests estandarizados no son la solución.

El gran desafío, tanto para el docente como para el alumno, es encontrar ese equilibrio entre grado de desafío de una actividad y el grado de habilidad de la persona que la realiza.

Nuestras limitaciones no sólo posibilitan los primeros aprendizajes vitales, sino que también permiten ocasionales rupturas creativas.

Sería conveniente disponer, en un volumen, de una síntesis del trabajo sobre la educación de las estructuras de la mente que fuera “de buena tinta”.

El diseño de mi escuela ideal del futuro se basa en dos hipótesis: la primera es que no todo el mundo tiene los mismos intereses y capacidades; no todos aprendemos de la misma manera. La segunda hipótesis puede doler: es la de que en nuestros días nadie puede llegar a aprender todo lo que hay para aprender.

Una escuela centrada en el individuo tendría que ser rica en la evaluación de las capacidades y de las tendencias individuales. Intentaría asociar individuos, no sólo con áreas curriculares, sino también con formas particulares de impartir esas materias.

Conjuntamente con los especialistas evaluadores, la escuela del futuro deberá contar con el “gestor (broker) estudiante-curriculum”. Su trabajo consistiría en ayudar a emparejar los perfiles de los estudiantes, sus objetivos e intereses, con contenidos curriculares concretos y determinados estilos de aprendizaje.  El propósito de la educación es lograr que las personas quieran hacer lo que deben hacer

Tomando en http://contexto-educativo.com.ar/2001/1/gardner.


 

 

ES LA INTELIGENCIA LA BASE DEL APRENDIZAJE?

De la gran cantidad de material de investigación en la web, puedo decir con confianza que la gente tiene un apetito afilado para búsqueda de información acerca de cómo funciona el cerebro y cómo desarrollar procesos de pensamiento.

Es una tarea difícil cuando se considera que los hallazgos de la investigación del cerebro son relevantes para el aprendizaje humano y tuve el cuidado de evitar la adopción de conceptos caprichosos. Entre ellas está el concepto de que el hemisferio izquierdo y derecho del cerebro se les debe enseñar por separado para maximizar la eficacia del aprendizaje. Otro concepto de moda es la idea de que el cerebro crece en hostil “chorros” de acuerdo con los objetivos educativos específicos que deben ser arreglados. Otro error muy extendida es que la gente usa el 20% de sus cerebros.
Esta creencia surgió de la neurociencia temprana conclusión de que gran parte de la corteza cerebral consiste en “áreas silenciosas” que se activan por la actividad sensorial o motor. Sin embargo, ahora se sabe que estas áreas silenciosas mediar en las funciones cognitivas superiores que no están directamente asociados a la actividad sensorial o motor.

Dado que las ciencias de la psicología evolutiva, la neurociencia y la psicología cognitiva han contribuido gran número de estudios de investigación sobre el aprendizaje de los detalles y el desarrollo han convergido para formar un cuadro más completo de cómo se produce el desarrollo intelectual.

La investigación en neurociencias confirma que la experiencia juega un papel importante en la construcción de las redes del cerebro efectuar cambios en el cerebro.

La neurociencia está empezando a ofrecer algunas reflexiones sobre el órgano dinámico que llamamos el cerebro, en forma en gran medida por la experiencia-por lo que hemos hecho y estamos haciendo hoy. Entonces, ¿cuál es la forma correcta de aprender? ¿Estoy aprendiendo de la manera más óptima – ¿cómo puedo saber?

Esta idea plantea muchas preguntas acerca de nuestro sistema educativo y la forma en que nos enseñaron a pensar, conceptualizar y, básicamente, hacer todo lo que han aprendido a hacer.

…seguiremos

juandon

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 18.250 seguidores