juandon

1455

Fotografía: Paula Rosa (Fellini GalLery)

 

Las tendencias actuales en aprendizaje automático, análisis de datos, aprendizaje profundo e inteligencia artificial, sin embargo, complican las cuentas psicológicas centradas en el ser humano sobre el aprendizaje. Las teorías de aprendizaje más influyentes de hoy son las que se aplican a cómo las computadoras “aprenden” de la “experiencia”, cómo los algoritmos están “entrenados” en selecciones de datos y cómo los ingenieros “enseñan” a sus máquinas a “comportarse” a través de “instrucciones” específicas.

 

Necesitamos planteamientos metodológicos, pero también y especialmente, estructurales, como señalamos en nuestras investigaciones para no solo innovar en la educación, si no para transformarla.( ejemplo:…)

“Las personas usan historias para organizar, expresar y recordar sus experiencias. Esta idea es el fundamento de un método desarrollado por Roger Schank y su equipo para diseñar cursos y materiales educativos que garanticen un aprendizaje mediante la práctica (learning by doing). ” Roger Schank

 

 

 

 

 

Estructuras de aprendizaje con  una arquitectura eficaz:

  • Un escenario: Situación profesional real y de negocio, simulada. Motivador y rico en contenidos, que proporciona un contexto coherente para el aprendizaje individual y colectivo.
  • Una secuencia planificada de tareas: Encuadradas en ese escenario, que permiten al participante ejercitar los comportamientos clave y, de esta manera, aprenderlos (práctica, entrenamiento).
  • Una colección estructurada de recursos para el aprendizaje: Incluyen procedimientos de trabajo, modelos a utilizar, herramientas, información relevante para la tarea, etc.
  • Acceso a un tutor: online o presencial, para obtener ayuda en el momento de aprendizaje preciso (feed-back).
  • Este engranaje se corresponde a las característivcas del E-learning-Inclusivo, diseñado por mi mismo, (Juan Domingo Farnos Miró) y que se recoge en estas bases  http://www.scribd.com/doc/33025056/Bases-Para-e-Learning-Inclusivo , pero con una trascendencia mayor, ya que quiere influir en todo el diseño de lo que entendemos por educación y formación e influir en decisiones político-educativas, sociales y tecnológicas, adaptándose de manera permanente, transparente y con confianza..a esta sociedad dinámica que gracias a las TIC, evolucionará a un riitmo muy diferente a lo que venía haciendo hasta ahora.

 

 

El uso de los miembros del equipo y los compañeros (peer to peer) es una gran manera de articular y hacer comentarios sobre las decisiones de diseño.

Aunque las comprobaciones de calidad por homólogos deben estar bien facilitadas para evitar posturas subjetivas , pueden ser un método ideal para explicar la comprensión de los problemas subyacentes, hechos y datos; el dominio del problema; las necesidades de los usuarios finales; y el razonamiento detrás de las decisiones que ha tomado.

 

 

 

 

 

Estas reuniones también pueden ser una manera de dejar que sus compañeros discuten los problemas y patrones similares se encontraron y resolvieron en otros proyectos.

Probar los flujos de pantalla en bruto y el diseño de interfaz de usuario temprana, y con frecuencia en el ciclo de los proyectos del usuario para validar el entendimiento y suposiciones acerca de las necesidades del negocio y de los usuarios finales. No tenga miedo de abrazar errores si descubre algunos problemas de experiencia de usuario más destacados con sus conceptos difíciles. Los usuarios finales pueden ofrecer información valiosa a través de los debates posteriores a las pruebas y entrevistas de seguimiento.
El desarrollo de nuevos métodos de resolución de problemas a través del aprendizaje basado en la práctica (PBL)

 

 

 

 

 

Por desgracia, experiencias en el aula y el desarrollo en el mundo real se realizan típicamente de forma independiente como si no hubiera necesidad de combinar la teoría con la práctica. El Aprendizaje basado en el trabajo, por el contrario (LEARNING IS THE WORK), se fusiona deliberadamente la teoría con la práctica y reconoce la intersección de formas explícitas y tácitas de conocimiento, tanto a nivel individual y colectivo.

Reconoce que el aprendizaje se adquiere en el medio de la práctica y puede ocurrir mientras se trabaja en las tareas y las relaciones en la mano. (Raelin, 1998)
La idea de aprendizaje a través de la práctica también se apoya en David Kolb y en el modelo de aprendizaje experiencial – hacer o experiencia, reflexionar sobre lo observado o aprendido, el desarrollo de las teorías internas generales sobre la aprendizaje, y aplicar el aprendizaje en experiencias futuras.

 

 

kolbs-learning-model

 

 

 

Kolb y Fry (1975) sostienen que el ciclo de aprendizaje puede comenzar en cualquiera de los cuatro puntos – y que lo que realmente debe ser abordado como una espiral continua. Sin embargo, se sugiere que el proceso de aprendizaje comienza a menudo con una persona que lleva a cabo una acción particular y luego ver el efecto de la acción en esta situación. (Smith, 2001, 2010)

Crítica del “Experiential Learning Circle” de Kolb y Fry (1975)

1. No presta suficiente atención al proceso de reflexión (Boud et al 1983)

2. Kolb y Fry hacen encajar el esquema con cuatro estilos de aprendizaje. Sin embargo, esta vinculación da como resultado un esquema demasiado cerrado e incompleto de los modos de aprendizaje. Se está priorizando un estilo particular de aprendizaje, pero el aprendizaje mediante experiencia no se aplica a todas las situaciones. Kolb deja al margen otras formas como la asimilación de información o memorización. (Jarvis 1987; Tennant 1997)

3. El modelo toma muy poco en cuenta la diferentes culturas en los relativo a condiciones, experiencias y estilos de comunicación. (Anderson 1988Anderson 1988)

4. La idea de etapas o pasos no encaja muy bien con la realidad del pensamiento. Como señaló Dewey (1933) numerosos procesos pueden ocurrir simultáneamente y las etapas pueden ser saltadas. Esta forma tan clara de presentar las cosas es demasiado simplista.

5. El respaldo empírico de la teoría es débil (Jarvis 1987; Tennant 1997). La base de la investigación inicial fue muy limitada y ha habido posteriormente muy pocos estudios sobre el tema.

6. La relación entre proceso de aprendizaje y conocimiento es problemática. La postura de Kolb es algo simplista y no tiene en cuenta las distintas posiciones en torno a la naturaleza del conocimiento.

 

 

 

efeu_action_workshop-_experiential_learning_devilarts_cc-Copy

Jarvis también llama la atención sobre los diferentes usos del término, citando Weil y McGill (1989: 3) categorización de aprendizaje experiencial en cuatro “pueblos”: (Conferencia Internacional sobre Aprendizaje Experimental en Londres en 1987)

Pueblo Uno se preocupa sobre todo con la evaluación y la acreditación de aprender de la experiencia de vida y de trabajo ….

Aldea Dos se centra en el aprendizaje experimental como base para lograr un cambio en las estructuras … de la educación post-escolar ….

Aldea Tres enfatiza el aprendizaje experimental como base para la toma de conciencia de grupo ….

Village Four está preocupado por el crecimiento personal y la auto-conciencia.

 

 

Es importante que la investigación educativa se involucre en cómo algunas de sus preocupaciones centrales -aprendizaje, capacitación, experiencia, comportamiento, selección de currículos, enseñanza, instrucción y pedagogía- se están reelaborando y aplicando dentro del sector tecnológico. De alguna manera, podríamos decir que los ingenieros, los científicos de datos, los programadores y los diseñadores de algoritmos se están convirtiendo en los maestros más poderosos de hoy en día, ya que son máquinas que permiten aprender a hacer cosas que cambian radicalmente nuestras vidas cotidianas.

Lo que hace que la programación ed-tecnología “adaptable” es que la IA evalúa la respuesta de un estudiante (por lo general a una pregunta de opción múltiple), luego sigue con la “segunda mejor” cuestión, cuyo objetivo es el nivel “adecuado” de dificultad. Esto no tiene por qué requerir un algoritmo especialmente complicado, y la idea en realidad basada en “la teoría de respuesta al ítem”, que se remonta a la década de 1950 y el ascenso de la psicometría. A pesar de las décadas siguientes, sinceramente, estos sistemas no se han vuelto terriblemente sofisticados, en gran parte debido a que tienden a basarse en pruebas de opción múltiple.

 

 

 

 

 

Para ello, se plantea un travelling de tendencias que incluye la apertura radical al conocimiento, donde la evolución biológica puede ser hackeada por la mente humana y su esparcimiento viral; las ideas están vivas y en perpétuo cambio… “(open y self-publishing, open educational resources); nuevas formas de certificar conocimiento (open badges, open educational practices); nuevos perfiles (desing thinkers, digital curators, digital yonkis); cursos masivos abiertos (massive online courses, peer assessment); nuevas tipologías de habilidades (transmedia skills); investigación abierta y distribuida (open data) entre otros.

 

En la reciente DevLearn, Donald Clark habló de AI en el aprendizaje, y si bien…..

“Debemos saber un poco de la historia de la subida de los Sistemas Inteligentes de Tutoría, los problemas con el desarrollo de modelos de expertos, y los enfoques actuales como Knewton y Smart Sparrow. No he tenido la libertad de seguir las últimas novedades tanto como me gustaría, pero Donald dio una gran visión.

Se refirió a los sistemas de estar a punto de los contenidos de análisis automático y el desarrollo de aprendizaje en torno a ella. Mostró un ejemplo, y creó preguntas . También mostró cómo los sistemas pueden adaptarse individualmente al alumno, y discutió cómo podría ser capaz de proporcionar tutoría individual sin muchas limitaciones de los profesores (cognitiva sesgo, fatiga), y no sólo se puede personalizar, pero sí mejorar y escalar!

 

 

 

 

 

Uno de los problemas que encontró  a corto plazo era que la pregunta autogenerado fuera sobre el conocimiento y no sobre  habilidades. Si bien estoy de acuerdo que el conocimiento que se necesita , así como su aplicación, creo que centrarse  en este último primero es el camino a seguir.

Esto va junto con lo que Donald ha criticado con razón, como problemas con preguntas de opción múltiple. Señala cómo se utilizan en gran parte como prueba de conocimientos, y estoy de acuerdo que eso está mal, pero mientras hay situaciones prácticas mejores (léase: simulaciones / escenarios / juegos serios), se puede escribir de opción múltiple como mini-escenarios y obtener buenas prácticas . Sin embargo, es aún un problema de investigación interesante, para mí, para tratar de conseguir buenas preguntas de escenarios de contenido auto-análisis.

 

 

Se puede ir por un sistema híbrido, donde nos dividimos las funciones entre el ordenador y la intervención de las personas humanas sobre la base de lo que cada uno de nosotros hacemos bien, y me dijo que eso es lo que está viendo en las empresas.

La última parte que me interesaba era si y cómo tales sistemas podrían desarrollar no sólo el aprendizaje de habilidades, pero el meta-aprendizaje o de aprender a aprender. Profesores reales pueden desarrollar este y modificarlo (si bien es cierto y raro), y sin embargo, es probable que sea la mejor inversión. En mi aprendizaje basado en la actividad, le sugerí que poco a poco los alumnos deben hacerse cargo de la elección de sus actividades, a desarrollar su capacidad de convertirse en autodidactas. También le sugerí cómo podría ser en capas en la parte superior de experiencias regulares de aprendizaje. Creo que esto va a ser un área interesante para el desarrollo de experiencias de aprendizaje que son escalables, pero realmente desarrollan los estudiantes para los tiempos venideros.

Hay más: normas pedagógicas, modelos de contenido, modelos con alumnos, etc, pero finalmente estamos consiguiendo  ser capaces de construir este tipo de sistemas, y debemos ser conscientes de cuáles son las posibilidades”.

 

Con todo ello la personalización por las tecnologías digitales (algoritmos) sólo libera los seres humanos para personalizar mejor nuestra vida (es decir, encontrar nuestras propias maneras), lo demás deben hacerlo las tecnologías y es aquí mi insistencia en conseguir un ALGORITMO, el cual pueda facilitar la recepción de DATOS, pasarlos por un proceso de ANALISIS Y CRITICA, lo que los transformara en APRENDIZAJES. Si todo el proceso esta evaluado, necesitaremos el algoritmo para que nos realice la retroalimentación. Lo cual hará que todo nuestro proceso de aprendizaje este ayudado por este proceso tecnológico.

 

 

 

f0307315

 

 

En los ultimos tiempos se están dando sos corrientes referentes al Big data y a a los Algoritmos (Inteligencia Artificial), los que predicen que significaran la “visualización” de una época con rayos y truenos, que nos tendra vigilados permanentemente ” Un artículo del periodista holandés Dimitri Tokmetzis demostró el año pasado hasta qué punto esto puede ir en los datos de montaje de retratos compuestos de lo que somos. Google sabe lo que busca y puede inferir no sólo qué tipo de noticias que lees en un domingo por la mañana y qué tipo de películas prefieres un viernes, qué tipo de porno que probablemente nos gustaría mirar y dejarnos boquiabiertos en la noche del sábado , lo que ha hecho que los bares y restaurantes cierren”….

La propuesta de Bentham para una Máquina total de la visibilidad puede ser menos significativa a la tesis de los universos de datos emergentes que sus contribuciones a la moral del utilitarismo y su supuesto de que se puede medir nuestro bienestar.

Estamos hoy en la clase difusa del pensamiento calculador y comparaciones cuantitativas insta a que el utilitarismo, tal razonamiento no se basa en el trabajo de visibilidad a hacer. Más bien, eso depende de algoritmos de análisis, qui a su vez depende de la presa de los algoritmos silenciosos –los que convierten en silencio nuestro comportamiento en una avalancha de datos. (son la metafora de los presos alrededor que se pusieron alrededor de una torre de vigilanca para ser visualizados, hasta que estos alcanzaron la manera de evitarlo( estos eran los algoritmos)….

 

 

 

 

 

Con el trabajo algoritmico que preconizamos debemos tener siempre presente, tanto en las ideas, el desarrollo propio de andamiaje-algoritmico, así como en su posterior diseño, que deben ser capaces de analizar y llevar a cabo de manera pormenorizada y cuidadosa, conocer de que manera el aprendiz es capaz de aprender a aprender de manera personal y personalizada, por lo que estos siempre tendrán garantizado un apoyo inestimable.

Los aprendices, dentro de la educación formal de manera sistematizada, y en la informal, de manera generalizada… pueden beneficiarse de la orientación de los algoritmos que apuntan al aprendiz hacia los sistemas de tutoría en línea, por ejemplo, que están demostrando tan eficaz como tutores humanos.

La personalización por las tecnologías digitales sólo libera los seres humanos para personalizar mejor nuestra vida (es decir, encontrar nuestras propias maneras), lo demás deben hacerlo las tecnologías y e aqui mi insistencia en conseguir un ALGORITMO, el cual pueda facilitar la recepcion de DATOS, pasarlos por un proceso de ANALISIS Y CRITICA, lo que los transformara en APRENDIZAJES. Si todo el proceso esta evaluado, necesitaremos el algoritmo para que nos realice la retroalimentación. Lo cual hara que todo nuestro proceso de aprendizaje este ayudado por este proceso tecnológico.

Estos algoritmos de personalización (Rauch, Andrelczyk y Kusiak, 2007), recopilar información del usuario y analizan los datos para que pueda ser transmitida al usuario en momentos específicos (Venugopal, Srinivasa y Patnaik, 2009). Por ejemplo, cuando estoy terminado de ver un video en YouTube o una película en digitaly he aquí que presenté con una lista de recomendaciones sobre los géneros que acabo consumidas. Esta idea funciona de forma similar con algoritmos de personalización que sería capaz de recomendar cursos o avenidas de aprendizaje basado en el conocimiento previo de las personas intervinientes en el proceso de aprendizaje ABIERTO, INCLUSIVO Y UBICUO .

¿El aprendizaje PERSONALIZADO tiene suficiente mejoría en el aprendizaje del aprendiz para justificar los costos de un sistema de aprendizaje más complejo?
¿Cómo podemos aprovechar algoritmos de aprendizaje automático “big data” y otros.. para la construcción de sistemas de aprendizaje personalizadas más eficientes y rentables?
¿Cómo pueden las ideas y resultados de la investigación de las ciencias cognitivas, utilizarlos para mejorar la eficacia de los sistemas de aprendizaje personalizados?.

la Machine learning (La tecnología Machine Learning está abriendo nuevas oportunidades para las aplicaciones de software en temas de retroalimentación, al permitir a los ordenadores aprender de grandes y de pequeñas cantidades de información sin necesidad de ser programados explícitamente, aprendiendo de los errores producidos y segun los datos personalizados, readaptarlos en otras direcciones, lo cual nos permite optar por otras opciones de aprendizaje…)
En este sentido, los sistemas Machine Learning representan un gran avance en el desarrollo de la inteligencia artificial, al imitar la forma en que aprende el cerebro humano -mediante la asignación de significado a la información y darnos más posibilidades de opción según nuestros personalismos.

El Machine learning identificará y categorizará las entradas repetitivas y utilizar la retroalimentación para fortalecer y mejorar su rendimiento. Es un proceso similar a cómo un niño aprende los nombres y la identidad de los animales, haciendo coincidir las palabras con las imágenes; el ordenador, poco a poco, aprende a procesar la información correctamente.
deep-learning-680x365_c
La evolución de los algoritmos que “aprenden” de los datos sin tener que programarse de forma explícita. Un subgrupo particular de Machine Learning se conoce como “aprendizaje profundo” (Deep Learning). Este término describe el uso de un conjunto de algoritmos llamados redes neuronales que toman como modelo el cerebro humano. Los avances en este aprendizaje profundo han impulsado una rápida evolución de las tareas de aprendizaje por parte de las máquinas en los últimos años, en particular el procesamiento del lenguaje y texto, y la interpretación de imágenes y vídeos. Estos sistemas, por ejemplo, llegan a identificar caras o a interpretar el idioma natural a una velocidad y con un grado de acierto que puede superar al de un ser humano.

 

 

“Sin entrar en detalles complejos sobre los diferentes paradigmas de Inteligencia Artificial y su evolución podemos dividir dos grandes grupos: la IA robusta y la IA aplicada.

 

  • Inteligencia Artificial robusta o Strong AI: trata sobre una inteligencia real en el que las máquinas tienen similar capacidad cognitiva que los humanos, algo que, como los expertos se aventuran a predecir, aún quedan años para alcanzar. Digamos que esta es la Inteligencia de la que soñaban los pioneros del tema con sus vetustas válvulas.
  • Inteligencia Artificial aplicada Weak AI (Narrow AI o Applied AI): aquí es donde entran el uso que hacemos a través de algoritmos y aprendizaje guiado con el Machine Learning y el Deep Learning.

El Machine Learning en su uso más básico es la práctica de usar algoritmos para parsear datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo.

El Machine Learning en su uso más básico es la práctica de usar algoritmos para parsear datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo. Los programadores deben perfeccionar algoritmos que especifiquen un conjunto de variables para ser lo más precisos posibles en una tarea en concreto. La máquina es entrenada utilizando una gran cantidad de datos dando la oportunidad a los algoritmos a ser perfeccionados.

 

 

Coincidiendo con el post de Pierre Levy: EML: A Project for a New Humanism. An interview with Pierre Lévy me pregunto ¿Cómo será el nuevo modelo y como será capaz de describir que nuestra forma de crear y transformar el significado, y que sea computable?….no tardará mucho, de eso podeis estar seguros.

Pronto el registro y análisis de datos semánticos podrá convertirse en un nuevo lenguaje común para las ciencias humanas y contribuir a su renovación y el desarrollo futuro.

Todo el mundo será capaz de clasificar los datos como quieran. Cualquier disciplina, ninguna cultura, ninguna teoría será capaz de clasificar los datos a su manera, para permitir la diversidad, utilizando un único metalenguaje, para garantizar la interoperabilidad. (EXCELENCIA PERSONALIZADA AUTOMATIZADA,) por medio de una mezcla de inteligencia artificial y algorítmica.

La gente tiene que aceptar su responsabilidad personal y colectiva. Porque cada vez que creamos un vínculo, cada vez que “al igual que” algo, cada vez que creamos un hashtag, cada vez que compremos un libro en Amazon, y así sucesivamente,… que transformemos la estructura relacional de la memoria comúny eso lleva, como venimos diciendo siempre, una responsabilidad y un compromiso.

Por lo tanto, también tenemos que desarrollar el PENSAMIENTO CRÍTICO Todo lo que encontremos en el Internet es la expresión de puntos de vista particulares, que no son ni neutrales ni objetivos, sino una expresión de subjetividades activas. ¿De dónde viene el dinero? ¿De dónde proceden las ideas? ¿Qué es el contexto pragmático del autor? etcétera…

Este precio informativo se compone de DATOS ESTANDARIZADOS a través del que hemos llegado a definir nosotros mismos: transcripciones escolares, registros de salud, cuentas de crédito, títulos de propiedad, identidades legales. Hoy en día, tesis arraigada tipo de individualidad datos están siendo blanco amplió para abarcar más y más de lo que podemos ser: (En educación seria el PERSONALIZED LEARNING, que nosotros mismos abogamos y además instauramos en algoritmos personalizados, nunca creadores de patrones)..

La transformación es el cambio de una o muchas variables en el estudio.

Se transforman variables, por ejemplo, al remplazar los valores originales por logaritmos (transformación logarítmica). Frecuentemente los datos que son obtenidos no se ajustan a una distribución normal, por lo cual es inapropiado el ejecutar pruebas paramétricas

Muchas variables no se comportan de forma lineal o aritmética, por ejemplo las abundancias siguen un patrón exponencial.

En la educación básica se promueve que el sistema decimal es el único “natural”

Nunca vemos los algoritmos que hacen su trabajo, incluso a medida que nos afectan. Ellos producen en sus sistemas de cifrado, todo invisible, enterrado en cajas negras componer silencio sinfonías de ceros y unos….

 

 

506-3076-1-PB

 

El sueño de entregar el aprendizaje personalizado utilizando objetos de aprendizaje que se ajusta al tiempo real, en cualquier lugar, en cualquier momento, justo suficientes necesidades del estudiante está a punto de convertirse en una realidad. Hoy en día, junto con muchos desarrollos importantes en la psicología de la instrucción, estándares abiertos, lenguajes de marcas estructuradas para la representación de datos interoperables, y el cambio de control de flujo de instrucción desde el cliente al servidor, una base totalmente nueva está haciendo realmente personalizado de aprendizaje en línea .

“Poco a poco las características subversivas de la computadora fueron erosionados distancia: En lugar de cortar a través y así desafiar la idea misma de fronteras temáticas, el equipo ahora se define un nuevo tema; en lugar de cambiar el énfasis del currículo impersonal a la exploración en vivo emocionados por los estudiantes, el ordenador se utiliza ahora para reforzar los caminos de la escuela. Lo que había comenzado como un instrumento subversivo de cambio fue neutralizado por el sistema y se convierte en un instrumento de consolidación”..… Audrey Watters

Lo que hace que la programación ed-tecnología “adaptable” es que la IA evalúa la respuesta de un estudiante (por lo general a una pregunta de opción múltiple), luego sigue con la “segunda mejor” cuestión, cuyo objetivo es el nivel “adecuado” de dificultad. Esto no tiene por qué requerir un algoritmo especialmente complicado, y la idea en realidad basada en “la teoría de respuesta al ítem”, que se remonta a la década de 1950 y el ascenso de la psicometría. A pesar de las décadas siguientes, sinceramente, estos sistemas no se han vuelto terriblemente sofisticados, en gran parte debido a que tienden a basarse en pruebas de opción múltiple.

Para ello, se plantea un travelling de tendencias que incluye la apertura radical al conocimiento, donde la evolución biológica puede ser hackeada por la mente humana y su esparcimiento viral; las ideas están vivas y en perpétuo cambio… “(open y self-publishing, open educational resources); nuevas formas de certificar conocimiento (open badges, open educational practices); nuevos perfiles (desing thinkers, digital curators, digital yonkis); cursos masivos abiertos (massive online courses, peer assessment); nuevas tipologías de habilidades (transmedia skills); investigación abierta y distribuida (open data) entre otros.

https://juandomingofarnos.wordpress.com/…/los…/Los algoritmos sales de las Universidades de Juan Domingo Farnós Miró

Estamos hoy en la clase difusa del pensamiento calculador y comparaciones cuantitativas insta a que el utilitarismo, tal razonamiento no se basa en el trabajo de visibilidad a hacer. Más bien, eso depende de algoritmos de análisis, qui a su vez depende de la presa de los algoritmos silenciosos –los que convierten en silencio nuestro comportamiento en una avalancha de datos. (son la metafora de los presos alrededor que se pusieron alrededor de una torre de vigilanca para ser visualizados, hasta que estos alcanzaron la manera de evitarlo( estos eran los algoritmos)….

 

Las diferencias de poder y las cuestiones de desigualdad con los aprendices deben ser tomadas en serio en todos los contextos. Por otra parte, el grado en que el aprendizaje es emancipador u opresivo depende al menos tanto o más en los contextos organizacionales, sociales, culturales, económicos y con políticas más amplias en las que el aprendizaje tenga su sede, como en las prácticas reales de aprendizaje y pedagogías involucradas.

 

 

 

 

 

 

La eficacia de la circulación de información entre pares sugiere, por el contrario, que la participación en la práctica, en lugar de ser su objeto, bien puede ser la condición para la efectividad del aprendizaje “. (Lave y Wenger):

          1-La certeza y la estructura da una sensación de seguridad y tranquilidad. La incertidumbre es una enfermedad, según muchos terapeutas.

 

2. ¿Cuáles son los retos para el docente y para el estudiante? ¿Qué tan preparados están para afrontar los cambios en la educación? 

 

 

En la sociedad de hoy hay dos coneptos que o confundimos o no asimilamos, …la digitalización informatizada es un proceso técnico, mientras que la digitalización social es un proceso humano que en este caso implica una profunda revolución sociotécnica, todo ello nos lleva a otra sociedad, e aplica al proceso de interiorización personal y de coherencia social de las funcionalidades y efectos múltiples, directos, secundarios y hasta ocultos de esta tecnología.

Su socialización, cuyo resultado es la Sociedad de la Información, es un factor engañoso de progreso, si no está dirigido por una cultura madura de la tecnología, a la que podríamos denominar sociotecnocultura y que representa un objetivo educativo por el que luchar.

 

Entre las medidas necesarias para comprender mejor la dinámica de esta revolución sociotécnica que vivimos habría que completar la formación en muchas especialidades con dosis adecuadas de interdisciplinariedad, generalizar la práctica del sistemismo diversificado (inclusividad socio.educativa, por ejemplo) y del pensamiento complejo y crear, para difundirlo, un repertorio básico de conceptos sociotecnoculturales…y para ello necesitamos tecnologías inmersivas o no, pero al fin y al cabo las herramientas y los instrumentos siempre han sido utilizados por todas las sociedades.

 

Por supuesto, por ello tenemos lo que Saez Vacas llama TECNOLOGÍA DE LA INTELIGENCIA, que podemos entender como aquellas creaciones técnicas que no van dirigidas a producir cosas, sino a permitir que el cerebro humano se organice y funcione de manera distinta, es decir… no solo el SOFTWARE es un elemento básico dentro de la sociedad, si no por encima de ello está nuestra capacidad y mentalidad cognitiva de aceptar que estamos en una época cuya idiosincrasia hace que las tecnologías formen parte de nosotros, es más, que las consideremos en nosotros…
Las tecnologías convergentes, internet, la inteligencia artificial, la memoria externa….serán básicas en los próximos tiempos y no ya como tendencias, si no como elementos básicos que trascenderán mucho más de lo que la mayoría de la gente piensa, llegará el momento que ellas condicionarán nuestros actos, como ya lo están haciendo en parte ahora: “trate usted de sacar un billete de avión que no sea por medio de internet” Juan Domingo Farnos

 

 

 

21246219_1703793732966182_1464898001539869137_o-460x310

 

 

Girar suavemente la noción de competencia”: la distinción entre las habilidades (elemental para realizar operaciones), contenido (será en lo que se ejercita la capacidad) y la novedad en comparación con el punto anterior, el contexto (las condiciones en que practicamos las operaciones y toma significado producciones).
El plan respaldado por capacidades y contenido crece y se materializa en un volumen tridimensional que la tercera dimensión es el contexto (una figura más tarde ayudará a imaginar que estas tres dimensiones).

 

¿Puede el campo de la investigación educativa científico social explicar cómo sus preocupaciones principales escaparon del aula y entraron en el laboratorio de programación y, recursivamente, cómo las “máquinas de aprendizaje” técnicas están reingresando a las aulas y otros entornos de aprendizaje digitalizados?

Los procesos de aprendizaje automático no humano, y sus efectos en el mundo, deberían ser objeto de escrutinio si se quiere que el campo de la investigación educativa tenga voz para intervenir en la revolución de los datos. Si bien la investigación educativa desde diferentes perspectivas disciplinarias ha luchado durante mucho tiempo sobre las formas en que el “aprendizaje” se conceptualiza y entiende como un proceso humano, también debemos comprender mejor el aprendizaje no humano que ocurre en las máquinas. Esto es especialmente importante ya que las máquinas que se diseñaron para aprender desempeñan un papel de “pedagogía pública” en las sociedades contemporáneas y también se están impulsando en los esfuerzos comerciales y políticos para reformar los sistemas educativos a gran escala.

Una de las grandes historias de tecnología de los últimos meses se refiere a DeepMind, la empresa de inteligencia artificial propiedad de Google, pionera en el aprendizaje automático de próxima generación y las técnicas de aprendizaje profundo. El aprendizaje automático a menudo se divide en dos categorías. El ‘aprendizaje supervisado’ implica que los algoritmos sean ‘entrenados’ en un conjunto de datos seleccionado para detectar patrones en otros datos encontrados posteriormente ‘en la naturaleza’. El aprendizaje no supervisado, por el contrario, se refiere a sistemas que pueden aprender desde cero mediante la inmersión. en datos.

 

 

 

 

Crear máquinas inteligentes o más inteligentes que los humanos, no es lo mismo que  hacer a los humanos más inteligentes. Cada nivel de complejidad implica un tipo de conocimiento emergente nuevo y más poderoso, en el que todos los procesos cognitivos están aumentados. El último paso, es decir, aquel hacia el cual tendemos, sería el conocimiento algorítmico.

Y esa propuesta es la que hacemos nosotros (JUAN DOMINGO FARNOS https://juandomingofarnos.wordpress.com/…/algoritmos…/

INCLUSO DENTRO DE UN PROCESO transversal y multidisciplinar, para lograr nos lo eso, sino una autonomía en los aprendizajes y una personalizacion, como nunca hasta ahora se jha producido (POR TANTO TOTALMENTE ORIGINAL, apoyada en todo lo que les escribo, más las distintas potencialidades que tenemos de aprendizaje que tenemos las personas en nuestro cerebro y que les visualizo.

 

 

 

Junto con la arquitectura de redes neuronales, un algoritmo de aprendizaje de refuerzo autodirigido de última generación es la innovación técnica  que se entrena únicamente mediante el aprendizaje de refuerzo de autoaprendizaje, comenzando con el juego aleatorio, sin supervisión ni uso de datos humanos. ‘como su equipo de ciencia lo describió en la Naturaleza. Sus ‘sistemas de aprendizaje de refuerzo están entrenados a partir de su propia experiencia, en principio permitiéndoles exceder las capacidades humanas y operar en dominios donde falta la experiencia humana’. A medida que el algoritmo de refuerzo procesa sus propias experiencias en el juego, es ‘recompensado’ y ‘reforzado’ por las victorias que logra, para ‘entrenar a un nivel sobrehumano’.

Otro beneficio de la personalización es que cada vez que se personaliza, a aprender y almacenar un poco más sobre el conjunto único de un alumno, se aportan posiciones diferenciadas al aprendizaje social.
Esto no solo permite llegar a un mejor AUTOAPRENDIZAJE, si no también una manera más de “emprendimiento” y “apropiación” de la red, como “espacio” claramente de aprendizaje personalizado y socializador.
Esta “vinculación” que se establece, es propia incluso del funcionamiento cerebral, como muy bien dice George Siemens y diría mi amigo argentina Alicia Banuelos (una maravillosa Física)…”la sinapsis neuroal provoca que las neuronas se vinculen, se relacionen unas con otras”.
3244476858
El cerebro emite una especie de corriente de “relación” que con un poco de entrenamiento, que lo tengo y mucho, tengo que establecer relaciones entre todos e incluirlos, si es necesario en mis ideas para mejorarlas…
En una base de datos tradicional, el esquema de una tabla se aplica en tiempo de carga de datos. Si los datos que se están cargando no se ajusta al esquema, a continuación, se rechaza. Este diseño es a veces llamado esquema de escritura ya que los datos se comprueban con el esquema cuando se escribe en la base de datos y eso se puede extrapolar a lo que pretendemos que los alumnos aprendan del curriculum preestablecido.
Normalmente por otra parte, no comprobamos los datos cuando se cargan ,cuando los comentamos, explicamos… sino más bien cuando se emite una consulta. Esto se conoce como esquema de lectura.
Hay ventajas y desventajas entre los dos enfoques. Esquema de lectura hace que tengamos una carga inicial muy rápida, ya que los datos no tienes que ser leídos, analizados y serializados en el disco en formato interno de la base de datos.
La operación de carga es sólo una copia de archivo o de movimiento, y es lo que hacemos con los aprendizajes mecánicos de lectura y escritura (totalmente nefastos) es mucho más flexible: : considerar la posibilidad de dos o más esquemas para los mismos datos subyacentes, dependiendo del análisis que se realiza y de la persona que tenga que hacerlo (personalización en los procesos de aprendizaje).
En un futuro próximo creo que todo el aprendizaje será límites-less (Geoge Siemens). Todo el contenido de aprendizaje será computacional nada preestructurado. Todo aprendizaje será granular, con coherencia formada por alumnos individuales (inclusividad y ubicuidad de Juan Domingo Farnos)

 

 

 

 

 

 

Aparecen una incontenible avalancha de datos por segundo, las tecnologías se hacen cada vez más intangibles y ubicuas. Con la COMPUTACIÓN UBÍCUA, la asincronía funde el“ahora” y el “cuando”; SE TRANSFORMA en cognitiva-mente integrada, están surgiendo nuevas formas de pensar en las quela cognición se complementa con el pc, tabletas, mobile learning…
Mediante el manejo de tecnologías semánticas: etiquetados generados por los usuarios,folksonomías y ontologías; es intuitiva, como cualquier hábito, la computación ubicua se presenta como una parte de la experiencia vital…. niveles de complejidad, constante redefinición de los centros y las periferias y nos permite pasar de la misma Computación Ubícua a la I-BICUIDADuna nueva manera más SINCRONA de actuar en tiempo real, disponiendo en todo momento de las mejores FUENTES posibles…

Obviamente nosotros vamos mucho más lejos y ante no solo la abalancha de datos que nos llegan, ya que de lo que hablamos, primero, es de otro paradigma, con lo que las “formas actuales” de aprendizaje en nada se parecen a las que proponemos nosotros englobadas dentro de paraguas de la sociedad, contrariamente a lo que sucede ahora en la que la educación permanece como “una parte aislada” dentro de ella.

Ya no queremos algoritmos que saquen patrones y que todos tengamos que seguir sus indicaciones, estamos por algoritmos tanto de lo que son las personas como de lo que necesitan “Vamos ya a aprender durante toda nuestra vida y en cualquier momento, el qué, cuándo, cómo y dónde (eligiendo con quién), ya han dejado de ser, una obligación para pasar a seer algo usual en nuestra vida, las TIC, Internet, la Inteligencia Artificial, “han dinamitado” todo ese planteamineto que no sabíamos ni podíamos superar, ahora el estaticismo de aprender de manera controlada, uniforme, el “ocupar un espacio y un tiempo”, han dejado ya de existir, por lo cuál, vivimos aprendiendo, aprendemos en cada momento de nuestra vida, por eso, cualquier planteamiento que hagamos en este impás, debe acomodarse a esta nueva manera de entender la vida que ya está aquí, pero estamos “suscribiendo” las maneras de llegar a ello”

 

 

 

metalocus-moby-lost-03

 

 

La implicación, en otras palabras, es que poderosos algoritmos de aprendizaje podrían ser puestos a la tarea de entrenar a mejores humanos, o incluso de superar a los humanos para resolver problemas del mundo real.

 

“Es cierto que los sistemas cognitivos son máquinas inspiradas por el cerebro humano”, ha argumentado en un artículo reciente el vicepresidente de investigaciones y soluciones  “Pero también es cierto que estas máquinas inspirarán el cerebro humano, aumentarán nuestra capacidad de razonar y reconectarán las formas en que aprendemos”.

Todos ellos e basan en teorías científicas de aprendizaje -comportamiento psicológico y neurociencia cognitiva- que se utilizan para crear sistemas algorítmicos “sobrehumanos” de aprendizaje y creación de conocimiento. Traducen las teorías subyacentes de la psicología conductista y la neurociencia cognitiva en códigos y algoritmos que pueden ser entrenados, reforzados y recompensados, e incluso convertirse en máquinas autorreforzadoras auodidácticas que pueden exceder la experiencia humana.

Para educadores e investigadores de la educación esto debería plantear preguntas apremiantes. En particular, nos desafía a reconsiderar qué tan bien somos capaces de comprender los procesos que normalmente se consideran parte de nuestro dominio, ya que ahora están siendo refigurados computacionalmente. ¿Qué significa hablar sobre las teorías del aprendizaje cuando el aprendizaje en cuestión tiene lugar en algoritmos de redes neuronales?

El “conductismo de máquina” del tipo desarrollado en DeepMind puede ser una de las teorías de aprendizaje más importantes de la actualidad. Pero debido a que los procesos que explica ocurren en las computadoras en lugar de en los humanos, la investigación educativa tiene poco que decir al respecto o sus implicaciones.

Los desarrollos en el aprendizaje automático, los algoritmos autodidacticos y los procesos de autorrefuerzo pueden ampliar el alcance de los estudios educativos. La ciencia cognitiva y la neurociencia ya adoptan métodos computacionales para comprender los procesos de aprendizaje, de maneras que a veces parecen reducir la mente humana a procesos algorítmicos y el cerebro al software. Los ingenieros de IBM para la informática cognitiva en la educación, por ejemplo, creen que sus desarrollos técnicos inspirarán nuevas comprensiones de la cognición humana.

Será esencial un enfoque científico social de estas teorías computacionales del aprendizaje, ya que buscamos comprender mejor cómo una población de sistemas no humanos está siendo capacitada para aprender de la experiencia y, de ese modo, aprender a interactuar con los procesos de aprendizaje humano. En este sentido, los modelos de aprendizaje que están codificados en sistemas de aprendizaje automático pueden tener consecuencias sociales significativas. Necesitan ser examinados tan de cerca como los estudios sociológicos previos han examinado la experiencia de las “ciencias psicológicas” en las expresiones contemporáneas de autoridad y gestión sobre los seres humanos.

 

 

 

 

 

Las implicaciones sociales del aprendizaje automático se pueden abordar de dos maneras que requieren un examen educativo adicional. El primero se refiere a cómo la psicología del comportamiento se ha convertido en una fuente de inspiración para los diseñadores de plataformas de redes sociales, y cómo las plataformas de medios sociales están asumiendo un rol pedagógico distintivo.

La mayoría de las plataformas modernas de medios sociales se basan en la ciencia del cambio de comportamiento o en variantes relacionadas de la economía del comportamiento. Utilizan datos exhaustivos sobre los usuarios para generar recomendaciones y sugerencias que pueden dar forma a las experiencias posteriores de los usuarios. Los procesos de aprendizaje automático se utilizan para extraer datos de usuarios sobre patrones de comportamiento, preferencias y sentimientos, comparar esos datos y resultados con vastas bases de datos de actividades de otros usuarios, y luego filtrar, recomendar o sugerir lo que el usuario ve o experimenta en la plataforma.

Desde luego, los procesos de análisis de datos basados ​​en el aprendizaje automático se vuelven controvertidos tras las noticias sobre perfiles psicológicos y microtargeting a través de las redes sociales durante las elecciones, descritas como “manipulación de la opinión pública” y “propaganda computacional”. El campo de la educación debe participar este debate porque el aprendizaje automático llevado a cabo en las redes sociales desempeña el papel de una especie de “pedagogía pública”, es decir, las lecciones aprendidas fuera de las instituciones educativas formales por cultura popular, instituciones informales, espacios públicos, discursos culturales dominantes, y tanto el medios tradicionales y sociales.

Sin embargo, las pedagogías públicas de las redes sociales son importantes no solo porque están guiadas por el aprendizaje automático. También están profundamente informados por la psicología, y específicamente por la psicología conductual. Las ciencias psicológicas del comportamiento están hoy profundamente involucradas en la definición de la naturaleza de los comportamientos humanos a través de sus explicaciones disciplinarias, y en informar las aspiraciones comerciales y gubernamentales estratégicas.

 

 

 

 

 

En Neuroliberalismo de Mark Whitehead y sus coautores sugieren que el software de big data se considera una ‘edad de oro’ para la ciencia del comportamiento, ya que los datos se usarán no solo para reflejar el comportamiento del usuario sino también para determinarlo. En el núcleo de las redes sociales y la conexión de la ciencia del comportamiento están las ideas psicológicas de que la atención de las personas puede “engancharse” a través de simples trucos psicológicos, y que sus comportamientos posteriores y hábitos persistentes pueden ser “activados” a través de la “informática persuasiva” y el comportamiento diseño.’

Después del post “Paradigmas educativos ….Hemos realizado este trabajo con el objetivo de conocer sobre los paradigmas de la investigación educativa como son el positivismo, interpretativo, sociocrítico sus métodos y técnicas, conceptos y principios que son herramientas que nos ayudará para el presente y futuro como docentes y estudiantes. La investigación en tecnología educativa está
forzosamente relacionada con lo que se desarrolla en todas aquellas ciencias y disciplinas en las que se fundamenta, por ello su evolución ha seguido los mismos caminos que la investigación didáctica en general y también ha contemplado la polémica entre los paradigmas positivistas, imperativos socio críticos…

SUJETO OBJETO

 

 

Desde la perspectiva cualitativa la investigación educativa pretende la interpretación de los fenómenos, admitiendo desde su planteamiento fenomenológico que admite diversas
interpretaciones. Muchas veces hay una interrelación entre el investigador y los objetos de investigación, pero las observaciones y mediciones que se realiza se consideran válidas mientras constituyan representaciones auténticas de alguna realidad. Tener paradigmas y pensar que cada uno corresponda a un concepción de construcción de conocimientos, una imitante impuesta por una realidad extrapolada desde un conocimiento acumulado que no llega a una profundidad que subraye en lo visible la realidad, cada uno de los paradigmas guarda su sentido pero a la vez, uno tiene razón de ser función del otro. Términos de paradigmas se puede encontrar hoy en cientos textos científicos, en artículos de los más variados contextos, por lo general su empleo viene del sentido que se ha generalizado a partir de la obra de Kuhn.

“La estructura de las revoluciones científicas”. No existe aún una primera teoría unificadora de la educación que nos permita analizar y solucionar la globabilidad y la complejidad de los problemas de la educación. Peor los problemas existen y es posible asumir una de dos posiciones

Esta trilogía paradigmática, conformada por el paradigma cientificista, el paradigma hermético y el paradigma crítico han originado una ruptura epistemológica con un subsecuente proliferación de diferentes estudios, enfoques, teorías y prácticas dentro de la esfera de la investigación educativa, tratando de legitimar desde cada uno de estos paradigmas una propuesta emergente que sirva de fundamento para orientar la acción educativa y el proceso de enseñanza-aprendizaje.

 

 

 

Si en el primer post hablamos de paradigmas, ahora lo haremos de “investigación“…Mientras que la etnografía general se basa en datos cualitativos, no quiere decir que los enfoques cuantitativos no deben ser empleados en el proceso de investigación. La combinación de los dos cables a un “enfoque de métodos mixtos”, que puede adoptar diversas formas: la recolección y análisis de datos pueden ser separados o dirigirse juntos, y cada uno de ellos se pueden utilizar en el servicio de la otra. Por supuesto, esto no es nuevo en los círculos académicos y la etnografía corporativa, pero parece que hay un renovado interés últimamente en este tema, ya que sin duda alguna los aspectos INFORMALES, están superando los formales.

Uno de los impulsores de este renovado interés es la enorme cantidad de información generada por las personas, las cosas, el espacio y sus interacciones – lo que algunos han llamado ” Big Data “: Los grandes conjuntos de datos creados por la actividad de las personas en los dispositivos digitales de hecho ha dado lugar a un aumento de las “huellas” de aplicaciones para teléfonos inteligentes, programas de ordenador y sensores ambientales (INTELIGENCIA ARTIFICIAL) Dicha información se espera actualmente para transformar la forma en que estudiamos el comportamiento y la cultura humana, con, como de costumbre, las esperanzas utópicas, distópicas y miedos …, llegando a entender estos datos como METADATOS….

Encontramos términos que admiten conceptos con los que muchos estaríamos de acuerdo :  Etno-minería, como su nombre indica, combina técnicas de la etnografía y la minería de datos. En concreto, la integración de técnicas de minería de datos etnográficos y de etno-minera incluye una mezcla de sus puntos de vista (en lo interpretaciones son válidas e interesantes, y cómo deben ser caracterizados) y sus procesos (lo que selecciones y transformaciones se aplican a los datos para encontrar y validar las interpretaciones).

Por medio de estas investigaciones, esta integración tiene por objeto poner de relieve nuevas formas de entender y potencialmente inspirar el diseño de la investigación la interacción persona-ordenador… 

La misma librería JMSL incluye tecnología de redes neuronales que complementa las ya existentes funciones de minería de datos, modelado y predicción, disponibles en toda la familia de productos IMSL. Las clases para la predicción basada en redes neuronales ofrecen un extraordinario potencial , gracias a su capacidad de crear modelos predictivos a partir de datos históricos y de “aprender” para optimizar el modelo a medida que se obtiene más información, lo podríamos llamar “RETROALIMENTACIÓN CONTINUADA Y MULTICANAL”

 

Los diseñadores de medios sociales de Silicon Valley saben cómo moldear el comportamiento a través del diseño técnico ya que, según Jacob Weisberg, “las disciplinas que lo preparan para esa carrera son la arquitectura de software, la psicología aplicada y la economía del comportamiento, utilizando lo que sabemos sobre las vulnerabilidades humanas para “Weisberg destaca cuántos de los ingenieros de Silicon Valley son graduados del Laboratorio de Computación Persuasiva de la Universidad de Stanford, que utiliza ‘métodos de psicología experimental para demostrar que las computadoras pueden cambiar los pensamientos y comportamientos de las personas de maneras predecibles’.

Las recompensas conductuales -o el aprendizaje reforzado- son importantes en el campo de la informática persuasiva, ya que obligan a las personas a seguir volviendo a la plataforma. Al hacerlo, generan más datos sobre ellos mismos, sus preferencias y comportamientos, que luego pueden procesarse para que la experiencia de la plataforma sea más gratificante. Estas técnicas son, a su vez, interesantes para los científicos que cambian el comportamiento y los que formulan las políticas, ya que ofrecen formas de desencadenar ciertos comportamientos o “empujar” a las personas a tomar decisiones dentro de la “arquitectura de elección” que ofrece el entorno.

 

 

 

 

 

Karen Yeung describe la aplicación de datos psicológicos sobre las personas para predecir, orientar y cambiar sus emociones y comportamientos como hiperimpulso. Las técnicas de hiperimpulso utilizan técnicas de computación persuasivas para enganchar a los usuarios y de la ciencia del cambio de comportamiento para desencadenar acciones particulares y respuestas.

“Estas técnicas se utilizan para dar forma al contexto de elección de información en el que se produce la toma de decisiones individuales”, argumenta Yeung, “con el objetivo de canalizar la atención y la toma de decisiones en las direcciones preferidas por el” arquitecto de elección “.

A través del diseño de estrategias de empuje psicológico, las organizaciones de medios digitales están comenzando a jugar un papel poderoso en la configuración y el gobierno de comportamientos y sentimientos.

Algunos ingenieros de Silicon Valley han empezado a preocuparse por las consecuencias psicológicas y neurológicas negativas de los “trucos psicológicos” de los medios sociales en la atención y la cognición de las personas. Silicon Valley se ha convertido en un “imperio global de modificación del comportamiento”, afirma Jaron Lanier. Del mismo modo, a los críticos de AI les preocupa que los algoritmos cada vez más sofisticados inciten y engatusen a las personas para que actúen de la forma que hayan considerado más apropiada -o óptimamente gratificante- por sus algoritmos subyacentes, con importantes implicaciones sociales potenciales.

Lo que sustenta todo esto es una visión conductista particular del aprendizaje que sostiene que las conductas de las personas pueden ser manipuladas y condicionadas a través del diseño de arquitecturas digitales. Audrey Watters ha sugerido que el conductismo ya está resurgiendo en el campo de la tecnología digital, a través de aplicaciones y plataformas que enfatizan el “refuerzo automático continuo” de los “comportamientos correctos” definidos por los ingenieros de software. Tanto en las pedagogías públicas de las redes sociales como en las pedagogías del aula con tecnología mejorada, se está poniendo en práctica un reinicio digital de la teoría del aprendizaje conductista.

Los impulsos conductuales a través del aprendizaje automático algorítmico se están convirtiendo en parte integral de las pedagogías de hipernubo público de las redes sociales. Es parte de la arquitectura instruccional del entorno digital que las personas habitan en su vida cotidiana, buscando constantemente enganchar, desencadenar y empujar a las personas hacia rutinas particulares persistentes y condicionar hábitos de conducta “correctos” que han sido definidos por los diseñadores de plataforma como preferibles en de alguna manera. La investigación educativa debe comprometerse estrechamente con las pedagogías públicas de hipernubración que se producen cuando las ciencias del comportamiento se combinan con el conductismo del aprendizaje automático algorítmico, y observa más de cerca las teorías subyacentes del conocimiento conductual en las que se basan y las conductas que están diseñadas para condicionar .

 

 

 

 

El segundo gran conjunto de implicaciones del aprendizaje automático se relaciona con la adopción de tecnologías basadas en datos dentro de la educación específicamente. Aunque el concepto de ‘aprendizaje personalizado’ tiene muchas caras diferentes, su encuadre contemporáneo dominante es a través de la lógica del análisis de big data. El aprendizaje personalizado se ha convertido en una poderosa idea para el sector de la tecnología ed, que es cada vez más influyente en la visión de la reforma educativa a gran escala a través de sus plataformas adaptativas.

Las plataformas de aprendizaje personalizadas generalmente consisten en una combinación de minería de datos, análisis de aprendizaje y software adaptativo. Los datos de los estudiantes son recopilados por dichos sistemas, luego se comparan con un modelo ideal de rendimiento estudiantil, para generar predicciones de posibles avances y resultados futuros, o se adaptan de manera receptiva para satisfacer las necesidades individuales de los estudiantes según lo considere apropiado el análisis.

En resumen, el aprendizaje personalizado depende de que los algoritmos autodidacticos de aprendizaje automático se pongan a trabajar para extraer, extraer y procesar los datos de los estudiantes de forma automatizada.

El discurso que rodea el aprendizaje personalizado lo enmarca como un nuevo modo de educación “progresiva”, con ecos conscientes de las pedagogías centradas en el alumno de John Dewey y los modelos asociados de aprendizaje basado en proyectos, experienciales y basados ​​en la investigación. El trabajo de Dewey ha demostrado ser una de las teorías filosóficas más influyentes y duraderas en la educación, a menudo utilizado en conjunto con relatos más abiertamente psicológicos del rol que juega la experiencia en el aprendizaje.

Con su combinación de análisis de big data y aprendizaje automático con progresivismo, podríamos llamar a la teoría del aprendizaje detrás de la personalización ‘Big Dewey’.

Entramos en una época de fronteras porosas entre la inteligencia humana y la inteligencia artificial (con razón llamamos “inteligencia artificial”). Necesitamos una prueba de Turing para decidir si una entidad es humano o no. Si solicitamos algo en línea, como comprar, aprender, un billete de avion…es posible que tengamos que demostrar, que no somos un BOT, una máquina. Y, cuando se trata del desafío que enfrenta la educación – la forma de proporcionar una educación de calidad para un gran número de estudiantes a un costo reducido – la tentación de cruzar la frontera hombre-máquina y dejar que las máquinas (es decir, algoritmos) hagan el trabajo pesado es casi irresistible, es más, ya no es una tentación, realmente es una necesidad.

Las máquinas, las TIC, la internet… proporcionan información más rápido de lo que nadie podría haber imaginado, pero el aprendizaje es dar sentido a la información y el descubrimiento de su significado, el verdadero objetivo de la educación, y con las máquinas aun no lo hemos conseguido, aunque algunos estemos en ello..

Los aprendices, dentro de la educación formal de manera sistematizada, y en la informal, de manera generalizada… pueden beneficiarse de la orientación de los algoritmos que apuntan al aprendiz hacia los sistemas de tutoría en línea, por ejemplo, que están demostrando tan eficaz como tutores humanos.

Los alumnos pueden aprender métodos y enfoques de los tutores en línea para luego ayudarles a lo largo de su propio camino de aprendizaje. Sus propios itinerarios de aprendizaje. Ese es el punto: los estudiantes adultos (es decir los estudiantes en edad universitaria) aprenden mejor cuando ellos mismos crean rutas de aprendizaje; el tutor en línea puede proporcionar ayuda, pero no puede ser la totalidad de la experiencia de aprendizaje.

 

 

 

 

 

Las tecnologías de aprendizaje adaptativas, análisis de aprendizaje en línea que se utilizan para crear rutas de aprendizaje para los alumnos en función de su rendimiento, pueden ayudar a algunos estudiantes, pero no pueden, en muchos casos, proporcionar la oportunidad para el conocimiento profundo y duradero sobre cómo aprender.

La máquina, en las tecnologías de aprendizaje adaptativo, se ha hecho cargo: el algoritmo es la creación de itinerarios de aprendizaje, y no lo que haga el alumno. Este enfoque podría entenderse como un intento de “aprendizaje semi-pasivo.” Esto no quiere decir que no haya usos de las tecnologías de aprendizaje adaptativo, pero es que decir que este enfoque sólo puede ser un elemento de un camino de aprendizaje humano impulsado .

Sólo un ser humano realmente puede personalizar todo lo que él o ella lo hace. Es la era de la personalización, pero eso sólo significa ayudar a cada uno de nosotros para pasar menos tiempo en los detalles y más tiempo en las actividades humanas importantes, como la imaginación, la creatividad, el descubrimiento, la integración, la intuición, ..

La personalización por las tecnologías digitales sólo libera los seres humanos para personalizar mejor nuestra vida (es decir, encontrar nuestras propias maneras), lo demás deben hacerlo las tecnologías y e aqui mi insistencia en conseguir un ALGORITMO, el cual pueda facilitar la recepcion de DATOS, pasarlos por un proceso de ANALISIS Y CRITICA, lo que los transformara en APRENDIZAJES. Si todo el proceso esta evaluado, necesitaremos el algoritmo para que nos realice la retroalimentación. Lo cual hara que todo nuestro proceso de aprendizaje este ayudado por este proceso tecnológico.

El mismo Pierson dice “Las evaluaciones se incrustan en las actividades de contenido y aprendizaje por lo que la instrucción y el aprendizaje no tiene que ser interrumpidos para determinar las áreas de progreso y desafío continuo. Mientras tanto, los algoritmos y las progresiones de aprendizaje integrados en el sistema van a ajustar en respuesta a las actividades de aprendizaje relacionadas del estudiante para permanecer en sintonía con sus ecosistemas de aprendizaje. Esta información también se proporciona al educador con opciones y recursos adicionales en tiempo real ya que el educador puede utilizarlo para apoyar al estudiante y su aprendizaje”

Como esta nueva tecnología comienza a tomar forma el diseño de otra sociedad ya que SUS MIMBRES son completamentes nuevos a no como herramientas, metodologías…(innovacioned), sino un cambio “radical” en la concepcion de la misma sociedad.

Algunos pensaran que en parte estamos en el APRENDIZAJE ADAPTATIVO, ya que nos basmaos en los DATOS, pues no, lo hacemos asi como una IDEA COMPLETAMENTE NUEVA, es decir, utilizamos DATOS, si, pero dentro del proceso personalizado de aprendizaje, por lo tanto se trata de algo completamente diferente.

Estos algoritmos de personalización (Rauch, Andrelczyk y Kusiak, 2007), recopilar información del usuario y analizan los datos para que pueda ser transmitida al usuario en momentos específicos (Venugopal, Srinivasa y Patnaik, 2009). Por ejemplo, cuando estoy terminado de ver un video en YouTube o una película en digitaly he aquí que presenté con una lista de recomendaciones sobre los géneros que acabo consumidas. Esta idea funciona de forma similar con algoritmos de personalización que sería capaz de recomendar cursos o avenidas de aprendizaje basado en el conocimiento previo alumnos o cursos completado.

Es nuestra responsabilidad en esta sociedad….

          a-Aplicar las técnicas de minería de datos, aprendizaje automático y reconocimiento de patrones para los  conjuntos de datos estructurados y no estructurados.

          b-Diseño, desarrollo y prueba de algoritmos de aprendizaje y modelos de datos sobre el comportamiento humano para construir instrumentos de evaluación cognitiv     

           c-Construir algoritmos personalizados para un motor de recomendación vía de desarrollo

           d-Los modelos de diseño para el desarrollo de aplicaciones nuevo jueg

            e-Contribuir a la mejora de nuestros algoritmos.

Tambien nos podemos hacer una serie de preguntas que no vamos a obviar….y que nos ayudaran a entender mejor el por qué de las cosas…

¿El aprendizaje PERSONALIZADO tiene suficiente mejoría en el aprendizaje del aprendiz para justificar los costos de un sistema de aprendizaje más complejo?
¿Cómo podemos aprovechar algoritmos de aprendizaje automático “big data” y otros.. para la construcción de sistemas de aprendizaje personalizadas más eficientes y rentables?
¿Cómo pueden las ideas y resultados de la investigación de las ciencias cognitivas, utilizarlos para mejorar la eficacia de los sistemas de aprendizaje personalizados?.

Estos sistemas pueden aprender, pero no son las mismas formas de aprendizaje conocidas por la mayoría de los investigadores en educación. A medida que avanza la innovación técnica, más y más aprendizaje va a suceder dentro de las computadoras. Así como los educadores esperan cultivar las mentes jóvenes para que se conviertan en aprendices independientes de por vida, el sector tecnológico está impulsando los procesos de aprendizaje para crear agentes de aprendizaje automático no humanos cada vez más automatizados para compartir el mundo con los humanos. ¿Qué quiere decir que los investigadores educativos no deberían buscar desarrollar su experiencia en la comprensión del aprendizaje automático no humano?

Las teorías del aprendizaje no humano también son cada vez más influyentes, ya que los procesos de aprendizaje automático sustentan tanto las pedagogías de hipernubo público de las redes sociales como las plataformas de aprendizaje personalizadas que he delineado. Las nuevas pedagogías conductistas públicas de hipernudios, inspiradas tanto por la ciencia conductual como por el diseño conductual, están ocurriendo a gran escala entre diferentes públicos, a menudo de acuerdo con objetivos políticos y comerciales, pero la investigación educativa es extrañamente silenciosa en esta área.

 

 

 

 

 

Aunque mucho se ha escrito sobre big data y personalización, también debemos explorar cómo la filosofía del sector tecnológico podría afectar e influir en las escuelas, los docentes y los estudiantes a medida que las plataformas de aprendizaje adaptativo escapan del laboratorio de pruebas beta y comienzan a colonizar la educación estatal. Los estudios futuros de aprendizaje personalizado podrían examinar las formas de aprendizaje automático de máquina que se produce en la computadora, así como los efectos educativos y los resultados producidos en el aula.

 

En la educación – especialmente en la tecnología de mejora de la educación – se nota el final de una época y el principio de otra, la propia OBSOLESCENCIA nos lo indica, lo que es más difícil de ver en la vida cotidiana de los espacios cerrados y obligatorios educativos..
Los asesores de educación y altavoces normalmente nos preguntamos “si un estudiante de hace 100 años llegó a nuestras aulas, se sentiría como en casa”. Obviamente, esta es una afirmación absurda (incluso si pasamos por alto los retos de viajes en el tiempo). Los asesores de educación y algunos “voceros” normalmente declaran “si, un estudiante de hace 100 años llegó a nuestras aulas, se sentiría como en casa”.
 eyes-in-Binary
Por tanto pronto el registro y análisis de datos semánticos podrá convertirse en un nuevo lenguaje común para las ciencias humanas y contribuir a su renovación y el desarrollo futuro.
Todo el mundo será capaz de clasificar los datos como quieran. Cualquier disciplina, ninguna cultura, ninguna teoría será capaz de clasificar los datos a su manera, para permitir la diversidad, utilizando un único metalenguaje, para garantizar la interoperabilidad. (EXCELENCIA PERSONALIZADA AUTOMATIZADA,) por medio de una mezcla de inteligencia artificial y algorítmica.
“Vamos ya a aprender durante toda nuestra vida y en cualquier momento, el qué, cuándo, cómo y dónde (eligiendo con quién), ya han dejado de ser, una obligación para pasar a seer algo usual en nuestra vida, las TIC, Internet, la Inteligencia Artificial, “han dinamitado” todo ese planteamiento que no sabíamos ni podíamos superar, ahora el estaticismo de aprender de manera controlada, uniforme, el “ocupar un espacio y un tiempo”, han dejado ya de existir, por lo cuál, vivimos aprendiendo, aprendemos en cada momento de nuestra vida, por eso, cualquier planteamiento que hagamos en este impás, debe acomodarse a esta nueva manera de entender la vida que ya está aquí, pero estamos “suscribiendo” las maneras de llegar a ello”
Hay muchas maneras de personalizar el aprendizaje. Sin embargo, al igual que los términos de estilos y la motivación del aprendizaje, la personalización es otro término mal definido. Para ser más específicos, se describe la personalización aquí con cinco niveles con creciente sofistificación, cada nivel que describe una estrategia de personalización específica. Desde los más simples a las más complejas, las cinco estrategias son:
(a) nombre reconocido;
(B) describe a sí mismo;
(C) segmentados;
(D) cognitivo-basada; y
(e) de base integral de la persona.
A lo mejor el “sueño de algunos de una educación autónoma y libre (solo realizable mediado con la Machine learning, AI, internet, TIC), no es tal sueño y es una realidad.

 

juandon

 

Anuncios