Juan Domingo Farnós

Diseñar una arquitectura de un algoritmo que relacione la actuación del cerebro humano con la educación disruptiva es un desafío complejo que requiere una combinación de conocimientos de neurociencia, psicología, educación y tecnología. Sin embargo, aquí hay una posible arquitectura que podría ser utilizada como punto de partida:

  1. Adquisición de datos: La primera etapa consiste en adquirir datos sobre la actuación del cerebro humano, como imágenes de resonancia magnética funcional (fMRI) y señales electrónicas registradas por electroencefalografía (EEG). Estos datos se utilizarán para entender cómo el cerebro procesa y retiene la información durante el proceso de aprendizaje.
  2. Procesamiento de datos: En esta etapa, se limpian, se combinan y se normalizan los datos para su posterior uso en el modelo.
  3. Análisis de datos: Aquí se utilizan técnicas de aprendizaje automático para analizar los datos y buscar patrones y relaciones entre la actuación del cerebro y la educación disruptiva.
  4. Desarrollo de modelo: En esta etapa, se desarrolla un modelo de aprendizaje profundo que tenga en cuenta los patrones identificados en el análisis de datos para predecir cómo el cerebro responderá a diferentes métodos de aprendizaje disruptivos.
  5. Evaluación y ajuste: Finalmente, se evalúa el modelo y se realizan ajustes para mejorar su precisión y rendimiento.

Esta arquitectura es solo una posible solución y podría ser modificada o mejorada en función de los resultados y las necesidades específicas del problema. Además, es importante tener en cuenta que este tipo de investigación requiere una colaboración interdisciplinaria y un enfoque ético para garantizar la privacidad y seguridad de los datos y para asegurarse de que la tecnología se utilice de manera responsable.

Un modelo de aprendizaje profundo diseñado para predecir cómo el cerebro responderá a diferentes métodos de enseñanza disruptivos debe tener en cuenta los patrones identificados en el análisis de datos. Esto puede lograrse mediante la utilización de redes neuronales profundas para analizar los metadatos y aprender patrones y relaciones en los datos. 

La IA también puede ayudar a generar una personalización por medio de sus interacciones, así como proporcionar un análisis detallado de las tendencias emergentes y las implicancias para la enseñanza y el aprendizaje.

Además, se deben establecer métodos de diagnóstico psicopedagógico para determinar si los desajustes conductuales corresponden a la edad del alumno y se deben considerar factores como el aprendizaje permanente, los métodos cuantitativos y la edad adulta emergente.

Hay muchas herramientas disponibles para desarrollar un modelo de aprendizaje profundo que tenga en cuenta los patrones identificados en el análisis de datos para predecir cómo el cerebro responderá a diferentes métodos de aprendizaje disruptivos. Aquí hay algunas de las herramientas más comunes que se pueden utilizar:

  1. TensorFlow: TensorFlow es una biblioteca de código abierto de aprendizaje automático desarrollada por Google. Es una de las herramientas más populares para desarrollar modelos de aprendizaje profundo y es compatible con una amplia variedad de plataformas y sistemas operativos.
  2. PyTorch: PyTorch es una biblioteca de código abierto de aprendizaje automático desarrollada por Facebook. Es fácil de usar y permite a los desarrolladores crear y entrenar modelos de aprendizaje profundo de manera rápida y sencilla.
  3. Keras: Keras es una biblioteca de aprendizaje profundo de alto nivel que se ejecuta sobre TensorFlow. Es fácil de usar y permite a los desarrolladores crear y entrenar modelos de aprendizaje profundo de manera eficiente.
  4. MATLAB: MATLAB es un software de cálculo numérico y visualización que también ofrece una amplia gama de herramientas de aprendizaje automático. Puede utilizarse para desarrollar modelos de aprendizaje profundo y también es posible utilizar modelos pre-entrenados de TensorFlow y PyTorch en MATLAB.

Estas son solo algunas de las herramientas disponibles para desarrollar un modelo de aprendizaje profundo. La elección de la herramienta adecuada dependerá de los requisitos específicos del problema y de la experiencia y preferencias personales del desarrollador.

Hay muchos autores y artículos que han trabajado en el tema de relacionar la actuación del cerebro humano con la educación disruptiva y el aprendizaje profundo. Aquí hay algunos autores y artículos que pueden ser de interés:

  1. John Gabrieli, Neuroimaging of Human Brain Function and Plasticity in Educationally Relevant Domains
  2. Kiran R. S. et al., «Brain functional connectivity during learning and its prediction using machine learning» en NeuroImage.
  3. Victoria L. Tilson, et al., «Neuroimaging and educational interventions: An emerging field» en Developmental Cognitive Neuroscience.
  4. F. Xavier Castellanos et al., «Large-scale brain systems in development and beyond» en Trends in Cognitive Sciences.

Ejemplo de código limpio en Python que implementa una red neuronal feedforward para realizar la clasificación binaria de imágenes: (captura de pantalla)

Este ejemplo ilustra algunos de los conceptos clave de la programación de redes neuronales y el aprendizaje profundo, como la definición de la estructura de la red neuronal, la compilación del modelo, el preprocesamiento de los datos de entrenamiento, el entrenamiento del modelo y la evaluación de su desempeño. Además, el uso de comentarios en el código y la indentación adecuada hacen que el código sea fácil de entender y mantener.

Hay muchos patrones de arquitectura que se pueden implementar en el desarrollo de modelos de aprendizaje profundo, aquí hay algunos de los más comunes:

  1. Red neuronal feedforward: Es una de las arquitecturas más simples, donde las unidades de entrada son conectadas directamente con las unidades ocultas y, a su vez, con las unidades de salida.
  2. Red neuronal recurrente (RNN): Permite procesar secuencias de entrada, utilizando información previa para predecir la salida en la siguiente iteración.
  3. Convolutional Neural Network (CNN): Diseñada específicamente para procesar imágenes, utiliza filtros para extraer características relevantes de los datos de entrada.
  4. Autoencoder: Una red neuronal feedforward que se utiliza para aprender una representación comprimida de los datos de entrada y reconstruirlos a partir de esta representación.
  5. Generative Adversarial Networks (GANs): Un par de redes neuronales que trabajan juntas para generar datos sintéticos que parecen reales y para discriminar entre datos reales y sintéticos.

El cerebro humano y la educación disruptiva son dos conceptos amplios y complejos, por lo que no existe un único patrón que pueda describir la relación entre ellos. Sin embargo, se pueden identificar algunos patrones que se relacionan con la aplicación del aprendizaje profundo a la investigación sobre la relación entre el cerebro humano y la educación disruptiva:

  1. Identificación de patrones de actividad cerebral: El aprendizaje profundo puede ser utilizado para analizar patrones de actividad cerebral mientras se realiza una tarea educativa, con el objetivo de identificar cómo diferentes métodos de enseñanza afectan la actividad cerebral.
  2. Predicción de la respuesta cerebral a la educación disruptiva: El aprendizaje profundo también puede ser utilizado para predecir cómo el cerebro responderá a diferentes métodos de enseñanza disruptivos. Esto podría ayudar a mejorar la efectividad de la educación disruptiva al permitir personalizar los métodos de enseñanza a la respuesta individual de cada cerebro.
  3. Modelado de la interacción cerebro-educación: Una de las aplicaciones más ambiciosas del aprendizaje profundo en este contexto es el modelado de la interacción completa entre el cerebro y la educación. Esto podría incluir la identificación de los mecanismos subyacentes a la respuesta cerebral a la educación y la predicción de cómo cambian estos mecanismos con la experiencia.

Estos son solo algunos ejemplos de patrones que se pueden identificar en la investigación sobre la relación entre el cerebro humano y la educación disruptiva. La investigación en este campo es interdisciplinaria y requiere la colaboración de expertos en neurociencia, educación y aprendizaje profundo.

Necesitamos una apertura del conocimiento hackeandolo a través de la mente humana y de algoritmos siempre des de posiciones OPEN y a través de la busqueda y del uso de competencias tansmedia por medio de investigaciones abiertas y distribuidas..

Con ello estamos dentro de un “pensamiento calculador”que nos conduce hacia un “utilitarismo” el cual lo conseguimos mediante el análisis producido por algoritmos que nos llevan hacia DATOS bien, estandarizados, bien personalizados, en diferentes terrenos: educación, salud, economía…

Esta realidad múltiple y diversa (inclusiva y disruptiva) no nos llevara a ningun punto en común (convergente), si no todo lo contrario, divergente y por tanto completamente inclusivo.

El pensamiento computacional es un pensamiento humano con la ayuda computacional que nos puede llevar por diferentes camino, bien previstos o no. En principio lo suelen estar, pero debemos estar preparados para que la “maquina” adapte las diferentes interfaces de los usuarios-aprendices, su experiencia, así como el contenido y nos ayude a vivir dentro de esta sociedad inteligente (obviamente con esto podemos entenderla, sin esto es difícil).

Las tendencias actuales en aprendizaje automático, análisis de datos, aprendizaje profundo e inteligencia artificial, sin embargo, complican las cuentas psicológicas centradas en el ser humano sobre el aprendizaje. Las teorías de aprendizaje más influyentes de hoy son las que se aplican a cómo las computadoras “aprenden” de la “experiencia”, cómo los algoritmos están “entrenados” en selecciones de datos y cómo los ingenieros “enseñan” a sus máquinas a “comportarse” a través de “instrucciones” específicas.

Necesitamos planteamientos metodológicos, pero también y especialmente, estructurales, como señalamos en nuestras investigaciones para no solo innovar en la educación, si no para transformarla.( ejemplo:…)

“Las personas usan historias para organizar, expresar y recordar sus experiencias. Esta idea es el fundamento de un método desarrollado por Roger Schank y su equipo para diseñar cursos y materiales educativos que garanticen un aprendizaje mediante la práctica (learning by doing). ” Roger Schank

Estructuras de aprendizaje con una arquitectura eficaz:

  • Un escenario: Situación profesional real y de negocio, simulada. Motivador y rico en contenidos, que proporciona un contexto coherente para el aprendizaje individual y colectivo.
  • Una secuencia planificada de tareas: Encuadradas en ese escenario, que permiten al participante ejercitar los comportamientos clave y, de esta manera, aprenderlos (práctica, entrenamiento).
  • Una colección estructurada de recursos para el aprendizaje: Incluyen procedimientos de trabajo, modelos a utilizar, herramientas, información relevante para la tarea, etc.
  • Acceso a un tutor: online o presencial, para obtener ayuda en el momento de aprendizaje preciso (feed-back).
  • Este engranaje se corresponde a las característivcas del E-learning-Inclusivo, diseñado por mi mismo, (Juan Domingo Farnos Miró) y que se recoge en estas bases http://www.scribd.com/doc/33025056/Bases-Para-e-Learning-Inclusivo , pero con una trascendencia mayor, ya que quiere influir en todo el diseño de lo que entendemos por educación y formación e influir en decisiones político-educativas, sociales y tecnológicas, adaptándose de manera permanente, transparente y con confianza..a esta sociedad dinámica que gracias a las TIC, evolucionará a un riitmo muy diferente a lo que venía haciendo hasta ahora.

El uso de los miembros del equipo y los compañeros (peer to peer) es una gran manera de articular y hacer comentarios sobre las decisiones de diseño.

Aunque las comprobaciones de calidad por homólogos deben estar bien facilitadas para evitar posturas subjetivas , pueden ser un método ideal para explicar la comprensión de los problemas subyacentes, hechos y datos; el dominio del problema; las necesidades de los usuarios finales; y el razonamiento detrás de las decisiones que ha tomado.

Estas reuniones también pueden ser una manera de dejar que sus compañeros discuten los problemas y patrones similares se encontraron y resolvieron en otros proyectos.

Si aprendemos métodos para estudiar y moldear el pensamiento, la memoria y la acción tanto para los humanos como de las computadoras, la educación también te capacita para diseñar la interacción entre las personas y la tecnología.

En Inteligencia Artificial (AI) exploramos el pensamiento informático. En neurociencia, observamos lo que está sucediendo en el cerebro. Cuando conectamos lo que nos sucede con lo que sucede en una computadora, el pensamiento se convierte en un híbrido en el que nuestro pensamiento excede los límites entre psicología, cultura, biología y tecnología.

En mi aprendizaje basado en la actividad, sugiero que poco a poco los alumnos deben hacerse cargo de la elección de sus actividades, a desarrollar su capacidad de convertirse en autodidactas. También cómo podría ser en capas en la parte superior de experiencias regulares de aprendizaje. Creo que esto va a ser un área interesante para el desarrollo de experiencias de aprendizaje que son escalables, pero realmente desarrollan los estudiantes para los tiempos venideros.

Con todo ello la personalización por las tecnologías digitales (algoritmos) sólo libera los seres humanos para personalizar mejor nuestra vida (es decir, encontrar nuestras propias maneras), lo demás deben hacerlo las tecnologías y es aquí mi insistencia en conseguir un ALGORITMO, el cual pueda facilitar la recepción de DATOS, pasarlos por un proceso de ANÁLISIS Y CRITICA, lo que los transformara en APRENDIZAJES. Si todo el proceso esta evaluado, necesitaremos el algoritmo para que nos realice la retroalimentación. Lo cual hará que todo nuestro proceso de aprendizaje este ayudado por este proceso tecnológico.

En los últimos tiempos se están dando son corrientes referentes al Big data y a a los Algoritmos (Inteligencia Artificial) ((Pierre Levy)), los que predicen que significaran la “visualización” de una época con rayos y truenos, que nos tendrá vigilados permanentemente.

Estamos hoy en la clase difusa del pensamiento calculador y comparaciones cuantitativas insta a que el utilitarismo, tal razonamiento no se basa en el trabajo de visibilidad a hacer. Más bien, eso depende de algoritmos de análisis, qui a su vez depende de la presa de los algoritmos silenciosos –los que convierten en silencio nuestro comportamiento en una avalancha de datos. (son la metáfora de los presos alrededor que se pusieron alrededor de una torre de vigilanca para ser visualizados, hasta que estos alcanzaron la manera de evitarlo( estos eran los algoritmos)…., lo que nos conducirá a la resolución de problemas, entre otras cosas.

Para ello utilizaremos el pensamiento computacional como un concepto de resolución de problemas. Es un pensamiento especial que nos permite comprender un problema complejo y desarrollar posibles soluciones. Soluciones que pueden presentarse de forma que un ser humano, una computadora o ambos puedan entender. Pero el pensamiento computacional se puede describir desde una comprensión muy estrecha o muy amplia.

Si parece que el tener presente como base la creación de patrones para resolver problemas, no es menos cierto que la variedad de tareas y actividades actualizadas proporciona al estudiante la flexibilidad de elegir y repetir las tareas para aprender las técnicas a su propio ritmo. Esto le permite al alumno tener el control de todo el proceso de aprendizaje, es por este proceso estandarizado normalmente que se vicia y conduce a una inclusión, por lo que necesitamos algoritmos asistidos como garantía de elección, diversidad y por tanto, inclusión

Pero …

¿En qué parte de este proceso hay una oportunidad de mirar realmente fuera de nuestras paredes y ver qué está sucediendo en el mundo? Nuestras urgentes necesidades de aprendizaje no solo están ligadas a los datos finales sobre las prioridades de aprendizaje del pasado. A medida que el mundo cambia a un ritmo exponencial, ¿Quién está determinando lo que nuestros estudiantes necesitarán para prosperar en ese mundo?

“Estar dispuestos a interrumpir constantemente nuestra mentalidad individual y colectiva, si queremos llegar a un acuerdo con las interrupciones necesarias que deben ocurrir en nuestras propias organizaciones si realmente queremos librarnos del pensamiento de status quo que a menudo nos entierra en las prácticas del pasado.

Si como científicos de la cognición trabajamos en TI, una industria que actualmente tiene una gran necesidad de personas educadas que comprendan cómo las personas interactúan con la inteligencia artificial y los sistemas automatizados, como diseñadores de interacción, arquitectos de usabilidad, programadores, desarrolladores de sistemas, estrategias de poder o, después de algunos años, como administradores de proyectos.

Si aprendemos métodos para estudiar y moldear el pensamiento, la memoria y la acción tanto para los humanos como de las computadoras, la educación también te capacita para diseñar la interacción entre las personas y la tecnología.

En Inteligencia Artificial (AI) (((Donald Clark)))exploramos el pensamiento informático dentro de los procesos de aprendizaje .

En neurociencia, observamos lo que está sucediendo en el cerebro. Cuando conectamos lo que nos sucede con lo que sucede en una computadora, el pensamiento se convierte en un híbrido en el que nuestro pensamiento excede los límites entre psicología, cultura, biología y tecnología.

Se puede ir por un sistema híbrido, donde nos dividimos las funciones entre el ordenador y la intervención de las personas humanas sobre la base de lo que cada uno de nosotros hacemos bien, …

Tales sistemas podrían desarrollar no sólo el aprendizaje de habilidades, pero el meta-aprendizaje o de aprender a aprender. Profesores reales pueden desarrollar este y modificarlo (si bien es cierto y raro), y sin embargo, es probable que sea la mejor inversión. En mi aprendizaje basado en la actividad, le sugerí que poco a poco los alumnos deben hacerse cargo de la elección de sus actividades, a desarrollar su capacidad de convertirse en autodidactas. También le sugerí cómo podría ser en capas en la parte superior de experiencias regulares de aprendizaje. Creo que esto va a ser un área interesante para el desarrollo de experiencias de aprendizaje que son escalables, pero realmente desarrollan los estudiantes para los tiempos venideros.

Hay más: normas pedagógicas, modelos de contenido, modelos con alumnos, etc, pero finalmente estamos consiguiendo ser capaces de construir este tipo de sistemas, y debemos ser conscientes de cuáles son las posibilidades”.

Con todo ello la personalización por las tecnologías digitales (algoritmos) sólo libera los seres humanos para personalizar mejor nuestra vida (es decir, encontrar nuestras propias maneras), lo demás deben hacerlo las tecnologías y es aquí mi insistencia en conseguir un ALGORITMO, el cual pueda facilitar la recepción de DATOS, pasarlos por un proceso de ANÁLISIS Y CRITICA, lo que los transformara en APRENDIZAJES. Si todo el proceso esta evaluado, necesitaremos el algoritmo para que nos realice la retroalimentación. Lo cual hará que todo nuestro proceso de aprendizaje este ayudado por este proceso tecnológico.

En los ultimos tiempos se están dando son corrientes referentes al Big data y a a los Algoritmos (Inteligencia Artificial), los que predicen que significaran la “visualización” de una época con rayos y truenos, que nos tendrá vigilados permanentemente ” Un artículo del periodista holandés Dimitri Tokmetzis demostró el año pasado hasta qué punto esto puede ir en los datos de montaje de retratos compuestos de lo que somos. Google sabe lo que busca y puede inferir no sólo qué tipo de noticias que lees en un domingo por la mañana y qué tipo de películas prefieres un viernes, qué tipo de porno que probablemente nos gustaría mirar y dejarnos boquiabiertos en la noche del sábado , lo que ha hecho que los bares y restaurantes cierren”….

La propuesta de Bentham para una Máquina total de la visibilidad puede ser menos significativa a la tesis de los universos de datos emergentes que sus contribuciones a la moral del utilitarismo y su supuesto de que se puede medir nuestro bienestar.

Estamos hoy en la clase difusa del pensamiento calculador y comparaciones cuantitativas insta a que el utilitarismo, tal razonamiento no se basa en el trabajo de visibilidad a hacer. Más bien, eso depende de algoritmos de análisis, qui a su vez depende de la presa de los algoritmos silenciosos –los que convierten en silencio nuestro comportamiento en una avalancha de datos. (son la metáfora de los presos alrededor que se pusieron alrededor de una torre de vigilancia para ser visualizados, hasta que estos alcanzaron la manera de evitarlo( estos eran los algoritmos)…., lo que nos conducirá a la resolución de problemas, tanto en sus procesos como en su evaluación:

Para ello utilizaremos el pensamiento computacional como un concepto de resolución de problemas. Es un pensamiento especial que nos permite comprender un problema complejo y desarrollar posibles soluciones. Soluciones que pueden presentarse de forma que un ser humano, una computadora o ambos puedan entender. Pero el pensamiento computacional se puede describir desde una comprensión muy estrecha o muy amplia.

En la comprensión estrecha, el pensamiento computacional contiene cuatro conceptos clave:

a-Descomposición: que podría dividir un problema o sistema complejo en partes más pequeñas y manejables

b-Reconocimiento de patrones — que se refiere a buscar algo uniforme alrededor y en un problema

c-Abstracción: lo que significa centrarse en la información importante e ignorar detalles irrelevantes

d-Algoritmos: se refiere al desarrollo de soluciones paso a paso para un problema o la preparación de reglas para resolver un problema

Las cuatro piedras angulares son igualmente importantes. Se pueden entender como estar en un taburete. Si falta uno, se produce un. cotocircuito en el procesoEl pensamiento computacional significa dominar estas cuatro técnicas.

Por lo tanto, el pensamiento computacional no es lo mismo que la programación. Tampoco es un concepto de pensar como una computadora, porque una computadora no puede pensar. Solo hace lo que el programa dice que debería hacer. Pero el pensamiento computacional puede permitirnos saber qué decir a la computadora para que realice una determinada acción. Sin embargo, las habilidades que se encuentran detrás de este pensamiento que también se pueden usar en una serie de otras situaciones de resolución de problemas que no se relacionan con computadoras en absoluto. Ser capaz de simplificar un problema complejo para que podamos entenderlo fácilmente

En una comprensión más amplia del pensamiento computacional, el concepto se extiende a ambos contienen una cantidad de conceptos y enfoques. Los cuatro conceptos clave se complementan con:

1-Lógica — que se refiere a predecir y analizar acciones dadas

2-Evaluación — en el entendimiento de poder evaluar y juzgar

Además, añade una descripción más detallada de los cuales se acerca al “pensador computacional” es el trabajo que se puede describir como una actividad persistente, la experimentación para crear algo en cooperación con otros y está en curso mejoras y correcciones de errores basada de las experiencias que se están haciendo.

Una comprensión aún más amplia del Pensamiento Computacional (Miguel Zapata Ros) debe contener requisitos estéticos y éticos en relación con las soluciones con las que se trabaja en relación con un problema determinado.

Si vamos a integrar el pensamiento computacional como un tema o como parte de la formación general, es importante que analicemos cómo entendemos el concepto.equiparando el pensamiento y la codificación computacionales. Las habilidades no se pueden lograr mediante simples tareas de codificación, son competencias que contienen los enfoques legendarios, experimentales e innovadores y las consideraciones estéticas y éticas.

Con ello debemos adquirir habilidades clave como:

a-pensar cuantitativamente (tanto matemáticamente como estadísticamente);

b-pensar algorítmicamente como una continuación del proceso de avance del pensamiento (iniciado durante sus días de escuela);

c-pensar en términos de aprendizaje automático y predicción;

para participar en actividades de pensamiento de nivel superior en términos de representar los fenómenos / resultados observados en forma de modelos y luego simular.

Jeannette Wing acuñó el término pensamiento computacional en un artículo reciente del MCCA de 2006. . Ella argumenta que para que los estudiantes apliquen técnicas computacionales o aplicaciones informáticas a los problemas y proyectos en su disciplina particular (ya sean las artes, las ciencias, las humanidades o las ciencias sociales), este conjunto de habilidades se vuelve necesario. Wing también afirma en su artículo seminal que las ideas de abstracción, estratificación de abstracciones y automatización son algunos de los conceptos fundamentales de la informática que han proporcionado nuevos conocimientos sobre las ciencias naturales y las ciencias sociales duras.

Enfatiza que el pensamiento computacional es una habilidad básica emergente para todos, no solo para los informáticos. Por lo tanto, debe convertirse en una parte integral de la educación y agregarse a la capacidad analítica de cada alumno, además de las habilidades de lectura, escritura y aritmética. “Al utilizar los conceptos fundamentales para la informática, el pensamiento computacional permite y mejora la capacidad de resolver problemas, diseñar sistemas y comprender el comportamiento humano” (Wing, 2006).

Si parece que el tener presente como base la creación de patrones para resolver problemas, no es menos cierto que la variedad de tareas y actividades actualizadas proporciona al estudiante la flexibilidad de elegir y repetir las tareas para aprender las técnicas a su propio ritmo. Esto le permite al alumno tener el control de todo el proceso de aprendizaje.

Podemos emplear como eje investigar, desarrollar y determinar la eficiencia del uso de un entorno b-learning en la adquisición de habilidades básicas de programación a través de la personalización del contenido para cada alumno, para lograr que un conjunto de actividades que se pueden utilizar se diseñen teniendo en cuenta diferentes niveles adaptados a la personalización de aprendizajes de cada alumno por medio de un de un pensamiento computacional que por medio del soporte del machine learning cree aplicaciones para cada estudiante. La evolución de los algoritmos que “aprenden” de los datos sin tener que programarse de forma explícita. Un subgrupo particular de Machine Learning se conoce como “aprendizaje profundo” (Deep Learning). Este término describe el uso de un conjunto de algoritmos llamados redes neuronales que toman como modelo el cerebro humano. Los avances en este aprendizaje profundo han impulsado una rápida evolución de las tareas de aprendizaje por parte de las máquinas en los últimos años, en particular el procesamiento del lenguaje y texto, y la interpretación de imágenes y vídeos. Estos sistemas, por ejemplo, llegan a identificar caras o a interpretar el idioma natural a una velocidad y con un grado de acierto que puede superar al de un ser humano.

Ver cómo las ‘próximas’ prácticas también necesitan las ‘próximas’ métricas si queremos pivotar de manera efectiva hacia este futuro emergente y más deseable que visualizamos para nosotros y nuestras organizaciones “.

Las necesidades urgentes de aprendizaje de los estudiantes son personales. Cada niño, cada adulto en el sistema tiene necesidades personalizadas que no pueden ser determinadas por el pensamiento estandarizado.

“No solo serán las personas las que tendrán que convertirse en aprendices adaptables, permanecer ágiles en nuestro mundo exponencialmente cambiante en el que vivimos ahora … también lo deben hacer nuestras organizaciones educativas si quieren seguir siendo centros importantes, dinámicos y relevantes de aprendizaje, innovación y transformación frente a estos cambios y cambios sistémicos “ ..,.

Estos son solo algunos ejemplos de los patrones de arquitectura que se pueden implementar. El patrón a implementar dependerá del problema y los datos que se quieren modelar, y pueden combinar varios de los patrones mencionados. Por ejemplo, se puede utilizar una CNN como base y añadir una capa recurrente para modelar secuencias. La elección del patrón adecuado requiere un análisis exhaustivo de los datos y la experimentación.

Hay varios modelos de aprendizaje profundo que se pueden utilizar para predecir cómo el cerebro responderá a diferentes métodos de aprendizaje disruptivos. Aquí se describirá una posible arquitectura basada en una red neuronal artificial:

  1. Entrada: La entrada consistirá en los datos adquiridos sobre la actuación del cerebro, como imágenes fMRI y señales EEG. Estos datos se reprocesarán para ser compatibles con el modelo.
  2. Capas de procesamiento: El modelo tendrá varias capas de procesamiento para analizar los datos y aprender patrones. Estas capas podrían incluir capas de convolución para extraer características de las imágenes fMRI y capas densas para aprender relaciones entre las señales EEG y los métodos de aprendizaje disruptivos.
  3. Capa de salida: La capa de salida será una capa densa que utilizará los resultados de las capas de procesamiento para producir una predicción sobre cómo el cerebro responderá a un método de enseñanza disruptivo específico.
  4. Entrenamiento: El modelo se entrenará utilizando un conjunto de datos de entrenamiento que incluya información sobre la actuación del cerebro y los métodos de enseñanza disruptivos utilizados. El objetivo será aprender a realizar una predicción precisa sobre cómo el cerebro responderá a diferentes métodos de enseñanza.
  5. Evaluación: Finalmente, se evaluará el modelo utilizando un conjunto de datos de prueba para verificar su precisión y rendimiento. Si es necesario, se realizarán ajustes en la arquitectura o en los parámetros del modelo para mejorar su rendimiento.

Esta arquitectura es solo un ejemplo de cómo se podría construir un modelo de aprendizaje profundo para predecir la respuesta del cerebro a diferentes métodos de aprendizaje disruptivos. Es posible que sea necesario realizar ajustes o modificaciones en función de los datos y los requisitos específicos del problema.

En palabras de Jeff Dean (colaborador principal en Google Research): «El aprendizaje profundo es realmente una poderosa metáfora para aprender sobre el mundo». ¿Qué diferencia un cerebro humano de una máquina?, ¿qué hace que nuestra materia gris sea tan especial? Independientemente de si el abordaje es biológico, psicológico o filosófico, destacan características como percepción, acción, lenguaje articulado y cognición. En ediciones anteriores de nuestros Miércoles de CTI, te hablamos sobre la inteligencia artificial (IA) y los agentes autónomos: el inalcanzable sueño de emular el cerebro humano y la polémica creación de «máquinas pensantes». Como te comentábamos anteriormente, la imperante tendencia tecnológica que hoy por hoy es clave dentro del campo de la IA es el aprendizaje profundo (deep learning): la IA «finalmente se está poniendo inteligente»; se plantea que los nuevos agentes autónomos sean capaces de entender el lenguaje humano y hacer tanto inferencias como tomar decisiones por sí mismos. Expertos en investigación y consultoría tecnológica señalan que el aprendizaje profundo comenzará a tener un gran impacto en la mayoría de las industrias durante los próximos años. Ahora bien, si te preguntas por qué esto te atañe, te invitamos a continuar leyendo nuestra nota, donde expondremos algunos planteamientos teóricos básicos y unas cuantas aplicaciones de este conjunto de técnicas para extraer, transformar, clasificar y analizar información.

Las redes neuronales cerebrales humanas como inspiración

El trabajo que inició en la década de los sesentas del siglo XX como algo conceptualmente atractivo pero difícil de probar, comenzó a tener un amplio rango de usos comerciales a inicios de los noventas del mismo siglo. De acuerdo con la estadounidense Asociación de Ingenieros Informáticos (Association for Computing Machinery, ACM), los sistemas neuronales artificiales (redes neuronales) siguen los patrones de las neuronas cerebrales, así como las conexiones o sinapsis entre las neuronas. Así, las redes neuronales artificiales son sistemas altamente conectados, elementos de procesamiento simples cuyo comportamiento cambia según los «pesos» asignados a cada conexión; contrario a los programas computacionales tradicionales, el aprendizaje profundo requiere entrenamiento: entre mayor sea la cantidad de información de entrada, mejores serán los resultados. Durante muchos años la mayoría de las redes neuronales contenían una sola capa de «detectores de características» y eran principalmente entrenados con datos clasificados a través de un proceso llamado entrenamiento «supervisado»; posteriormente aparecerían los tipos multicapa e híbrido.

Ya para la década de los ochentas apareció un tipo de aprendizaje profundo más poderoso, que empleaba múltiples capas. En los años de irreales robots futurísticos propios de películas como El cazador implacable (Blade Runner, 1982), El exterminador (The Terminator, 1984) y Aliens: el regreso (Aliens, 1986), en la esfera científica, las computadoras no eran suficientemente veloces para lidiar con los procesos de aprendizaje de múltiples capas de características al mismo tiempo pues implicaban una enorme cantidad de cálculos o cómputos, además no había suficientes datos catalogados y los desarrolladores no contaban con una forma eficiente de iniciar los «pesos». El pionero en aprendizaje automático Geoffrey Hinton (Universidad de Toronto) asegura: «El enfoque básico de entonces era que tú manualmente hacías un montón de características, y luego aprendías qué peso ponerles para tomar una decisión. Por ejemplo: si es rojo, es más probable que sea un carro que un refrigerador».

Lo más nuevo en IA: capas y capas de razonamiento artificial

Li Deng y Dong Yu de Microsoft Research, en su artículo «Aprendizaje profundo: métodos y aplicaciones» («Deep Learning: Methods and Applications», 2014), sitúan estas técnicas en la intersección de las áreas de investigación de redes neuronales, IA, modelado gráfico, optimización, reconocimiento de patrones y procesamiento de señales. Aseguran que desde 2006 el aprendizaje estructurado de manera profunda, más comúnmente conocido como aprendizaje profundo o aprendizaje jerárquico, ha surgido como una nueva área de investigación dentro del aprendizaje automático. La esencia del aprendizaje profundo es automatizar el proceso de descubrimiento de características o representaciones efectivas para cualquier tarea de aprendizaje automático, incluida la transferencia automática simultánea de conocimiento de una tarea a otra.

Los investigadores de Microsoft Research destacan tres importantes razones para la actual popularidad de esta vertiente: 

1) las habilidades de procesamiento drásticamente incrementadas de los chips,

 2) el significativamente aumentado tamaño de los datos usados para entrenamiento, 

3) los recientes avances de investigaciones sobre aprendizaje automático y procesamiento de señales/información; en adición, por su parte, la ACM además señala las mejoras en arquitecturas de algoritmos y aplicaciones. En conjunto, todo esto posibilita un mayor incremento en el poder de los sistemas de aprendizaje automático; en particular, las redes neuronales artificiales multicapa están produciendo sorprendentes avances en materia de precisión dentro de campos como visión computacional y reconocimiento de voz.

Escuchar, hablar, observar y aprender «como un ser humano»

Deng y Yu hacen hincapié en el hecho de que existen numerosas investigaciones activas en el área, llevadas a cabo por instituciones de educación superior como la Universidad de Toronto, la Universidad de Nueva York, la Universidad de Montreal, la Universidad de Stanford y el Instituto Tecnológico de Massachusetts, así como empresas de la talla de Microsoft, Google, IBM, Baidu y Facebook. Dichas investigaciones, aseguran, han demostrado éxito empírico del aprendizaje profundo en diversas aplicaciones de: visión computacional, reconocimiento fonético, búsqueda por voz, reconocimiento de discurso oral, codificación de funciones de voz e imagen, clasificación de expresiones semánticas, comprensión del lenguaje natural, reconocimiento de escritura a mano, filtro de correros electrónicos basura, detección de fraudes, procesamiento de audio, recuperación de información, robótica, e incluso en el análisis de moléculas que tal vez lleven al descubrimiento de nuevos medicamentos.

A continuación te exponemos algunas de las aplicaciones del aprendizaje profundo más novedosas y un fructífero equipo de investigación cuyos productos seguramente usas más de una vez al día:

  • IBM PowerAI (IBM y NVIDIA, 2016). Un kit de herramientas de software para empresas que «ayudará a entrenar a los sistemas a pensar y aprender en una forma más humana, a un ritmo más rápido».
  • DeepText (Facebook, 2016). Herramienta que puede comprender el contenido textual de varias miles de publicaciones por segundo con precisión casi humana, abarcando casi veinte idiomas diferentes.
  • Deep Voice (Baidu, 2017). Sistema que sintetiza de texto a voz en tiempo real con calidad de producción, enteramente construido a partir de redes neuronales profundas.
  • DeepCoder (Microsoft y Universidad de Cambridge, 2017). Este software permitirá que las personas que no conocen ni un solo lenguaje de programación también puedan codificar, crear nuevos programas tomando «prestados» otros códigos de programación.
  • Brain Team (Google, 2011 a la fecha). Este equipo de investigación es el responsable de los sistemas de reconocimiento de voz de los sistemas operativos Android, la búsqueda por fotos de Google y las recomendaciones de video de YouTube.
  • Motor de interpretación genética (Universidad de Toronto y NVIDIA, en curso). Accionado por una unidad de procesamiento gráfico, este método estará dedicado a identificar mutaciones causantes de cáncer.

¿Estamos realmente cada vez más cerca de crear «máquinas pensantes»?

Hace alrededor de tres años, el antes mencionado dúo investigativo de Microsoft Research aventuró que la «meseta de productividad» del aprendizaje profundo sería mucho mayor al proyectado por la metodología del ciclo de sobreexpectación (representación gráfica de la madurez y la adopción de tecnologías y aplicaciones) de la consultora Gartner; no obstante, tal empresa de investigación de las tecnologías de la información no incluye el aprendizaje profundo en su ciclo de sobreexpectación para tecnologías emergentes de 2016, aunque asegura que durante la próxima década las máquinas inteligentes constituirán la más disruptiva clase de tecnologías, y en parte será por los «avances sin precedentes en redes neuronales profundas que proveerán a las organizaciones tecnologías de máquinas inteligentes para aprovechar datos a fin de adaptarse a nuevas situaciones y resolver problemas que previamente nadie ha encontrado».

Dado que tanto las que ya están en funcionamiento como las que actualmente están siendo desarrolladas son tecnologías ampliamente aplicables en numerosos y diversos nichos de mercado, seguramente continuarás escuchando cada vez más sobre el aprendizaje profundo. Así y todo, destaca Mark Skilton (experimentado consultor y profesor de la Escuela de Negocios de Warwick), la victoria de la supercomputadora Watson de IBM frente a jugadores humanos en Jeopardy (2011), la derrota del campeón de Go Lee Sedol ante el AlphaGo de Google (2016) o la proeza de armar un cubo de Rubick en 0.637 segundos realizada por un robot de Infineon «son ejemplos de lo que se conoce como inteligencia especializada, pero son partes extremadamente estrechas de la inteligencia general». Al final: «En un campo que intenta algo tan profundo como modelar el cerebro humano, es inevitable que una técnica no resuelva todos los retos. Pero, por ahora, es la única guiando el camino en inteligencia artificial» (Robert D. Hof, editor colaborador del MIT Technology Review). Bueno, quizá sea demasiado pronto para preguntarnos qué sigue después del aprendizaje profundo, mas, sin duda, pareciera que nos acercamos al sueño de construir «máquinas pensantes»… O al menos estamos menos lejos de él, ¿cierto?

La inteligencia artificial (IA) puede tener un impacto significativo en la escalabilidad de la neurociencia, la neuroeducación y la educación disruptiva. Algunas formas en que la IA puede contribuir a estos campos incluyen:

  1. Análisis de grandes cantidades de datos: La IA puede ser utilizada para analizar grandes cantidades de datos, incluyendo imágenes de resonancia magnética funcional (fMRI), electroencefalografía (EEG) y otros tipos de datos de neuroimagen. Esto podría permitir a los neurocientíficos y neuroeducadores identificar patrones y tendencias en la actividad cerebral que de otra manera serían difíciles de detectar.
  2. Modelado y simulación cerebral: La IA puede ser utilizada para crear modelos y simular la actividad cerebral, lo que podría ayudar a los neurocientíficos a comprender mejor cómo el cerebro funciona y cómo las diferentes áreas cerebrales interactúan entre sí.
  3. Personalización de la educación: La IA puede ser utilizada para personalizar la educación, adaptándola a las necesidades individuales de cada estudiante. Por ejemplo, los algoritmos de IA pueden analizar patrones de aprendizaje y rendimiento para identificar las fortalezas y debilidades de cada estudiante, y utilizar esta información para crear un plan de estudios personalizado.
  4. Evaluación automática: La IA puede ser utilizada para evaluar el aprendizaje de los estudiantes de manera automática, lo que podría liberar tiempo para los educadores y permitir una evaluación más precisa y objetiva.

La combinación de IA y estos campos puede tener un impacto significativo en la forma en que entendemos y aplicamos el conocimiento sobre el cerebro humano y la educación.

¿Y como lo hará el aprendizaje profundo?

El aprendizaje profundo es una subramificación de la inteligencia artificial que se centra en el desarrollo de modelos de aprendizaje automático que simularan la estructura y función de la corteza cerebral.

En el contexto de la neurociencia, la neuroeducación y la educación disruptiva, el aprendizaje profundo puede escalar estos campos de la siguiente manera:

  1. Análisis de patrones complejos: Los modelos de aprendizaje profundo son capaces de analizar patrones complejos en los datos de neuroimagen y de aprendizaje, lo que podría permitir a los neurocientíficos y neuroeducadores identificar patrones y tendencias que de otra manera serían difíciles de detectar.
  2. Modelado de la actividad cerebral: Los modelos de aprendizaje profundo pueden ser entrenados en imágenes de neuroimagen para modelar la actividad cerebral, lo que podría ayudar a los neurocientíficos a comprender mejor cómo el cerebro funciona y cómo las diferentes áreas cerebrales interactúan entre sí.
  3. Personalización del aprendizaje: Los modelos de aprendizaje profundo pueden ser utilizados para personalizar la educación, adaptándola a las necesidades individuales de cada estudiante. Por ejemplo, los algoritmos de aprendizaje profundo pueden analizar patrones de aprendizaje y rendimiento para identificar las fortalezas y debilidades de cada estudiante, y utilizar esta información para crear un plan de estudios personalizado.
  4. Evaluación automática: Los modelos de aprendizaje profundo pueden ser utilizados para evaluar el aprendizaje de los estudiantes de manera automática, lo que podría liberar tiempo para los educadores y permitir una evaluación más precisa y objetiva.

El aprendizaje profundo puede tener un impacto significativo en la escalabilidad de la neurociencia, la neuroeducación y la educación disruptiva, permitiendo un análisis más profundo de los patrones de actividad cerebral y aprendizaje, un modelado más preciso de la actividad cerebral, una personalización más efectiva del aprendizaje y una evaluación más automática del aprendizaje.

Los análisis de datos establezcan sinergias entre una arquitectura artificial y la educación disruptiva. Al analizar grandes cantidades de datos sobre cómo los estudiantes aprenden y cómo responden a diferentes métodos de enseñanza, es posible identificar patrones y tendencias que puedan ser utilizados para mejorar la eficacia de la educación disruptiva.

Por ejemplo, los análisis de datos pueden indicar que ciertos tipos de estudiantes responden mejor a ciertos métodos de enseñanza disruptivos. Esta información puede ser utilizada para personalizar la educación y mejorar la eficacia del aprendizaje.

Además, los análisis de datos pueden ayudar a evaluar el impacto de la educación disruptiva en el aprendizaje y el desempeño de los estudiantes, lo que puede proporcionar retroalimentación valiosa para mejorar la eficacia de los métodos de aprendizaje.

El análisis con aprendizaje profundo basado en imágenes puede tener un impacto significativo en la educación disruptiva al permitir una mayor comprensión de cómo los estudiantes interactúan con los materiales de enseñanza visuales.

Por ejemplo, el aprendizaje profundo basado en imágenes puede utilizarse para analizar la forma en que los estudiantes interactúan con los materiales de enseñanza visuales, como gráficos, diagramas y animaciones. Esto puede proporcionar información valiosa sobre qué tipos de materiales visuales son más efectivos para el aprendizaje de diferentes tipos de estudiantes.

Además, el aprendizaje profundo basado en imágenes también puede utilizarse para mejorar la accesibilidad de la educación visual. Por ejemplo, puede ser utilizado para desarrollar soluciones de descripción automática de imágenes para estudiantes con discapacidad visual, lo que les permite interactuar de manera más efectiva con los materiales de aprendizaje visuales.

Hay varios autores y artículos que investigan el aprendizaje profundo con la educación disruptiva.

Por ejemplo, Juan Domingo Farnós Miró escribió un artículo titulado «La Educación disruptiva adopta nuevas interfaces en toda su dimensión» mientras que otro artículo de Farnós Miró se titula «Liderazgos educativos disruptivos e innovadores» .

Otros autores también han escrito sobre el tema, como Gibbons et al. (1994) en su artículo «La educación (disruptiva) en una nueva cultura» ,

Eduardo Sánchez-García y María del Carmen Pérez-Cano en su artículo «El aprendizaje disruptivo y expandido del derecho»

María del Carmen Pérez-Cano et al. en su artículo «Educación disruptiva: Nuevos desafíos en la formación de investigadores sociales en tiempos de pandemia y distanciamiento social«

juandon