Ir al contenido principal

¿Los programas generativos “Transformer” AI y ChatGPT, una oportunidad para la evaluación formativa? (II) ¿Qué son?

 

Imagen generada por “The generative “Transformer” AI systems, digital art” por Miguel × DALL·E Human & AI

¿Qué son los programas generativos “Transformer” AI, o los generadores de texto a partir de estadísticas de grandes cantidades de datos?

 

Para lo que nos ocupa conviene destacar en primer lugar que cuando se habla de ChatGPT se habla de dos cosas. Aunque de forma banal, en nuestro entorno casi todos, incluso insignes catedráticos, hablan de la primera e ignoran, se supone que no deliberadamente, la segunda. Lo cual es grave, sobre todo cuando se habla desde una perspectiva educativa.

En primer lugar, se trata de un modelo de predicción de texto transformador y generativo. Es una enciclopedia. Pero también es un modelo conversacional basado en un modelo instruccional. Es decir, es un modelo que se basa en la conversación para su  su aprendizaje propio, mediante el cual incorpora criterios. Esto es lo que todo el mundo desconoce u olvida.

En la primera acepción, GPT son las siglas de Generative Pre-trained Transformer. Es un modelo de predicción de texto gigante. Está entrenado por OpenAI en el uso de 500 mil millones de palabras. Su precedente, el GPT-3, y él no solo son capaces de escribir correctamente en varios idiomas, sino que sobre todo es un modelo enciclopédico, en esta acepción, que integra una gran cantidad de referencias y datos del mundo real (personas, eventos, conocimiento científico). Hasta ahora, su precedente GPT-3 nunca se abrió al público en general por razones de riesgo. GPT-3 no tenía un mecanismo de inhibición real basado en experiencia y valores humanos y podía generar cualquier disparate, siempre que el texto sea solo superficialmente coherente.

Según la segunda acepción, ChatGPT se basa en InstructGPT, un modelo conversacional de aprendizaje. Lo importante, para nuestro propósito y nuestro enfoque del tema, es que está basado en el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Es una affordance creada a partir de la anotación de textos generados. Pero lo importante es que el modelo incorpora toda una serie de recompensas y penalizaciones con la función de reforzar la coherencia del texto generado, evitar falsedades flagrantes, pero también moderar por anticipación de posibles derivas tóxicas.  Mediante estas funciones, ChatGPT, de entre todo inmenso repertorio de de respuestas lingüísticamente correctas que se podrían generar, ChatGPT opta por aquellas que son más correctas en un contexto de chat: esto se llama “alineación de IA”. Basado en este mismo principio, ChatGPT a veces también se niega rotundamente a responder.

Esta doble naturaleza condiciona y hace comprender la esencia y las limitaciones de ChatGPT. La distinción entre modelo textual y modelo conversacional es fundamental para entender cómo funciona:

  • El modelo lingüístico no está actualizado y no se alimenta de las sugerencias de los usuarios. La formación, la actualización de las bases de datos es muy cara y solo se renovará una vez al año por término. Esta es la razón por la que no hace referencias al mundo después de 2021 1
  • El modelo conversacional continúa refinándose en función de las contribuciones  de los usuarios cada 3 o 4 semanas en promedio. Con ellas OpenAI mejora la alineación del modelo con la intención del usuario o la plataforma. Ante la paralización del modelo textual, el modelo conversacional hace generaciones de mayor calidad y, como      consecuencia, de su metodología de refuerzo, penaliza más a las generaciones no deseadas. La última versión, fechada el 30 de enero último, penaliza más “alucinaciones”. Término utilizado para designar generaciones puramente poco o nada reales o posibles). 

 

Qué son

Los programas transformadores en IA son una modalidad de arquitectura de redes neuronales que ha ido ganando popularidad. A su vez, las redes neuronales son redes de nodos que simulan las redes de neuronas biológicas (no necesariamente humanas). Y tienen la virtud de aprender de una determinada forma: Las redes neuronales aprenden (o son entrenadas) procesando ejemplos, cada uno de los cuales contiene una "entrada" y un "resultado" computables como sucesos probabilísticos, de manera que se pueden establecer asociaciones ponderadas de probabilidad entre los dos (en esto tiene mucha importancia el análisis bayesiano), que se almacenan dentro de la estructura de datos de la propia red. 

Los transformadores han sido puestos de moda por OpenAI en los modelos de lenguaje precedentes de ChatGPT, la serie GPT, y en el propio ChatGPT, pero también fueron utilizados antes sin tanta resonancia, como por ejemplo por DeepMind para AlphaStar, su programa que derrotó a un jugador profesional de Starcraft.

En general los programas transformadores IA se desarrollaron para resolver el problema conocido como de la transducción de secuencias (Graves, 2012) (transdution sequence en inglés) o traducción automática neuronal. Eso tiene que ver con cualquier tarea automática de dispositivo digital que transforme una secuencia de entrada en una secuencia de salida de carácter distinto. Esto incluye reconocimiento de voz, transformación de texto a voz, reconocimiento de imágenes, etc.

El transformador IA GPT-3, y después ChatGPT, no suponen ninguna novedad conceptual más allá de la potencia de sus bases de datos y la capacidad de sus algoritmos para procesar esa gran cantidad de datos rápidamente. De ahí lo de grande en large language models (LLM) como de otra forma se llaman

Y éste va a ser su gran déficit para lo que estamos tratando, la educación.

 “Los grandes modelos de lenguaje preentrenados no se basan en otros dominios de la experiencia, como el video o la interacción física del mundo real, y por lo tanto carecen de una gran cantidad de contexto sobre el mundo” (Brown, et al. , 2020 , p.34). Los transformadores son modelos de lenguaje, no de conocimiento a través de la experiencia, la asignación de sentido o los valores. No están diseñados para ser humanos reflexivos, ecuánimes y éticos, o en particular para ser académicos, para verificar referencias académicas y garantizar que la evidencia esté basada en hechos. En términos humanos, son esencialmente inexpertos, irreflexivos y amorales. No tienen la capacidad de reflexionar sobre lo que han escrito, ni de juzgar si es exacto y decente.

 

 

Cómo citar:

Zapata-Ros, M. (2023). Los programas generativos “Transformer” AI, entre los que está ChatGPT, ¿una oportunidad para la evaluación formativa? Preprint http://dx.doi.org/10.13140/RG.2.2.18669.46565

 

 Referencias

Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. … Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877–1901 Clark, D. (2023) Twitter. https://twitter.com/DonaldClark/status/1618422817590243333

Clark, D. (2023). OpenAI releases massive wave of innovation. https://donaldclarkplanb.blogspot.com/2023/02/

Clark, D. (2023b). https://twitter.com/DonaldClark/status/1618422817590243333

Graves, A. (2012). Sequence transduction with recurrent neural networks. arXiv preprint arXiv:1211.3711. https://arxiv.org/abs/1211.3711 Graves, 2012

Pedreño. A. (2023) ChatGPT y las universidades.  https://www.universidadsi.es/chatgpt-y-las-universidades/

Saul, D. (2023). ‘AI Is The New Electricity’: Bank Of America Picks 20 Stocks To Cash In On ChatGPT Hype. Forbes BUSINESS. https://www.forbes.com/sites/dereksaul/2023/03/01/ai-is-the-new-electricity-bank-of-america-picks-20-stocks-to-cash-in-on-chatgpt-hype/

Sharples, M. Automated Essay Writing: An AIED Opinion. Int J Artif Intell Educ 32, 1119–1126 (2022). https://doi.org/10.1007/s40593-022-00300-7 Utiizado como un documento base él y sus referencias. https://link.springer.com/article/10.1007/s40593-022-00300-7


[1] Los modelos de lenguaje grande (LLM) son herramientas de inteligencia artificial que pueden leer, resumir y traducir textos y predecir palabras futuras en una oración, permitiéndoles generar oraciones similares a cómo hablan y escriben los humanos. https://stpp.fordschool.umich.edu/news/2022/parthasarathy-discusses-implications-large-language-models  

Comentarios

Entradas populares de este blog

La verdad nunca es viral

A finales del año pasado una fotografía se convirtió en viral en las redes. En ella se observaban a unos adolescentes de espaldas al cuadro de Rembrard “La Ronda” que, absortos en sus móviles, ignoraban aparentemente la obra. La sola composición de la imagen puesta en la red hizo el resto. ¿Cómo eludir, como ignorar un mensaje evidente por sí mismo? Mis profesores de Matemáticas del instituto siempre decían “lo que es evidente no necesita demostración”. La cuestión es ¿qué es evidente para cada uno? Y lo evidente era que los muchachos estaban absortos vaya usted a saber en qué perniciosas o al menos distractivas cosas: En el Whatsapp, en un videojuego, en Facebook,… dando la espalda a una obra maestra, a todo un símbolo de nuestra civilización. A continuación la ronda, esta vez viral y en las redes sociales, de comentarios de gurús y expertos, y de no pocos maestros, sociólogos y pedagogos, con las repetidas metáforas concluyentes, cual Casandras indignadas y/o desanimad

Aprendizaje inteligente

Éste post, como el anterior y   los siguientes, recoge un aspecto particular de lo tratado en el artículo La universidad inteligente (Zapata-Ros, 2018) de RED: Revista de Educación a Distancia . Nos vamos a remitir para introducir el concepto de aprendizaje inteligente a una especie de tautología o de cláusula recursiva. De esta forma vamos inicialmente a definir aprendizaje inteligente como aquél que se desarrolla en los entornos inteligentes de aprendizaje. Pero esta tautología es solo aparente. Supone un avance conceptual. Porque este último constructo proviene de dos anteriores: el de entornos de aprendizaje, algo que es suficientemente conocido ( Watson & Watson, 2007; Zapata-Ros, 2003 ) tanto en la vertiente de LMS, como en la de entornos inclusivos, y el de tecnología inteligente, la que utiliza recursos y affordances tecnológicas de detección y de recomendación. Aprendizaje inteligente es aquél aprendizaje que pueden desencadenar y producir los sistema

Los jesuitas y la educación (I)

1 La disrupción de los colegios jesuitas Estos días han aparecido  noticias como ésta en la prensa :   Los jesuitas eliminan las asignaturas, exámenes y horarios de sus colegios en Cataluña , donde se afirma Los colegios de jesuitas de Cataluña, en los que estudian más de 13.000 alumnos, han comenzado a implantar un nuevo modelo de enseñanza que ha eliminado asignaturas, exámenes y horarios y ha transformado las aulas en espacios de trabajo donde los niños adquieren los conocimientos haciendo proyectos conjuntos (…)  Los jesuitas (…) han diseñado un nuevo modelo pedagógico en el que han desaparecido las clases magistrales, los pupitres, los deberes y las aulas tradicionales, en un proyecto que ha comenzado en quinto de primaria y primero de ESO en tres de sus escuelas y que se irá ampliando al resto.  “Educar no es solo transmitir conocimientos El proyecto impulsa "las inteligencias múltiples y sacar todo el potencial" de los alumnos y que hagan las