Ir al contenido principal

¿Los programas generativos “Transformer” AI y ChatGPT, una oportunidad para la evaluación formativa? (II) ¿Qué son?

 

Imagen generada por “The generative “Transformer” AI systems, digital art” por Miguel × DALL·E Human & AI

¿Qué son los programas generativos “Transformer” AI, o los generadores de texto a partir de estadísticas de grandes cantidades de datos?

 

Para lo que nos ocupa conviene destacar en primer lugar que cuando se habla de ChatGPT se habla de dos cosas. Aunque de forma banal, en nuestro entorno casi todos, incluso insignes catedráticos, hablan de la primera e ignoran, se supone que no deliberadamente, la segunda. Lo cual es grave, sobre todo cuando se habla desde una perspectiva educativa.

En primer lugar, se trata de un modelo de predicción de texto transformador y generativo. Es una enciclopedia. Pero también es un modelo conversacional basado en un modelo instruccional. Es decir, es un modelo que se basa en la conversación para su  su aprendizaje propio, mediante el cual incorpora criterios. Esto es lo que todo el mundo desconoce u olvida.

En la primera acepción, GPT son las siglas de Generative Pre-trained Transformer. Es un modelo de predicción de texto gigante. Está entrenado por OpenAI en el uso de 500 mil millones de palabras. Su precedente, el GPT-3, y él no solo son capaces de escribir correctamente en varios idiomas, sino que sobre todo es un modelo enciclopédico, en esta acepción, que integra una gran cantidad de referencias y datos del mundo real (personas, eventos, conocimiento científico). Hasta ahora, su precedente GPT-3 nunca se abrió al público en general por razones de riesgo. GPT-3 no tenía un mecanismo de inhibición real basado en experiencia y valores humanos y podía generar cualquier disparate, siempre que el texto sea solo superficialmente coherente.

Según la segunda acepción, ChatGPT se basa en InstructGPT, un modelo conversacional de aprendizaje. Lo importante, para nuestro propósito y nuestro enfoque del tema, es que está basado en el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Es una affordance creada a partir de la anotación de textos generados. Pero lo importante es que el modelo incorpora toda una serie de recompensas y penalizaciones con la función de reforzar la coherencia del texto generado, evitar falsedades flagrantes, pero también moderar por anticipación de posibles derivas tóxicas.  Mediante estas funciones, ChatGPT, de entre todo inmenso repertorio de de respuestas lingüísticamente correctas que se podrían generar, ChatGPT opta por aquellas que son más correctas en un contexto de chat: esto se llama “alineación de IA”. Basado en este mismo principio, ChatGPT a veces también se niega rotundamente a responder.

Esta doble naturaleza condiciona y hace comprender la esencia y las limitaciones de ChatGPT. La distinción entre modelo textual y modelo conversacional es fundamental para entender cómo funciona:

  • El modelo lingüístico no está actualizado y no se alimenta de las sugerencias de los usuarios. La formación, la actualización de las bases de datos es muy cara y solo se renovará una vez al año por término. Esta es la razón por la que no hace referencias al mundo después de 2021 1
  • El modelo conversacional continúa refinándose en función de las contribuciones  de los usuarios cada 3 o 4 semanas en promedio. Con ellas OpenAI mejora la alineación del modelo con la intención del usuario o la plataforma. Ante la paralización del modelo textual, el modelo conversacional hace generaciones de mayor calidad y, como      consecuencia, de su metodología de refuerzo, penaliza más a las generaciones no deseadas. La última versión, fechada el 30 de enero último, penaliza más “alucinaciones”. Término utilizado para designar generaciones puramente poco o nada reales o posibles). 

 

Qué son

Los programas transformadores en IA son una modalidad de arquitectura de redes neuronales que ha ido ganando popularidad. A su vez, las redes neuronales son redes de nodos que simulan las redes de neuronas biológicas (no necesariamente humanas). Y tienen la virtud de aprender de una determinada forma: Las redes neuronales aprenden (o son entrenadas) procesando ejemplos, cada uno de los cuales contiene una "entrada" y un "resultado" computables como sucesos probabilísticos, de manera que se pueden establecer asociaciones ponderadas de probabilidad entre los dos (en esto tiene mucha importancia el análisis bayesiano), que se almacenan dentro de la estructura de datos de la propia red. 

Los transformadores han sido puestos de moda por OpenAI en los modelos de lenguaje precedentes de ChatGPT, la serie GPT, y en el propio ChatGPT, pero también fueron utilizados antes sin tanta resonancia, como por ejemplo por DeepMind para AlphaStar, su programa que derrotó a un jugador profesional de Starcraft.

En general los programas transformadores IA se desarrollaron para resolver el problema conocido como de la transducción de secuencias (Graves, 2012) (transdution sequence en inglés) o traducción automática neuronal. Eso tiene que ver con cualquier tarea automática de dispositivo digital que transforme una secuencia de entrada en una secuencia de salida de carácter distinto. Esto incluye reconocimiento de voz, transformación de texto a voz, reconocimiento de imágenes, etc.

El transformador IA GPT-3, y después ChatGPT, no suponen ninguna novedad conceptual más allá de la potencia de sus bases de datos y la capacidad de sus algoritmos para procesar esa gran cantidad de datos rápidamente. De ahí lo de grande en large language models (LLM) como de otra forma se llaman

Y éste va a ser su gran déficit para lo que estamos tratando, la educación.

 “Los grandes modelos de lenguaje preentrenados no se basan en otros dominios de la experiencia, como el video o la interacción física del mundo real, y por lo tanto carecen de una gran cantidad de contexto sobre el mundo” (Brown, et al. , 2020 , p.34). Los transformadores son modelos de lenguaje, no de conocimiento a través de la experiencia, la asignación de sentido o los valores. No están diseñados para ser humanos reflexivos, ecuánimes y éticos, o en particular para ser académicos, para verificar referencias académicas y garantizar que la evidencia esté basada en hechos. En términos humanos, son esencialmente inexpertos, irreflexivos y amorales. No tienen la capacidad de reflexionar sobre lo que han escrito, ni de juzgar si es exacto y decente.

 

 

Cómo citar:

Zapata-Ros, M. (2023). Los programas generativos “Transformer” AI, entre los que está ChatGPT, ¿una oportunidad para la evaluación formativa? Preprint http://dx.doi.org/10.13140/RG.2.2.18669.46565

 

 Referencias

Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. … Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877–1901 Clark, D. (2023) Twitter. https://twitter.com/DonaldClark/status/1618422817590243333

Clark, D. (2023). OpenAI releases massive wave of innovation. https://donaldclarkplanb.blogspot.com/2023/02/

Clark, D. (2023b). https://twitter.com/DonaldClark/status/1618422817590243333

Graves, A. (2012). Sequence transduction with recurrent neural networks. arXiv preprint arXiv:1211.3711. https://arxiv.org/abs/1211.3711 Graves, 2012

Pedreño. A. (2023) ChatGPT y las universidades.  https://www.universidadsi.es/chatgpt-y-las-universidades/

Saul, D. (2023). ‘AI Is The New Electricity’: Bank Of America Picks 20 Stocks To Cash In On ChatGPT Hype. Forbes BUSINESS. https://www.forbes.com/sites/dereksaul/2023/03/01/ai-is-the-new-electricity-bank-of-america-picks-20-stocks-to-cash-in-on-chatgpt-hype/

Sharples, M. Automated Essay Writing: An AIED Opinion. Int J Artif Intell Educ 32, 1119–1126 (2022). https://doi.org/10.1007/s40593-022-00300-7 Utiizado como un documento base él y sus referencias. https://link.springer.com/article/10.1007/s40593-022-00300-7


[1] Los modelos de lenguaje grande (LLM) son herramientas de inteligencia artificial que pueden leer, resumir y traducir textos y predecir palabras futuras en una oración, permitiéndoles generar oraciones similares a cómo hablan y escriben los humanos. https://stpp.fordschool.umich.edu/news/2022/parthasarathy-discusses-implications-large-language-models  

Comentarios

Entradas populares de este blog

La verdad nunca es viral

A finales del año pasado una fotografía se convirtió en viral en las redes. En ella se observaban a unos adolescentes de espaldas al cuadro de Rembrard “La Ronda” que, absortos en sus móviles, ignoraban aparentemente la obra. La sola composición de la imagen puesta en la red hizo el resto. ¿Cómo eludir, como ignorar un mensaje evidente por sí mismo? Mis profesores de Matemáticas del instituto siempre decían “lo que es evidente no necesita demostración”. La cuestión es ¿qué es evidente para cada uno? Y lo evidente era que los muchachos estaban absortos vaya usted a saber en qué perniciosas o al menos distractivas cosas: En el Whatsapp, en un videojuego, en Facebook,… dando la espalda a una obra maestra, a todo un símbolo de nuestra civilización. A continuación la ronda, esta vez viral y en las redes sociales, de comentarios de gurús y expertos, y de no pocos maestros, sociólogos y pedagogos, con las repetidas metáforas concluyentes, cual Casandras indignadas y/o desanimad...

Pensamiento computacional en los primeros ciclos educativos, un pensamiento computacional desenchufado (y II)

ISSN 2386-8562. Este artículo está bajo una  licencia de Creative Commons Attribution-NonCommercial 4.0 Debe ser citado como Zapata-Ros, M. (2018)Pensamiento computacional en los primeros ciclos educativos, un pensamiento computacional desenchufado (I1).  Blog RED de Hypotheses. El aprendizaje en la Sociedad del Conocimiento .   https://red.hypotheses.org/1662 En el  post anterior  veíamos que la idea de pensamiento computacional desenchufado ( Computational thinking unplugged ) hace referencia al conjunto de actividades, y a su diseño educativo, que se diseñan y utilizan para fomentar en los niños, en las primeras etapas de su desarrollo cognitivo (educación infantil, primer tramo de la educación primaria, juegos en casa con los padres y los amigos,…)  habilidades que luego pueden ser evocadas para potenciar un buen aprendizaje del pensamiento computacional en otras etapas, o en la formación técnica, profesional o en la ...

Recursos educativos, contenidos y libros de texto con la INTELIGENCIA ARTIFICIAL GENERATIVA

(*) El diseño instruccional tal como lo definimos [1]  tiene distintas componentes, una es la evaluación que ya hemos visto. Otra son los recursos, que trataremos aquí. En lo sucesivo es de esperar que vayamos completando ese marco. Dentro del diseño instruccional que se haga con la IA generativa es inevitable que se cuente con los recursos como una componente más pero fundamental, bien en el sentido tradicional bien en el nuevo sentido que se le asigne. En este apartado de recursos no es de esperar que los libros de texto, por el volumen de negocio que suponen y por la inversión actual de las empresas y por lo que estés dispuestas a invertir, sean ajenos al gran movimiento de capitales y esfuerzos que está suponiendo la IA generativa. De hecho, las editoriales ya van teniendo sus propios LLM. Una opción posible: los LLM como materiales de estudio (contenidos) En los próximos años, es probable que los materiales de los estudios (cursos y asignaturas) ---los textos--- pasen de tener...