¿Los programas generativos “Transformer” AI y ChatGPT, una oportunidad para la evaluación formativa? (II) ¿Qué son?
Imagen generada por “The generative “Transformer” AI systems, digital art” por Miguel × DALL·E Human & AI
¿Qué son los programas generativos “Transformer” AI, o los generadores de texto a partir de estadísticas de grandes cantidades de datos?
Para lo que nos
ocupa conviene destacar en primer lugar que cuando se habla de ChatGPT se habla
de dos cosas. Aunque de forma banal, en nuestro entorno casi todos, incluso
insignes catedráticos, hablan de la primera e ignoran, se supone que no
deliberadamente, la segunda. Lo cual es grave, sobre todo cuando se habla desde
una perspectiva educativa.
En primer
lugar, se trata de un modelo de predicción de texto transformador y generativo.
Es una enciclopedia. Pero también es un modelo conversacional basado en un
modelo instruccional. Es decir, es un modelo que se basa en la conversación para su su aprendizaje
propio, mediante el cual incorpora criterios. Esto es lo que todo el mundo
desconoce u olvida.
En la primera acepción, GPT son las siglas de Generative Pre-trained Transformer. Es un modelo de predicción de texto gigante. Está entrenado por OpenAI en el uso de 500 mil millones de palabras. Su precedente, el GPT-3, y él no solo son capaces de escribir correctamente en varios idiomas, sino que sobre todo es un modelo enciclopédico, en esta acepción, que integra una gran cantidad de referencias y datos del mundo real (personas, eventos, conocimiento científico). Hasta ahora, su precedente GPT-3 nunca se abrió al público en general por razones de riesgo. GPT-3 no tenía un mecanismo de inhibición real basado en experiencia y valores humanos y podía generar cualquier disparate, siempre que el texto sea solo superficialmente coherente.
Según la
segunda acepción, ChatGPT se basa en InstructGPT,
un modelo conversacional de aprendizaje. Lo importante, para nuestro
propósito y nuestro enfoque del tema, es que está basado en el aprendizaje por refuerzo a
partir de la retroalimentación humana (RLHF). Es una affordance
creada a partir de la anotación de textos generados. Pero lo importante es
que el modelo incorpora toda una serie de recompensas y penalizaciones con la
función de reforzar la coherencia del texto generado, evitar falsedades
flagrantes, pero también moderar por anticipación de posibles derivas
tóxicas. Mediante estas funciones, ChatGPT, de entre todo inmenso repertorio de de respuestas
lingüísticamente correctas que se podrían generar, ChatGPT opta por aquellas
que son más correctas en un contexto de chat: esto se llama “alineación de
IA”. Basado en este mismo principio, ChatGPT a veces también se niega
rotundamente a responder.
Esta doble naturaleza
condiciona y hace comprender la esencia y las limitaciones de ChatGPT. La distinción entre modelo textual y modelo conversacional es
fundamental para entender cómo funciona:
- El modelo lingüístico no está actualizado y
no se alimenta de las sugerencias de los usuarios. La formación, la
actualización de las bases de datos es muy cara y solo se renovará una vez
al año por término. Esta es la razón por la que no hace referencias
al mundo después de 2021 1
- El modelo conversacional continúa
refinándose en función de las contribuciones de los usuarios cada 3 o 4 semanas en
promedio. Con ellas OpenAI mejora la alineación del modelo con la intención del
usuario o la plataforma. Ante la paralización del modelo textual, el
modelo conversacional hace generaciones de mayor calidad y, como consecuencia, de su metodología de refuerzo, penaliza más a las
generaciones no deseadas. La última versión, fechada el 30 de enero último, penaliza más “alucinaciones”. Término utilizado para designar generaciones
puramente poco o nada reales o posibles).
Qué son
Los
programas transformadores en IA son una modalidad de arquitectura de redes
neuronales que ha ido ganando popularidad. A su vez, las redes neuronales
son redes de nodos que simulan las redes de neuronas biológicas (no
necesariamente humanas). Y tienen la virtud de aprender de una determinada
forma: Las redes neuronales aprenden (o son entrenadas) procesando
ejemplos, cada uno de los cuales contiene una "entrada" y un
"resultado" computables como sucesos probabilísticos, de manera que
se pueden establecer asociaciones ponderadas de probabilidad entre los dos (en
esto tiene mucha importancia el análisis bayesiano), que se almacenan dentro de
la estructura de datos de la propia red.
Los
transformadores han sido puestos de moda por OpenAI en los modelos de
lenguaje precedentes de ChatGPT, la serie GPT, y en el propio ChatGPT, pero
también fueron utilizados antes sin tanta resonancia, como por ejemplo por
DeepMind para AlphaStar,
su programa que derrotó a un jugador profesional de Starcraft.
En
general los programas transformadores IA se desarrollaron para resolver el
problema conocido como de la transducción de secuencias (Graves,
2012) (transdution sequence en inglés) o traducción automática
neuronal. Eso tiene que ver con cualquier tarea automática de dispositivo
digital que transforme una secuencia de entrada en una secuencia de salida de
carácter distinto. Esto incluye reconocimiento de voz, transformación de texto
a voz, reconocimiento de imágenes, etc.
El
transformador IA GPT-3, y después ChatGPT, no suponen ninguna novedad
conceptual más allá de la potencia de sus bases de datos y la capacidad de sus
algoritmos para procesar esa gran cantidad de datos rápidamente. De ahí lo de
grande en large language models (LLM) como de otra forma se
llaman
Y
éste va a ser su gran déficit para lo que estamos tratando, la educación.
“Los
grandes modelos de lenguaje preentrenados no se basan en otros dominios de la
experiencia, como el video o la interacción física del mundo real, y por lo
tanto carecen de una gran cantidad de contexto sobre el mundo” (Brown, et al. , 2020 ,
p.34). Los transformadores son modelos de lenguaje, no de conocimiento a
través de la experiencia, la asignación de sentido o los valores. No están
diseñados para ser humanos reflexivos, ecuánimes y éticos, o en particular para
ser académicos, para verificar referencias académicas y garantizar que la
evidencia esté basada en hechos. En términos humanos, son esencialmente
inexpertos, irreflexivos y amorales. No tienen la capacidad de reflexionar
sobre lo que han escrito, ni de juzgar si es exacto y decente.
Cómo citar:
Zapata-Ros, M. (2023). Los programas generativos “Transformer” AI,
entre los que está ChatGPT, ¿una oportunidad para la evaluación formativa? Preprint
http://dx.doi.org/10.13140/RG.2.2.18669.46565
Referencias
Brown,
T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. … Amodei, D.
(2020). Language models are few-shot learners. Advances in Neural
Information Processing Systems, 33, 1877–1901 Clark, D. (2023) Twitter. https://twitter.com/DonaldClark/status/1618422817590243333
Clark, D. (2023). OpenAI releases massive wave of
innovation. https://donaldclarkplanb.blogspot.com/2023/02/
Clark, D. (2023b). https://twitter.com/DonaldClark/status/1618422817590243333
Graves,
A. (2012). Sequence transduction with recurrent neural networks. arXiv
preprint arXiv:1211.3711. https://arxiv.org/abs/1211.3711 Graves,
2012
Pedreño. A. (2023) ChatGPT y las
universidades. https://www.universidadsi.es/chatgpt-y-las-universidades/
Saul, D. (2023). ‘AI Is The New Electricity’: Bank Of
America Picks 20 Stocks To Cash In On ChatGPT Hype. Forbes BUSINESS. https://www.forbes.com/sites/dereksaul/2023/03/01/ai-is-the-new-electricity-bank-of-america-picks-20-stocks-to-cash-in-on-chatgpt-hype/
Sharples, M.
Automated Essay Writing: An AIED Opinion. Int J Artif Intell Educ 32,
1119–1126 (2022). https://doi.org/10.1007/s40593-022-00300-7 Utiizado como un documento base él y
sus referencias. https://link.springer.com/article/10.1007/s40593-022-00300-7
Comentarios
Publicar un comentario