Een paar weken geleden hebben we Aisha gelanceerd. Dit is een platform met AI-docenten voor alle examenvakken in het VO. Op dit moment zijn het chatbots en scoren ze op verschillende vakken tussen de 9 en de 10 voor het eindexamen. Maar, gezien de snelle technologische vooruitgang in de wereld van generatieve AI, wat kunnen we over een jaar technisch verwachten?
In mijn optiek gaan er 5 belangrijke technische veranderingen komen binnen een jaar:
1) Beter denkvermogen
2) Langere ‘context window’
3) Meer multimodaliteit
4) AI-docenten op andere niveaus van het onderwijs
5) Goedkoper en sneller
Lees het artikel waar ik op bovenstaande 5 punten inga.
1) Beter denkvermogen
De AI-modellen gaan ‘slimmer’ worden. De CEO van OpenAI Sam Altman geeft aan dat dit een van de belangrijkste dingen is in de modellen waar ze aan werken. Dit betekent dat het minder zal hallucineren. Op dit moment scoort Aisha op verschillende vakken al tussen de 9 en de 10. Dat is al heel goed maar er kunnen sporadisch dus nog steeds onwaarheden uit de bot komen. Dat is logischerwijs vervelend voor het leerproces dus een nog ‘slimmer’ model is essentieel. We zien nu al dat de vmbo bots het significant beter doen dan de havo bots en die doen het op hun beurt weer significant beter dan de vwo bots. De verwachting is dat OpenAI binnen een jaar komt met 2 nieuwe modellen, namelijk ChatGPT 4.5 en ChatGPT 5. Ook zullen hun belangrijkste concurrenten Google, Anthropic en Meta de strijd met hen willen aangaan en ook nieuwe modellen uitbrengen. Binnen een jaar verwacht ik dat het voor de meeste vakken >9.5 zal scoren. Deze verwachting is mede gebaseerd op het volgende punt, langere ‘context windows’.
2) Langere ‘context window’
De context window kun je grofweg zien als een soort werkgeheugen, dus hoeveel de chatbot kan herinneren binnen 1 gesprek. Dit is heel belangrijk, want als het een grote context window heeft, kunnen we het veel informatie meegeven. Bijvoorbeeld het hele curriculum van een bepaald vak, hierdoor gaat het model veel beter gaat presteren op dat vak. We weten dat deze methode een bijna perfecte recall heeft, terwijl de concurrerende RAG methode minder betrouwbaar is. We hebben nu modellen met verschillende context windows, de gratis modellen zitten grofweg in de range van 6.000 tot 75.000. De betaalde versies tussen de 24.000 en 150.000. En er zijn versies waarbij je betaald per token en die gaan nu zelfs naar 750.000 woorden.
Als we modellen krijgen waar we honderdduizenden woorden in kunnen zetten, heeft dat 2 belangrijke voordelen voor de AI-docent: 1) we kunnen veel context toevoegen en gehele vorige examens toevoegen waardoor het beter zal presteren, en ook beter begrijpen wat het niveau moet zijn; 2) als we een gehele methode kunnen toevoegen in de context window kan je heel simpel chatten over hoofdstuk X van boek Y. Je kunt dan de gehele methode volgen met je AI-docent.
3) Multimodaliteit
Op dit moment is Aisha een text-to-text bot, met ook mogelijkheden voor image-to-text. Maar dit gaat natuurlijk meer divers worden. Speech in en speech out is een logische eerste stap. Ook de optie met een gezicht die de theorie uitlegt is slechts een kleine stap met de huidige technologie. Waar het interessanter wordt is als de AI-docent ook afbeeldingen en grafieken kan genereren die relevant zijn voor de uitleg. Van dit fenomeen komen de eerste voorbeelden al. Gatekeep is hier een gaaf voorbeeld van. Het produceert instructievideo’s voor thema’s die jij vraagt. Het maakt dan een video waarin het uitleg met gesproken tekst geeft en het gebruik maakt van een afbeelding. Ik heb het uitgeprobeerd en het werkt in sommige gevallen al best aardig. Hierbij hun trailer: