De toepassing van Large Language Models zoals ChatGPT heeft zo’n hoge vlucht genomen, dat we bijna zouden vergeten dat er ook nog andere typen AI zijn. Wat gaat de toekomst van AI ons brengen?
We zetten ze steeds vaker in als handige hulpjes die rapporten samenvatten, e-mails opstellen, computercodes kloppen en wat al niet meer. Large Language Models (LLM’s) zijn zogenaamde ‘neurale netwerken’: computermodellen die zijn geïnspireerd op de werking van het menselijk brein. Ze vinden patronen in enorme hoeveelheden geschreven of gesproken tekst. Op basis daarvan berekenen ze de kans dat een bepaald woord binnen een bepaalde context kan volgen op een ander woord en dat die woorden samen een plausibel antwoord zouden kunnen vormen op een specifieke vraag. LLM’s zijn echter niet het enige type artificiële intelligentie. Welke ontwikkelingen op AI-gebied verdienen nog meer onze aandacht?
Minder regelknoppen
Dat het vakgebied zo’n vlucht heeft genomen, had van tevoren niemand voorzien, vertelt LLM-onderzoeker Antal van den Bosch van de Universiteit Utrecht. “Zo’n zeventig, tachtig jaar geleden begonnen mensen zich bezig te houden met kunstmatige intelligentie. Wat is er nodig om de hogere functies van het menselijk brein te laten overnemen door computers? Die computer moet kunnen leren, kennis representeren, redeneren, plannen en eventuele sensoren van een robot moet je managen. Een klein stukje hield zich bezig met taal.” Dat dit kleine stukje zo overheersend zou worden, komt door de komst van het internet en daarmee de beschikbaarheid van enorme hoeveelheden gesproken en geschreven tekst om de modellen op te trainen. Snelle ontwikkelingen in de chip- en gamingindustrie voegden de nodige rekenkracht toe. Neurale netwerken als LLM’s en allerlei beeldanalysesystemen konden daardoor razendsnel worden opgeschaald.
Inmiddels is duidelijk dat LLM’s ook de nodige beperkingen en zelfs nadelen hebben. Zo kost met name het trainen van de modellen erg veel energie. Dat heeft te maken met het aantal parameters: de ‘regelknoppen’ waarmee het programma zo kan worden afgesteld, dat het goed functioneert. Hoe meer parameters, des te meer knoppen om het LLM mee te verfijnen. “ChatGPT5 heeft ongeveer 1,7 triljoen parameters”, zegt Eric Postma, hoogleraar AI aan Tilburg University. “Dat is een enorm aantal en het kost erg veel energie om aan al die knoppen te rekenen. Er is momenteel enorm veel onderzoek gaande om te kijken hoe we die modellen simpeler kunnen maken. Het idee is dat het aantal parameters moet kunnen worden teruggebracht, alleen weten we nog niet hoe.”
Lees verder op Nemo Kennislink.