Toen OpenAI eind 2022 ChatGPT lanceerde, veranderde de wereld van de ene op de andere dag. Plotseling had iedereen het over AI. Maar achter de chatbot die de hele wereld in zijn greep hield, zit iets fundamentelers: een foundation model. En als je een professional bent die beslissingen neemt over AI in je organisatie, is begrijpen wat een foundation model is belangrijker dan weten hoe je de perfecte prompt schrijft.
De term "foundation model" werd in 2021 bedacht door onderzoekers van Stanford University. Ze hadden een naam nodig voor een nieuwe klasse AI-systemen die niet netjes in bestaande categorieën paste. Dit waren niet de smalle, taakgerichte AI-systemen die bedrijven al jaren gebruikten om spam te filteren of producten aan te bevelen. Dit was iets heel anders.
Een foundation model is een groot AI-systeem dat getraind is op enorme hoeveelheden data en aangepast kan worden voor een breed scala aan taken. Zie het als het verschil tussen een specialist en een generalist. Traditionele AI-modellen waren specialisten: getraind op een specifieke dataset om een specifiek ding te doen. Een spamfilter kijkt naar e-mails. Een aanbevelingsengine kijkt naar aankoopgeschiedenis. Elk doet zijn werk goed, maar vraag het iets anders te doen en het faalt volledig.
Foundation models zijn generalisten. GPT-4, Claude, Gemini, Llama, deze systemen zijn getraind op enorme datasets met boeken, websites, code-repositories, wetenschappelijke artikelen en nog veel meer. Het resultaat is een model dat een breed begrip heeft ontwikkeld van taal, redenering en kennis. Je kunt het vragen een juridisch memo te schrijven, kwantumfysica uit te leggen, een document te vertalen of een spreadsheet te analyseren. Het kan al deze taken aan omdat het patronen heeft geleerd over al deze domeinen heen.
Het woord "foundation" is bewust gekozen. Deze modellen dienen als fundament waarop specifieke toepassingen worden gebouwd. ChatGPT is een applicatie gebouwd bovenop het GPT-4 foundation model. GitHub Copilot gebruikt dezelfde onderliggende technologie maar past het specifiek toe op code. Microsoft 365 Copilot gebruikt het voor kantoorproductiviteit. Een fundament, veel gebouwen.
Het trainingsproces achter een foundation model is conceptueel eenvoudig, ook al is de techniek enorm complex. Het model leest tekst en leert te voorspellen wat er daarna komt. Bij de zin "De hoofdstad van Frankrijk is" leert het model dat "Parijs" het meest waarschijnlijke volgende woord is. Doe dit miljarden keren over terabytes aan tekst, en er gebeurt iets opmerkelijks: het model ontwikkelt wat lijkt op begrip.
Sluit je aan bij duizenden professionals die AI-vaardigheden leren met interactieve cursussen.
Het leert grammatica zonder grammaticaregels te krijgen. Het leert feiten zonder een database te raadplegen. Het leert redeneerpatronen zonder expliciete logische programmering. Deze emergente capaciteit is wat foundation models zo krachtig maakt en, eerlijk gezegd, zo verrassend voor zelfs de onderzoekers die ze bouwen.
Maar hier is het cruciale punt: foundation models zijn probabilistisch, niet deterministisch. Ze zoeken geen antwoorden op in een database. Ze genereren antwoorden op basis van statistische patronen die ze tijdens de training hebben geleerd. Daarom kunnen ze met stelligheid fouten maken. Het veld noemt deze fouten "hallucinaties" en het is geen bug die in de volgende versie wordt opgelost. Het is een fundamenteel kenmerk van hoe deze systemen werken.
Foundation models vereisen rekenkracht die een decennium geleden ondenkbaar was. Het trainen van GPT-4 kostte naar verluidt meer dan 100 miljoen dollar aan computercapaciteit alleen. Het model heeft honderden miljarden parameters: de numerieke waarden die het model tijdens de training aanpast om zijn voorspellingen te verbeteren.
Deze schaal is praktisch relevant voor organisaties. Je eigen foundation model bouwen is voor vrijwel geen enkel bedrijf realistisch. In plaats daarvan heeft de markt een patroon ontwikkeld waarin een handvol bedrijven, OpenAI, Google, Anthropic, Meta en enkele anderen, foundation models bouwen. De rest bouwt applicaties bovenop deze modellen via API's en integraties.
Dit creëert een afhankelijkheid met significante gevolgen. Je AI-tools zijn slechts zo goed als het foundation model waarop ze gebouwd zijn. Wanneer OpenAI GPT-4 bijwerkt, verandert elke applicatie die erop gebouwd is mee. Maar het betekent ook dat je afhankelijk bent van de beslissingen van deze aanbieders over prijzen, dataverwerking en modelgedrag.
De Europese Unie erkende dat foundation models, die in de EU AI Act general-purpose AI-modellen (GPAI) worden genoemd, specifieke regulering vereisen. Hoofdstuk V van de EU AI Act stelt verplichtingen vast specifiek voor aanbieders van deze modellen.
Als je aanbieder bent van een general-purpose AI-model, moet je technische documentatie bijhouden, een auteursrechtbeleid opstellen en een voldoende gedetailleerde samenvatting van trainingsdata verstrekken. Als je model geclassificeerd wordt als een model met systemisch risico, wat momenteel geldt voor elk model dat getraind is met meer dan 10^25 floating point-operaties, krijg je aanvullende verplichtingen waaronder adversarial testing, incidentrapportage en cyberbeveiligingsmaatregelen.
Maar de meeste organisaties zijn geen aanbieders van foundation models. Ze zijn gebruikers (deployers), die foundation models gebruiken via producten en API's. Voor gebruikers is de kernverplichting onder Artikel 4 het waarborgen van AI-geletterdheid: ervoor zorgen dat je team begrijpt wat deze systemen wel en niet kunnen. En dat begint met begrijpen wat een foundation model eigenlijk is.
Weten wat een foundation model is, verandert hoe je AI-tools evalueert. Wanneer een leverancier zegt dat hun product "AI gebruikt," weet je nu dat je moet vragen: welk foundation model? Via welke API? Wat gebeurt er als dat model wordt bijgewerkt of uitgefaseerd?
Het verandert hoe je risico's beoordeelt. De trainingsdata van een foundation model bepaalt wat het weet en welke vooroordelen het draagt. Als je een AI-tool gebruikt voor werving, moet je begrijpen dat het foundation model erachter getraind is op internetdata die bestaande maatschappelijke vooroordelen weerspiegelt. De tool is niet neutraal alleen omdat het geautomatiseerd is.
Het verandert hoe je voor de toekomst plant. Foundation models verbeteren snel. Mogelijkheden die vandaag niet bestaan, bestaan volgend jaar wel. Rigide processen bouwen rond huidige AI-beperkingen betekent dat je over twaalf maanden weer moet herstructureren. Flexibele processen bouwen die nieuwe mogelijkheden kunnen absorberen, is de slimmere aanpak.
En het verandert hoe je nadenkt over het opleiden van je team. AI-geletterdheid gaat niet over iedereen leren betere prompts te schrijven. Het gaat over het opbouwen van een gedeeld begrip van wat deze systemen zijn, hoe ze werken, waar ze falen en welke verantwoordelijkheden het gebruik ervan met zich meebrengt. De EU AI Act maakt dit een expliciete wettelijke verplichting. Maar zelfs zonder regulering is het simpelweg verstandig bedrijfsbeleid.
Foundation models evolueren snel. Multimodale modellen zoals GPT-4o en Gemini verwerken al tekst, afbeeldingen, audio en video. Redeneermodellen zoals OpenAI's o1 en Claude's extended thinking kunnen complexe problemen stap voor stap doorwerken. Agentische AI-systemen die acties kunnen ondernemen, niet alleen tekst genereren, komen snel op.
Elk van deze ontwikkelingen bouwt voort op het foundation model-concept. Dat concept begrijpen geeft je een kader om elke nieuwe AI-ontwikkeling te evalueren. In plaats van verdwalen in de hypecyclus, kun je de juiste vragen stellen: waarop is dit model getraind? Wat zijn de beperkingen? Hoe past het in ons risicoframework? Wat moeten onze mensen weten om het verantwoord te gebruiken?
Dat kader is wat organisaties die AI succesvol adopteren onderscheidt van organisaties die het roekeloos doen. En het begint met het begrijpen van het fundament.