Toen Meta in 2023 de gewichten van zijn Llama-model publiek beschikbaar maakte, veranderde er iets fundamenteels in de AI-wereld. Niet omdat het model beter was dan de gesloten alternatieven. Dat was het niet. Maar omdat het liet zien dat een krachtig taalmodel niet langer alleen toegankelijk hoefde te zijn via de dienst van de bouwer. Iedereen met voldoende rekenkracht kon het downloaden, draaien en aanpassen. Die verschuiving heeft in twee jaar een heel ecosysteem in beweging gezet dat het evenwicht tussen gesloten en open-weight modellen blijvend verandert.
Roland Bieleveldt
Meer over Open versus gesloten modellen?
Bekijk de complete gids en alle gerelateerde artikelen.
Bekijk gidsEen open-weight model is een AI-model waarvan de getrainde parameters, de gewichten, publiek beschikbaar zijn om te downloaden. Die gewichten zijn het eindresultaat van het complete trainingsproces: de patronen die het model heeft vastgelegd tijdens pretraining, de gedragseigenschappen die het heeft geleerd tijdens posttraining, en de alignment-keuzes die de bouwer heeft aangebracht.
Met die gewichten kan een organisatie het model draaien op eigen hardware of bij een hostingpartner. Het model hoeft niet via een externe API te worden aangesproken. De data blijven binnen de eigen infrastructuur. En het model kan worden aangepast: fine-tuning op eigen data, bijsturing van het gedrag, integratie in eigen systemen zonder afhankelijkheid van de oorspronkelijke bouwer.
Dat is een wezenlijk ander model van toegang dan bij gesloten modellen. Bij een gesloten model huur je een dienst. Bij een open-weight model krijg je het resultaat van het trainingsproces in handen.
Hier zit een onderscheid dat in de praktijk veel verwarring veroorzaakt, en dat er werkelijk toe doet zodra een organisatie keuzes maakt.
Bij een open-weight model zijn de gewichten publiek. Een organisatie kan het model downloaden en gebruiken. Dat is een enorme stap vergeleken met een gesloten model. Maar het is niet het volledige plaatje.
De trainingsdata, de samenstelling van de pretraining-dataset, de exacte trainingscode en de details van het posttraining-proces zijn bij de meeste open-weight modellen niet openbaar. De gebruiker krijgt het eindproduct, niet het productieproces. Het is vergelijkbaar met het kopen van een auto: je kunt ermee rijden en je kunt onderdelen vervangen, maar je hebt geen toegang tot de fabriek, de productietekeningen of de testresultaten.
Een echt open-source model deelt alles: de gewichten, de trainingsdata, de trainingscode, de evaluatieresultaten en de volledige documentatie. Dat maakt het mogelijk om het model van de grond af te reproduceren, elke ontwerpkeuze te inspecteren en het trainingsproces volledig te doorlopen. Modellen als OLMo van het Allen Institute voldoen aan die standaard. Ze zijn zeldzaam, en ze worden vooral ingezet in academisch onderzoek en door organisaties die volledige transparantie nodig hebben.
Dat klinkt misschien als een academische kwestie. Dat is het niet. Een organisatie die een open-weight model inzet, kan het fine-tunen en aanpassen, maar kan niet onafhankelijk vaststellen op welke data het is getraind. Dat beperkt de mogelijkheid om vertekeningen in het model te identificeren of om te beoordelen of het model geschikt is voor een specifiek domein. Een echt open-source model biedt die inspectie wel. Voor de meeste commerciële toepassingen is een open-weight model ruim voldoende. Voor toepassingen waar verantwoording, transparantie of regulatorische vereisten een rol spelen, kan het verschil bepalend zijn.
Twee jaar geleden was het antwoord op “wie maakt open-weight modellen?” nog kort: Meta, en een handvol kleinere spelers. Dat is voorbij. Het veld is explosief gegroeid.
Meta investeert met Llama structureel in open-weight modellen. Het bedrijf traint modellen op dezelfde schaal als de gesloten aanbieders en maakt de gewichten publiek beschikbaar. Alibaba doet hetzelfde met de Qwen-familie, die inmiddels in downloadaantallen de grootste open-weight modelfamilie ter wereld is. Google publiceert de Gemma-modellen als compactere open-weight varianten naast het gesloten Gemini.
DeepSeek, een Chinees AI-laboratorium, demonstreerde begin 2025 dat een open-weight redeneermodel kon presteren op het niveau van de beste gesloten modellen, tegen een fractie van de trainingskosten. Mistral, een Frans bedrijf, positioneert zich als Europees alternatief met open-weight modellen die sterk presteren op Europese talen. Microsoft publiceert de Phi-modellen, geoptimaliseerd voor redeneren op compacte schaal.
Wat opvalt is de snelheid waarmee nieuwe spelers verschijnen en bestaande modellen worden overtroffen. Het veld is breder en dynamischer dan het gesloten segment. Dat heeft een praktisch gevolg: de keuze voor een open-weight model is geen eenmalige beslissing maar een doorlopende afweging, omdat er regelmatig betere alternatieven beschikbaar komen.
Tot begin 2025 was er een helder verschil in prestatie tussen de beste gesloten en de beste open-weight modellen. Op vrijwel alle taken hadden gesloten modellen de bovenhand, met een voorsprong die soms tientallen procentpunten bedroeg op standaardbenchmarks. Dat beeld is aan het verschuiven, maar het is genuanceerder dan de koppen soms suggereren.
Op de taken die de meeste organisaties dagelijks gebruiken, zoals tekst samenvatten, content genereren, code schrijven en data verwerken, is het verschil tussen de beste open-weight en gesloten modellen klein geworden. In sommige gevallen is het nauwelijks merkbaar. Maar op de moeilijkste taken vertelt de data een ander verhaal. Op complexe redenering, werkstromen die meerdere stappen vereisen en taken die nauwkeurige instructieopvolging vergen, houden gesloten modellen een voorsprong van enkele procentpunten tot meer dan tien procentpunten, afhankelijk van de benchmark. De trend wijst naar verdere convergentie, maar de kloof is niet gesloten.
Wat betekent dat voor de keuze? Dat prestatie steeds minder vaak het doorslaggevende argument is voor een gesloten model, maar dat het op de moeilijkste taken nog steeds meetelt. Twee jaar geleden was “het beste model is gesloten” op vrijwel elke taak een geldig argument. Vandaag geldt dat vooral nog voor de meest veeleisende toepassingen. Voor de rest gaat het gesprek steeds meer over kosten, privacy, aanpasbaarheid en afhankelijkheid.
Open-weight betekent niet automatisch “vrij te gebruiken voor elk doel.” Elke modelfamilie hanteert eigen licentievoorwaarden, en de verschillen zijn substantieel.
Sommige modellen worden gepubliceerd onder permissieve licenties als Apache 2.0, die vrijwel onbeperkt commercieel gebruik toestaan. Andere hanteren eigen licenties met beperkingen: maximale gebruikersaantallen, restricties op specifieke toepassingsgebieden of verplichtingen om het gebruik te melden. Weer andere verbieden commercieel gebruik expliciet.
Wat dat in de praktijk betekent: controleer de licentie voordat een model in productie gaat. Die juridische beoordeling wordt vaak overgeslagen. Achteraf kan dat kostbaar zijn.
Het centrale voordeel van een open-weight model is controle. De data blijven binnen de organisatie. Het model verandert niet tenzij de organisatie dat zelf initieert. De alignment kan worden bijgestuurd. De technische instellingen zijn volledig configureerbaar. Voor organisaties waarvoor privacy, voorspelbaarheid of aanpasbaarheid zwaar wegen, is dat doorslaggevend.
Bij hoog volume kan een open-weight model aanzienlijk goedkoper zijn dan een gesloten model. De initiële investering in infrastructuur en configuratie is hoger. Maar de kosten per verzoek zijn lager en schalen lineair met de rekencapaciteit, niet met het gebruik. Voor organisaties die dagelijks duizenden verzoeken verwerken, verschuift de kostenbalans richting open-weight.
Die voordelen komen met een drempel. Een open-weight model draaien, configureren en onderhouden vereist technische expertise. De tools zijn de afgelopen twee jaar aanzienlijk toegankelijker geworden, maar de operationele verantwoordelijkheid ligt bij de organisatie zelf: updates, monitoring, veiligheid en prestatiebewaking.
Wie de alignment van een open-weight model aanpast, draagt zelf de verantwoordelijkheid voor de gevolgen. Een gesloten model heeft ingebouwde veiligheidsmaatregelen die door de modelbouwer worden onderhouden. Bij een open-weight model is de organisatie zelf de beheerder van die maatregelen. Dat is vrijheid met een bijsluiter.
Wat het in de praktijk betekent om met een open-weight model te werken, hangt sterk af van de organisatie.
Een universitair medisch centrum zet een open-weight model in voor het samenvatten van wetenschappelijke publicaties ten behoeve van interne kennisdeling. Het model draait op de eigen servers van het centrum, binnen het ziekenhuisnetwerk. Geen data verlaten de organisatie. Het team heeft het model gefinetuned op tienduizend bestaande samenvattingen die door onderzoekers zijn goedgekeurd, waardoor het model de structuur en de terminologie van het vakgebied overneemt. De initiële opzet vergde drie maanden en betrokkenheid van een data-engineer. Het resultaat: samenvattingen die door onderzoekers worden beoordeeld als kwalitatief vergelijkbaar met wat gesloten modellen produceren, met het voordeel dat de patiëntgerelateerde publicaties het ziekenhuis niet verlaten.
Een juridisch adviesbureau onderzoekt de inzet van een open-weight model voor het analyseren van contracten. De drijfveer is niet kosten maar vertrouwelijkheid: de contracten van cliënten mogen onder geen beding naar een externe partij worden gestuurd. Het bureau kiest een open-weight model dat het bij een Europese hostingpartner laat draaien, met een contractuele garantie dat de data binnen de EU blijven. De fine-tuning op juridische teksten verbetert de herkenning van clausuletypen en risicofactoren. De operationele last is hoger dan bij een gesloten model: het bureau heeft een consultant ingehuurd voor de configuratie en betaalt maandelijks voor hosting en onderhoud. De afweging was helder: de vertrouwelijkheidsvereisten wogen zwaarder dan het gemak van een gesloten model.
Wie wil begrijpen hoe gesloten modellen werken en wat de voordelen en beperkingen zijn van het model-als-dienst, leest Gesloten modellen (cluster 2.4a).
Wie wil begrijpen hoe fine-tuning werkt en wanneer het zinvol is om een model aan te passen aan een specifiek domein, vindt dat bij Fine-tuning (cluster 2.3a).
Wie wil weten hoe het pretraining-fundament wordt opgebouwd dat zowel aan gesloten als aan open-weight modellen ten grondslag ligt, leest Pretraining: het fundament bouwen (cluster 2.2).