Van LLM naar SLM: de verschuiving van schaal naar specialisatie

Het artikel “Vergeet Large Language Models: SLM is de nieuwe trend” op AG Connect triggerde mij om verder te kijken naar wat deze ontwikkeling betekent. De discussie over LLM’s gaat vaak over schaal, rekenkracht en training, maar veel minder over relevantie en toepasbaarheid. Toch begint daar nu precies de verschuiving: van generalistische modellen die alles een beetje weten naar compacte modellen die één domein echt begrijpen.

Wat we geleerd hebben van LLM’s

Large Language Models zoals GPT, Gemini en Claude zijn gebouwd op gigantische datasets. Ze verwerken miljarden parameters en leren patronen uit menselijke taal. Hun kracht ligt in breedte: ze kunnen redeneren over uiteenlopende onderwerpen, van medische informatie tot softwarearchitectuur.

De keerzijde is voorspelbaar. Grote modellen zijn traag, duur en lastig te beheren. Ze vragen datacenters vol GPU’s en leveren antwoorden die vaak te algemeen zijn. Voor een enterprise-omgeving is dat zelden ideaal. Een architect die een technische beslissing moet onderbouwen, heeft niets aan een model dat vooral slim lijkt, maar niet begrijpt hoe een changeproces binnen een verzekeraar werkt of wat AFM-compliance inhoudt.

LLM’s zijn dus indrukwekkend in taalbegrip, maar missen context. Hun kennis is breed, niet diep.

Wat SLM’s anders doen

Small Language Models (SLM’s) werken met een fractie van de parameters, vaak miljoenen in plaats van miljarden. Ze worden getraind op domeinspecifieke data, gericht op één taak of vakgebied. Waar een LLM generiek blijft, wordt een SLM doelgericht.

De winst zit niet alleen in performance. SLM’s zijn sneller, goedkoper te hosten en eenvoudiger te fine-tunen. Ze kunnen on-premises draaien of zelfs lokaal op een laptop. Dat maakt ze aantrekkelijk voor organisaties die privacy, datasoevereiniteit en controle belangrijk vinden.

Een SLM is dus geen afgeslankte versie van een LLM, maar een ander concept. Het gaat niet om minder, maar om gerichter.

Overeenkomsten tussen LLM en SLM

Beide typen werken op basis van dezelfde onderliggende principes: transformerarchitecturen, tokenisatie en probabilistische voorspellingen. Ze gebruiken vergelijkbare trainingsmethoden en kunnen tekst genereren, samenvatten en analyseren.

Het verschil zit in schaal en doel. Een LLM leert alles een beetje. Een SLM leert één domein goed. Daardoor verschuift de focus van “algemene intelligentie” naar “taakgerichte expertise”. Je zou het kunnen vergelijken met het verschil tussen een encyclopedie en een vakhandboek. De encyclopedie is breder, maar het handboek is bruikbaarder als je iets moet oplossen.

Architectuur en technische implicaties

De komst van SLM’s dwingt ons anders te denken over architectuur. Waar een LLM vaak extern draait via API’s van grote aanbieders, kunnen SLM’s onderdeel worden van het eigen applicatielandschap. Dat verandert het patroon van integratie, security en lifecyclemanagement.

  • Integratiepatronen: Bij een LLM koppel je meestal extern via REST of gRPC. Bij een SLM kun je embedding, vector search en modelinference lokaal uitvoeren. Dat maakt het mogelijk om kennis uit interne bronnen (documentatie, tickets, beleidsregels) te combineren met het model. Je bouwt feitelijk een intern kennisanker.
  • Data-soevereiniteit: Omdat SLM’s vaak lokaal draaien, blijven gevoelige gegevens binnen de organisatie. In sectoren zoals verzekeren, zorg of overheid is dat essentieel. Het past binnen compliance-eisen zoals GDPR en richtlijnen van de AFM of DNB. Je weet precies welke data in de training zit en wat eruit komt.
  • Kosten en energieverbruik: Een groot model vraagt GPU-clusters en continue updates. Een klein model kan draaien op CPU’s of edge-apparaten. Dat verlaagt kosten en energieverbruik aanzienlijk. In DevOps-termen: de MTTR van een modelupdate daalt van dagen naar minuten.
  • Versiebeheer en monitoring: Een LLM is meestal een black box van de leverancier. Een SLM kun je versiebeheer geven in Git, testen via CI/CD en monitoren via APM-tools. Daarmee komt AI binnen bereik van normale softwaregovernance. Modelbeheer wordt een onderdeel van de architectuur, niet van de hype.

De enterprise-context: van generiek naar relevant

In de verzekeringswereld zie ik dagelijks hoe belangrijk domeinkennis is. Of het nu gaat om polisacceptatie, fraudedetectie of schadeafhandeling: context bepaalt alles. Een LLM weet wat een verzekering is, maar niet hoe acceptatieregels, clausules of premieberekeningen werken binnen een specifieke organisatie.

Een SLM kan juist daarin excelleren. Train het model op interne documenten, productvoorwaarden en klantscripts, en je krijgt een virtuele medewerker die het eigen landschap begrijpt. Niet om te vervangen, maar om te ondersteunen.

Denk aan een “policy assistant” die vragen van tussenpersonen beantwoordt, of een “DevOps-coach” die logbestanden leest en configuratiefouten herkent. Geen sciencefiction, maar praktische toepassingen die al bestaan.

Ontwikkelperspectief: SLM’s als nieuwe bouwsteen

Voor ontwikkelaars betekent dit een verschuiving in mindset. Je bouwt niet meer rond een generiek AI-platform, maar rond een domeinspecifiek model. De architectuur verandert van een centrale intelligentielaag naar meerdere kleine modellen dicht bij de bron.

Het lijkt op microservices: veel kleine, zelfstandige eenheden die één taak goed uitvoeren. Ook hier geldt: eenvoud per onderdeel, complexiteit in de samenhang.

De tools bewegen dezelfde kant op. Open-source frameworks zoals Ollama, Llama.cpp en Hugging Face Transformers maken het mogelijk om modellen lokaal te draaien of te fine-tunen. Daarmee ontstaat een ecosysteem van herbruikbare SLM’s per vakgebied: juridisch, medisch, financieel, technisch.

Risico’s en aandachtspunten

  • Kwaliteitsborging: kleine modellen kunnen sneller overfitten op beperkte data. Zonder goed databeheer verlies je betrouwbaarheid.
  • Onderhoud: domeinen veranderen. Een verzekeringsproduct of wetgeving wijzigt, en het model moet mee. Dat vraagt een proces voor hertraining en validatie.
  • Ethiek en bias: ook in kleine modellen kunnen vooroordelen sluipen. Doordat de scope kleiner is, vallen die soms juist minder op.
  • Beveiliging: lokaal draaien betekent ook lokaal beveiligen. Modelbestanden zijn herleidbaar en kunnen gevoelige bedrijfskennis bevatten.

De sleutel ligt in governance: weten wat je model doet, waarom het dat doet en hoe je dat aantoonbaar maakt. Hier kruisen AI en enterprise-architectuur elkaar direct.

Architect als regisseur

De rol van de architect verandert mee. Waar AI eerst een externe dienst was, wordt het nu onderdeel van de systeemarchitectuur. Dat vraagt andere keuzes in ontwerpprincipes: data-locatie, traceerbaarheid, schaalbaarheid en verantwoording.

Een architect moet straks niet alleen weten hoe een model werkt, maar ook hoe het zich gedraagt in productie. Hoe borg je consistentie tussen versies? Hoe test je gedrag na updates? Hoe integreer je modeloutput in bestaande processen zonder menselijke controle te verliezen?

De uitdaging lijkt op die van automatisering in DevOps. Alles wat je automatiseert, moet je ook kunnen uitleggen. “Explainable AI” wordt daarmee niet alleen een ethische eis, maar een architecturale randvoorwaarde.

Praktisch voorbeeld: SLM binnen een verzekeraar

  • Voordeel: kennis is direct beschikbaar zonder dat data naar buiten gaat.
  • Beheer: versiebeheer via Git, hertraining per kwartaal.
  • Veiligheid: data blijft binnen de compliancezone.
  • Toegevoegde waarde: medewerkers besteden minder tijd aan zoeken en meer aan beslissen.

Dit is niet hypothetisch. De technologie bestaat al. Het verschil zit in hoe we het durven te implementeren.

De bredere beweging

De verschuiving van LLM naar SLM past in een bredere trend van decentralisatie. We bewegen van centrale clouds naar hybride omgevingen, van uniforme platforms naar maatwerk. AI volgt datzelfde pad.

Net zoals microservices en containerisatie ooit de monolieten vervingen, kunnen SLM’s de reuzen van vandaag aanvullen of zelfs vervangen. Niet omdat ze groter zijn, maar omdat ze beter passen bij wat een organisatie nodig heeft: relevantie, controle en efficiëntie.

De hype rond “bigger is better” maakt plaats voor “smarter is smaller”.

Toekomst en architectuurimpact

  • Domeinmodellen als kerncomponent: Organisaties gaan eigen SLM’s beheren als intellectueel eigendom. Modellen worden even waardevol als broncode of data.
  • AI-platforms verschuiven naar hybride: Bedrijven combineren publieke LLM’s (voor generieke taken) met interne SLM’s (voor domeinspecifieke kennis).
  • Governance als onderscheidend vermogen: De echte volwassenheid van AI zit straks niet in modelprestaties, maar in governance: wie traint, wie valideert, wie controleert.

Voor architecten betekent dit dat AI geen black box meer is, maar een volwaardig onderdeel van het landschap. Data lineage, versiebeheer en traceability worden even belangrijk als latency en uptime. We gaan van vragen “Wat doet het model?” naar “Hoe past het in ons systeemlandschap?”

Digitale soevereiniteit en geopolitiek risico

De beweging richting SLM’s raakt ook aan een onderwerp dat vaak onderbelicht blijft: digitale soevereiniteit. Veel Europese organisaties draaien vandaag AI-diensten op infrastructuur van Amerikaanse hyperscalers zoals Microsoft, Google en Amazon. Dat is praktisch, maar het creëert afhankelijkheid.

Wanneer infrastructuur en modellen buiten Europa worden gehost, vallen ze onder niet-Europese wetgeving. Regeringen kunnen data opvragen, toegang afdwingen of zelfs onderdelen tijdelijk uitschakelen. Voor organisaties die werken met gevoelige informatie, zoals banken, verzekeraars of overheidsinstanties, is dat een reëel risico.

Een recent voorbeeld illustreert dat goed: medewerkers van het Internationaal Strafhof kregen te maken met geblokkeerde Microsoft-accounts na geopolitieke spanningen. Dat laat zien hoe kwetsbaar digitale afhankelijkheid kan zijn, zelfs bij instellingen met de hoogste veiligheidsnormen.

SLM’s bieden hier een alternatief. Door kleinere, domeinspecifieke modellen lokaal of in een Europese cloud te draaien, behouden organisaties controle over hun data en infrastructuur. Het versterkt autonomie, reduceert afhankelijkheid en sluit aan bij de groeiende Europese aandacht voor digitale strategische onafhankelijkheid.

Voor architecten en bestuurders betekent dit dat modelkeuze ook een geopolitieke component krijgt. De vraag is niet alleen wat een model kan, maar waar het draait en wie er toegang toe heeft.

Slotbeschouwing

De verschuiving van LLM naar SLM is geen hype, maar een correctie. We keren terug van schaal naar specialisatie. Van generalisten die alles een beetje weten naar experts die één ding goed doen.

Voor organisaties in gereguleerde sectoren, zoals verzekeren, is dit een kans. Door kleinere modellen te trainen op eigen kennis, ontstaat echte digitale intelligentie: begrijpelijk, beheersbaar en relevant.

Waar LLM’s de taal begrijpen, leren SLM’s het vak.

Plaats een reactie