Kunstmatige intelligentie is niet meer weg te denken uit de moderne werkomgeving. ChatGPT, Copilot, Claude — medewerkers gebruiken deze tools dagelijks voor tekstverwerking, samenvatting, analyse en codegeneratie. Maar voor organisaties die werken met privacygevoelige data stelt dit een serieuze vraag: is het verstandig om bedrijfsgevoelige informatie te sturen naar servers van Microsoft, OpenAI of Google?

Het antwoord hangt af van uw situatie — maar voor een groeiende groep organisaties is een lokale LLM de betere keuze. Wij leggen uit waarom.

Wat is een LLM?

LLM staat voor Large Language Model — een type AI dat is getraind op enorme hoeveelheden tekst en daardoor in staat is om menselijke taal te begrijpen en te genereren. GPT-4 (OpenAI), Llama (Meta) en Mistral zijn bekende voorbeelden. Ze zijn de motor achter tools als ChatGPT, GitHub Copilot en Microsoft 365 Copilot.

Een LLM is geen zoekmachine — het "zoekt" niet in een database. In plaats daarvan genereert het een respons op basis van patronen die het tijdens de training heeft geleerd. U stelt een vraag, het model geeft een antwoord dat statistisch gezien logisch aansluit op uw invoer. De kracht zit in de breedte: een goed getraind model kan code schrijven, documenten samenvatten, vragen beantwoorden, vertalen en analyseren.

Cloud AI vs lokale LLM: de kernverschillen

Aspect Cloud AI (ChatGPT, Copilot) Lokale LLM (Ollama + eigen hardware)
Datalocatie Data verlaat uw netwerk en wordt verwerkt op externe servers Data blijft volledig binnen uw eigen omgeving
AVG-compliance Afhankelijk van verwerkersovereenkomst en datacenterlokatie Geen data-export, volledige controle
Kosten Abonnement per gebruiker of per token Eenmalige hardware + beheer, geen per-gebruik kosten
Beschikbaarheid Afhankelijk van internetverbinding en uptime provider Werkt ook offline, geen externe afhankelijkheid
Modelkwaliteit Toegang tot de grootste modellen (GPT-4o, Claude 3.5) Iets lager voor de meest complexe taken, maar sterk verbeterend
Aanpassing Beperkt; u heeft geen toegang tot het model zelf Volledig aanpasbaar; fine-tuning en custom prompts mogelijk

Wanneer is lokale LLM de juiste keuze?

Een lokale LLM is niet voor iedereen noodzakelijk — maar voor bepaalde organisaties is het de enige verantwoorde keuze. Denk aan:

Organisaties met AVG-gevoelige data

Elke organisatie die persoonsgegevens verwerkt, valt onder de AVG (GDPR). Als medewerkers klantnamen, e-mailadressen, contractgegevens of andere persoonsgegevens in een AI-tool plakken, gaat dat data naar een externe verwerker. Dat vereist minimaal een verwerkersovereenkomst en de garantie dat de data niet voor trainingsdata wordt gebruikt. Bij lokale AI is dit geen issue — er gaat simpelweg niets naar buiten.

Medische en sociale sector

Zorgverleners, GGZ-instellingen en sociaal werkers werken dagelijks met bijzondere persoonsgegevens: medische dossiers, diagnoses, behandelplannen. Deze data is onder de AVG extra beschermd en mag niet zomaar worden gedeeld met externe partijen. Een lokale AI-assistent biedt hier uitkomst: ondersteuning bij rapportage en samenvatting, zonder dat patiëntdata de eigen omgeving verlaat.

Financiële en juridische dienstverlening

Accountants, advocaten en notarissen werken met vertrouwelijke financiële en juridische informatie die onder geheimhouding valt. BSN-nummers, jaarrekeningen, contracten — dit zijn gegevens die u niet wilt zien verschijnen in een trainingsset van een Amerikaans AI-bedrijf. Lokale AI maakt het gebruik van AI-ondersteuning mogelijk zonder dit risico.

Overheid en onderwijs

Overheidsorganisaties en onderwijsinstellingen verwerken gegevens van burgers en leerlingen. Er zijn strikte regels over waar die data opgeslagen mag worden en wie er toegang toe heeft. Lokale AI biedt hier de controle die nodig is om AVG-compliant te werken.

Hoe zet 5iX lokale LLM in?

Wij draaien lokale AI op eigen GPU-servers in ons datacenter in Haarlem. De technische stack die wij gebruiken:

  • Ollama: Open-source LLM runtime die het uitvoeren van AI-modellen vereenvoudigt. Ondersteunt tientallen open-source modellen (Llama, Mistral, Qwen en anderen).
  • Eigen hardware: GPU-servers met NVIDIA-kaarten in ons eigen datacenter. Geen gebruik van publieke cloud voor AI-inferentie.
  • Open WebUI: Gebruiksvriendelijke chatinterface die uw medewerkers direct kunnen gebruiken, vergelijkbaar met ChatGPT maar volledig intern.
  • n8n-integratie: Via n8n koppelen wij lokale AI aan bestaande workflows — documentverwerking, samenvatting van e-mails, automatische rapportage.
  • PII-filtering: Wij hebben een proxy ontwikkeld die BSN-nummers en andere gevoelige identificatoren automatisch filtert voordat ze het model bereiken, als extra veiligheidslaag.

Praktische voorbeelden

Hoe ziet het gebruik van een lokale LLM er in de praktijk uit?

  • AI-assistent voor intern gebruik: Medewerkers stellen vragen over interne procedures, laten documenten samenvatten of laten teksten herschrijven — zonder dat iets de eigen omgeving verlaat.
  • Documentanalyse: Contracten, rapporten en e-mails worden automatisch samengevat. Een medewerker krijgt in seconden de kernpunten van een 30 pagina's tellend document.
  • Codegeneratie voor IT-teams: Beheerders gebruiken de AI voor het schrijven van scripts, Ansible-playbooks of SQL-queries — op een intern systeem dat niemand van buiten kan benaderen.
  • Rapportgeneratie: Via n8n haalt het systeem automatisch data op uit meerdere bronnen, stuurt het naar het lokale model en genereert het een dagelijks rapport dat naar de wiki wordt gepubliceerd.

5iX gebruikt zelf lokale LLM-modellen voor onze interne AI-diensten. Alle AI-ondersteuning die wij voor onze medewerkers en systemen inzetten, draait op onze eigen hardware. Geen data verlaat onze omgeving.

Bent u benieuwd of een lokale LLM iets is voor uw organisatie? Wij geven u graag een eerlijk beeld van de mogelijkheden, kosten en beperkingen — zonder overselling.