IT-specialist in overleg met journalist in een moderne nieuwsredactie met laptop

Peter Vandermeersch geschorst: wat de AI-quotes affaire betekent voor IT-beveiliging in redacties

Kunstmatige Intelligentie 4 min leestijd 20 maart 2026

Peter Vandermeersch, voormalig hoofdredacteur van De Standaard en NRC Handelsblad, is op 19 maart 2026 door mediagroep Mediahuis geschorst na een schandaal dat de journalistiek raakt in haar diepste kern: in 15 van zijn 53 blogposts gebruikte hij door AI gefabriceerde citaten — uitspraken die mensen nooit hebben gedaan. Zeven betrokkenen bevestigden dat de aan hen toegeschreven woorden volledig verzonnen zijn. De affaire is meer dan een reputatiekwestie. Ze stelt een vraag waar elke organisatie die AI gebruikt mee geconfronteerd wordt: hoe beheers je de risico's van kunstmatige intelligentie in je werkprocessen?

Wat er precies gebeurde

Vandermeersch schreef als "Fellow Journalism and Society" bij Mediahuis twee nieuwsbrieven per week over de toekomst van journalistiek. Hij gebruikte daarvoor ChatGPT, Perplexity en Google als AI-hulpmiddelen. In zijn werkwijze — zo erkende hij zelf in een verklaring op zijn Substack — vatte hij bronartikelen samen via AI en vertrouwde vervolgens op die samenvattingen om citaten te reconstrueren. "Ik had ze als parafrasen moeten presenteren," schreef hij. "Dat heb ik niet gedaan."

Mediahuis-CEO Gert Ysebaert reageerde scherp: "Dit had nooit mogen gebeuren." De schorsing is tijdelijk, maar de schade voor het vertrouwen in AI-gebruik binnen redacties is aanzienlijk.

Hallusinaties: het bekendste risico dat nog te weinig wordt begrepen

Wat Vandermeersch overkwam, heeft een technische naam: AI-hallucinatie. Grote taalmodellen als ChatGPT genereren tekst op basis van statistische patronen. Ze "weten" niet of een citaat klopt — ze produceren tekst die plausibel klinkt, ook als die feitelijk onjuist of volledig verzonnen is.

In een onderzoek van Stanford University (2024) bleek dat AI-modellen bij het samenvatten van nieuwsartikelen in 23% van de gevallen feitelijke fouten introduceerden. Bij citaten — korte, specifieke uitspraken — is het risico op hallucinatie bijzonder groot.

Dit is geen fout van de gebruiker alleen. Het is een fundamenteel kenmerk van hoe generatieve AI werkt. Wie dit niet begrijpt en AI inzet voor taken die verificatie vereisen, loopt een aanzienlijk risico — of het nu gaat om een journalist, een jurist of een bedrijfsadviseur.

De IT-risico's voor organisaties die AI integreren

De zaak-Vandermeersch is exemplarisch voor een bredere zakelijke realiteit: bedrijven en redacties implementeren AI-tools in hoog tempo, vaak zonder adequate beveiligings- en verificatieprotocollen.

Vanuit IT-perspectief zijn er drie kritieke risico's:

1. Data-integriteit: AI-gegenereerde inhoud kan onopgemerkt fouten, verzonnen feiten of onjuiste citaten bevatten. Zonder verificatielaag worden deze fouten onderdeel van publicaties, contracten of klantcommunicatie.

2. Compliance en aansprakelijkheid: In Nederland valt het publiceren van valse uitspraken onder smaad (artikel 261 Wetboek van Strafrecht) als het iemands eer schaadt. Organisaties die AI-inhoud zonder controle publiceren, kunnen juridisch aansprakelijk worden gesteld — ook als de fout van het AI-model afkomstig is.

3. Cybersecurity: Sommige AI-tools versturen gebruikersdata naar externe servers. Vertrouwelijke bedrijfsinformatie die in een AI-prompt wordt ingevoerd, kan opgeslagen, geanalyseerd of gelekt worden. Organisaties die gevoelige klantdata of bedrijfsgeheimen in AI-tools invoeren zonder duidelijk privacybeleid, overtreden mogelijk de AVG (Algemene Verordening Gegevensbescherming).

Wat een IT-specialist jouw organisatie kan bieden

De inzet van AI is niet het probleem — het gebrek aan governance eromheen is dat wel. Een IT-specialist of digitaal consultant kan helpen met:

  • AI-beleidsimplementatie: vaststellen welke AI-tools mogen worden gebruikt voor welke taken, en met welke data
  • Verificatieprotocollen: geautomatiseerde of handmatige controlemechanismen bouwen die AI-output toetsen op feitelijke juistheid
  • AVG-compliance: beoordelen of AI-tools voldoen aan de Nederlandse en Europese privacywetgeving
  • Medewerkerstraining: bewustzijn creëren over wat AI wel en niet kan, en hoe hallucinaties te herkennen

Voor een IT-specialist online raadplegen via Expert Zoom is geen uitgebreide aanbesteding nodig. Een eerste consultatie kan uitsluitsel geven over de meest urgente kwetsbaarheden in uw AI-gebruik.

STEL MIJN VRAAGKunstmatige Intelligentie

Praktische checklist: AI verantwoord gebruiken in uw organisatie

Of u nu een mediabedrijf, advocatenkantoor, MKB of overheidsinstelling bent — elke organisatie die AI inzet, heeft baat bij een minimale basisstructuur. Een IT-consultant kan helpen bij het opzetten van:

Stap 1 — Inventarisatie: Welke AI-tools worden momenteel gebruikt door medewerkers? Veel organisaties ontdekken dat medewerkers tientallen AI-toepassingen gebruiken zonder medeweten van IT of management.

Stap 2 — Risicoanalyse: Welke gegevens worden ingevoerd? Is dat klantdata, persoonsgegevens, vertrouwelijke contracten? Dan is AVG-compliance urgent.

Stap 3 — Spelregels vastleggen: Heldere interne richtlijnen — welke AI-tools zijn toegestaan, voor welke taken, met welke beperkingen — voorkomen incidenten zoals die bij Vandermeersch.

Stap 4 — Training: Medewerkers moeten begrijpen dat AI een hulpmiddel is, geen onfeilbare bron. Kritisch denken over AI-output is een vaardigheid die aangeleerd moet worden.

Stap 5 — Verificatieprotocol: Zeker voor publicaties, contracten of klantcommunicatie: elke door AI gegenereerde bewering moet door een mens worden geverifieerd aan de hand van originele bronnen.

Dit klinkt arbeidsintensief — maar in de praktijk hoeft het dat niet te zijn. Een goed geconfigureerde workflow vermindert AI-risico's drastisch zonder de productiviteitswinst teniet te doen.

Vertrouwen opbouwen in een AI-tijdperk

Peter Vandermeersch erkende zijn fout publiekelijk en bood zijn excuses aan. Dat is te waarderen — maar het illustreert tegelijkertijd hoe gevaarlijk het is om AI blindelings te vertrouwen, zelfs voor ervaren professionals met decennia journalistieke expertise.

Voor elke organisatie die AI gebruikt geldt: vertrouwen is goed, controle is beter. En daarvoor is IT-expertise geen luxe, maar een noodzaak.


Opmerking: Dit artikel is bedoeld als algemene informatie en vervangt geen juridisch of IT-advies op maat. Raadpleeg een specialist voor uw specifieke situatie.

Nos experts

Avantages

Des réponses rapides et précises pour toutes vos questions et demandes d'assistance dans plus de 200 catégories.

Des milliers d'utilisateurs ont obtenu une satisfaction de 4,9 sur 5 pour les conseils et recommandations prodiguées par nos assistants.