PrivacyTeam033 200 30 83

AI chatbots en datalekken: lessen uit recente meldingen

De Autoriteit Persoonsgegevens (AP) heeft in 2025 tientallen datalekmeldingen ontvangen die verband houden met het gebruik van AI‑chatbots binnen organisaties. Volgens de toezichthouder is het aantal meldingen dit jaar toegenomen. Opvallend daarbij is dat het in veel gevallen gaat om het gebruik van openbare of gratis AI‑chatbots door medewerkers, terwijl organisaties zelf beschikken over betaalde AI‑oplossingen waarvoor wél contractuele afspraken zijn gemaakt.

Deze recente meldingen laten zien dat het risico op datalekken bij AI‑gebruik niet zozeer wordt veroorzaakt door de technologie zelf, maar door de wijze waarop organisaties het gebruik van AI‑chatbots organiseren en begrenzen.

Gratis versus betaalde AI‑chatbots

Het onderscheid tussen gratis en betaalde AI‑chatbots is vanuit AVG‑perspectief relevant vanwege de mate van controle en afspraken over gegevensverwerking. Bij betaalde AI‑diensten maken organisaties doorgaans contractuele afspraken over onder meer datagebruik, beveiliging, bewaartermijnen en het al dan niet hergebruiken van ingevoerde gegevens. Daarmee wordt invulling gegeven aan de verplichtingen uit artikel 28 AVG.

Bij openbare of gratis AI‑chatbots ontbreken dergelijke afspraken veelal. Medewerkers kunnen persoonsgegevens invoeren in een dienst waarvan onduidelijk is hoe en voor welke doeleinden deze gegevens worden opgeslagen of verder verwerkt. In die situaties verliest de organisatie het zicht op de verwerking en ontstaat het risico dat persoonsgegevens ongeoorloofd worden verstrekt.

Wanneer leidt AI‑gebruik tot een datalek?

De AVG kwalificeert een datalek als een inbreuk op de beveiliging die leidt tot ongeoorofde toegang tot, verstrekking van of verlies van persoonsgegevens (artikel 4, onderdeel 12, AVG). Het invoeren van persoonsgegevens in een AI‑chatbot is niet automatisch een datalek. Dat kan anders worden wanneer medewerkers persoonsgegevens delen met een AI‑dienst zonder dat daar een juridische grondslag of passende contractuele afspraken aan ten grondslag liggen, of wanneer dit gebeurt in strijd met interne instructies. In die gevallen kan sprake zijn van een ongeoorloofde verstrekking, die meldplichtig kan zijn.

Praktijk: grootschalig uploaden van documenten

De AP verwijst onder meer naar incidenten waarbij medewerkers grote hoeveelheden documenten met persoonsgegevens invoerden in openbare AI‑diensten. Het ging daarbij om uiteenlopende documenten, zoals dossiers uit het sociaal domein, interne verslagen en sollicitatiegegevens. Wanneer dergelijke gegevens buiten de gecontroleerde IT‑omgeving van een organisatie terechtkomen, is de kans groot dat sprake is van een meldplichtig datalek.

Bijzondere persoonsgegevens

Extra risico’s doen zich voor wanneer AI‑chatbots worden gebruikt voor het verwerken van bijzondere persoonsgegevens, zoals gezondheidsgegevens of persoonsgegevens van kwetsbare groepen, zoals minderjarigen. Deze gegevenscategorieën genieten een verhoogd beschermingsniveau onder de AVG. Het invoeren van dergelijke gegevens in openbare AI‑diensten zonder duidelijke waarborgen kan leiden tot ernstige privacy‑inbreuken.

Duidelijke kaders zijn essentieel

De recente meldingen onderstrepen het belang van duidelijke organisatorische en juridische kaders voor het gebruik van AI‑chatbots. Organisaties doen er goed aan expliciet vast te leggen:

  • of AI‑chatbots mogen worden gebruikt en zo ja, welke;
  • dat gebruik van openbare of gratis AI‑chatbots voor werkdoeleinden niet is toegestaan;
  • welke gegevens nooit mogen worden ingevoerd;
  • hoe toezicht en handhaving intern zijn ingericht.

Door het gebruik van AI‑chatbots expliciet te reguleren, kunnen organisaties het risico op datalekken aanzienlijk beperken.

PrivacyTeam ondersteunt organisaties bij het opstellen van AI‑beleid, het beoordelen van privacyrisico’s en het inrichten van governance rondom verantwoord AI‑gebruik.

Naar het overzicht