PrivacyTeam033 200 30 83

Uw data als brandstof voor AI - wat betekent dat voor u?

Stelt u zich eens voor: u plaatst een update op een sociaal of professioneel netwerk, reageert op een post, deelt een artikel — en dat alles zou kunnen worden gebruikt om een kunstmatige intelligentie (AI)-systeem te trainen. Klinkt misschien abstract, maar die situatie lijkt dichterbij te komen dan we denken.

Wat is er gaande?

Een recent voorbeeld: het platform LinkedIn (in eigendom van Microsoft) heeft aangekondigd dat vanaf 3 november 2025 data van gebruikers in de EER (en andere regio’s) gebruikt zal worden om AI-modellen te trainen. Het gaat om gegevens zoals: profielinformatie (naam, functie, opleiding, vaardigheden), openbare bijdragen (posts, reacties), en in sommige gevallen sollicitatie- of werkgerelateerde data. Privéberichten worden volgens LinkedIn niet voor deze training gebruikt.

Belangrijk om te weten: deze verwerking is dus standaard ingeschakeld. Alleen als u zelf actief in de instellingen aangeeft dat u niet wilt deelnemen, wordt uw data niet gebruikt. Dat heet een opt-out-systeem — en juist dat is problematisch. Het vereist namelijk dat de gebruiker zélf actie onderneemt om gegevensbescherming te behouden, terwijl de meeste mensen deze instellingen niet kennen of niet aanpassen. Vanuit privacy-oogpunt zou een opt-in-systeem, waarbij u eerst expliciet toestemming geeft, de voorkeur verdienen.

Ook de Autoriteit Persoonsgegevens heeft haar zorgen uitgesproken [1] over deze ontwikkeling. De toezichthouder wijst erop dat LinkedIn mogelijk zelfs data uit de periode vanaf 2003 wil gebruiken voor AI-training — gegevens waarvan gebruikers destijds nooit konden voorzien dat ze voor dit doel zouden worden ingezet. Volgens de AP kunnen gebruikers hierdoor de controle over hun eigen gegevens verliezen en roept zij iedereen op om de privacy-instellingen tijdig aan te passen. 

Waarom doet men dit?

Waarom zou LinkedIn (en andere tech-bedrijven) dit willen? Hier zijn een paar redenen in gewone taal:

  • AI-modellen hebben veel en gevarieerde data nodig om goed te functioneren: hoe meer input, hoe “slimmer” het systeem kan worden;
  • door uw interacties, profiel en posten mee te nemen in die input, kunnen bedrijven functies verbeteren zoals gepersonaliseerde tips, automatische content-voorstellen of recruitment-algoritmes;
  • tegelijk is er commercieel voordeel: betere AI = aantrekkelijker platform, meer gebruikersengagement, mogelijk meer advertentie-inkomsten.

Wat zijn de risico’s voor u?

Voor u als gebruiker kunnen er een aantal nadelen of aandachtspunten zijn:

  • Minder controle over uw gegevens

Als vooraf deelname automatisch is (opt-in) en u moet zelf actie ondernemen om uit te stappen, betekent dat in de praktijk vaak dat veel mensen meedoen zonder dat zij dit echt bewust wisten.

  • Onzekerheid over wat precies gebruikt wordt

Hoewel LinkedIn privéberichten uitsluit, betekent dit niet dat alle andere data precies bekend of duidelijk is wat ermee gebeurt. Bijvoorbeeld: hoe lang wordt de data bewaard? Met welke andere datasets wordt het gecombineerd? Daar is vaak weinig transparantie.

  • Mogelijke implicaties voor profilering en gebruik

Stel: uw openbare berichten, vaardigheden of opleiding worden gebruikt om AI te trainen. Dat kan betekenen dat algoritmes sneller “zien” wie u bent, waarvoor u in aanmerking komt of waar u zich mee bezighoudt — misschien handig, maar ook iets om bij stil te staan.

  • Lastige terugkeer van reeds gebruikte gegevens

In veel gevallen geldt: zodra data eenmaal is gebruikt voor training, is het lastig om die invloed ongedaan te maken of terug te draaien.

Wat kunt u zelf doen?

Gelukkig: u kunt zelf stappen ondernemen om meer grip te krijgen. Hier zijn vier relatief eenvoudige acties:

  • Bekijk uw privacy-instellingen
    Ga op het platform (bijvoorbeeld LinkedIn) naar Instellingen & Privacy → Gegevensprivacy → ‘Data voor Generative AI Improvement’ (of een vergelijkbare instelling) en kies of u al dan niet wilt dat uw data gebruikt wordt.
  • Beperk wat u openbaar deelt
    Denk na bij wat u post, welke vaardigheden u aanvinkt, of u veel privézaken of profielvelden openbaar maakt. Alles wat openbaar (zichtbaar) is, kan potentieel ter beschikking staan voor grotere datasets.
  • Bekijk de voorwaarden
    Wanneer u een platform gebruikt: check de voorwaarden, de privacyverklaring, of er is aangegeven hoe uw gegevens gebruikt worden — zeker als het duidelijk gaat om AI-training.
  • Houd uw digitale voetafdruk in de gaten
    Kleinere stap misschien, maar regelmatig controleren: wat staat er op mijn profiel, welke oude berichten zijn er die ik mogelijk liever niet gekoppeld zie aan mijn naam of beeld? Het opruimen of afschermen van dergelijke content kan helpen.

Tot slot

In een tijd waarin technologie steeds sneller verandert, veranderen ook de spelregels rond uw data. Het betekent niet dat u in paniek moet raken — maar het is wel verstandig om even stil te staan bij de vraag: “Welk stukje van mijn digitale zelf lever ik aan wie, voor welke doeleinden, en kan ik daarmee leven?”

Uw profiel, uw interacties, uw clicks — dat is niet vrijblijvend, het is data. En data is brandstof voor de AI’s van morgen.

 

[1] Lees hier het artikel van de AP

Naar het overzicht