PrivacyTeam033 200 30 83

De volgende stap in de AI-Act: 1 februari 2025

De AI-Act is in volle gang, en dit betekent dat overheden en organisaties in Europa zich moeten voorbereiden op een nieuwe realiteit in de omgang met kunstmatige intelligentie. Vanaf 1 februari 2025 treedt een verbod in werking op een aantal AI-systemen die als onaanvaardbaar risico worden gezien. Dit betekent dat deze systemen niet in de handel gebracht, gebruikt of in gebruik gesteld mogen worden. Deze verboden gelden zowel voor aanbieders als gebruiksverantwoordelijken. Deze stap is een belangrijke mijlpaal in het streven naar veilige en ethische AI-toepassingen in de Europese Unie.

Wat houdt het verbod in?

De Europese Unie wil met de AI-Act een juridisch kader bieden dat een balans creëert tussen innovatie en bescherming van de fundamentele rechten van de mens. Dit houdt in dat bepaalde AI-praktijken, die voor burgers en de samenleving ernstige risico’s opleveren, verboden worden. Deze verboden zijn bedoeld om manipulatie, uitbuiting, ongewenste sociale controle en andere schadelijke effecten van AI tegen te gaan.

De belangrijkste verboden zijn:
Manipulatieve of misleidende AI-systemen: Dit zijn systemen die inspelen op kwetsbaarheden van mensen, zoals leeftijd of handicap, om hen onbewust te beïnvloeden.
Social scoring: Het beoordelen van mensen op basis van hun sociale gedrag of persoonlijke kenmerken, zoals in China wordt toegepast, wordt niet toegestaan in de EU.
Risicobeoordeling voor criminaliteit: AI-systemen die proberen te voorspellen of iemand strafbare feiten zal plegen op basis van persoonlijkheidskenmerken of -eigenschappen, zijn verboden.
Biometrische categorisering: Het gebruik van AI om gevoelige informatie af te leiden, zoals religie, seksuele geaardheid of politieke voorkeuren, is verboden.
Realtime biometrische identificatie in openbare ruimtes: Dit mag alleen onder zeer specifieke omstandigheden, zoals het opsporen van vermiste personen of het voorkomen van ernstige bedreigingen voor het leven van mensen en het opsporen van verdachten van bepaalde zeer ernstige misdrijven.
Emotieherkenning en scraping van gezichtsdata: AI-systemen die emoties analyseren op de werkplek of in het onderwijs worden verboden. Ook het verzamelen van gezichtsafbeeldingen van internet of camerabeelden zonder toestemming om databanken te vullen, is niet toegestaan.

Meer gedetailleerde informatie over verboden AI-praktijken zijn te vinden in artikel 5 van de AI-verordening op de website van de EUR-Lex.europa.eu.
https://eur-lex.europa.eu/legal-content/NL/TXT/HTML/?uri=OJ:L_202401689#enc_1

Wat betekent dit voor uw organisatie?

Organisaties, met name overheden, die gebruikmaken van AI, staan voor de uitdaging om hun systemen te evalueren. Het is essentieel om vóór 1 februari 2025 te achterhalen of uw organisatie AI-systemen gebruikt die onder de verboden vallen. Indien dit het geval is, moeten deze systemen zo snel mogelijk worden uitgefaseerd. De Europese Commissie zal nog richtsnoeren publiceren om de verboden in de praktijk te implementeren.

Waarom is actie nodig?

Actie is noodzakelijk om aan het verbod van 1 februari 2025 te voldoen vanwege de volgende redenen:

1. Wettelijke verplichting: Vanaf 1 februari 2025 verbiedt de Europese AI-verordening (AI Act) het gebruik van bepaalde AI-systemen die als onaanvaardbaar risico worden beschouwd. Organisaties zijn wettelijk verplicht om deze verboden na te leven.
2. Voorkomen van sancties: Niet-naleving van de in artikel 5 bedoelde AI-praktijken kan leiden tot aanzienlijke boetes, oplopend tot € 35 miljoen of 7% van de wereldwijde jaaromzet van een organisatie (Art. 99 Sancties EU-AI Act).
3. Ethische verantwoordelijkheid: Het vermijden van het gebruik van AI-systemen die een onaanvaardbaar risico vormen, zoals manipulatieve of misleidende AI, beschermt de rechten en vrijheden van individuen en bevordert het vertrouwen in technologie.
4. Reputatiemanagement: Het naleven van de AI Act toont aan dat een organisatie zich inzet voor ethisch en verantwoord gebruik van technologie, wat bijdraagt aan een positief imago en het vertrouwen van klanten/inwoners en partners versterkt.

Door proactief te handelen en de nodige stappen te ondernemen om aan de AI Act te voldoen, kunnen organisaties juridische risico's minimaliseren en bijdragen aan een verantwoorde inzet van kunstmatige intelligentie.

Tijdlijn: Wat staat ons nog te wachten?

De AI-Act volgt een gefaseerde implementatie, met verschillende mijlpalen. De volgende stappen die de komende jaren op de planning staan zijn:
Augustus 2025: Vanaf 2 augustus 2025 moeten organisaties die werken met algemene AI-modellen (GPAI), zoals ChatGPT, voldoen aan strengere eisen op het gebied van transparantie, dataveiligheid en risicobeheer.
Augustus 2026: Op 2 augustus 2026 worden strenge eisen van kracht voor AI-systemen met een hoog risico. Bedrijven die met deze systemen werken, moeten onder andere zorgen voor technische documentatie, menselijke controle en continue monitoring van de werking van hun systemen.
Augustus 2027: Vanaf 2 augustus 2027, tot slot, gelden aanvullende verplichtingen voor specifieke hoogrisicosystemen die onder sectorale EU-wetgeving vallen, zoals medische hulpmiddelen, voertuigen en andere kritieke infrastructuren. De AI-verordening is volledig van kracht.
1 augustus 2030: Verplichtingen voor AI-systemen die door overheidsorganisaties worden gebruikt en die al vóór de inwerkingtreding in gebruik waren, worden van kracht.

Deze gefaseerde implementatie biedt organisaties de mogelijkheid om zich tijdig aan te passen aan de nieuwe regelgeving en ervoor te zorgen dat hun AI-systemen compliant zijn met de AI-Act.

Wil je meer weten over AI?

Zie ook ons artikel over AI-geletterdheid AI-geletterdheid verplicht in 2025: Wat betekent dit?

Blijf op de hoogte van de nieuwste ontwikkelingen door je te abonneren op onze nieuwsbrief. Zo blijf je altijd geïnformeerd!

Inschrijven PrivacyTeam nieuwsbrief

Naar het overzicht