Verboden AI-praktijken (Art. 5): wat mag wel en wat niet?
EU AI Act art. 5 verbiedt acht AI-praktijken absoluut — sinds 2 februari 2025. Welke specifieke gebruiksvormen vallen eronder, welke uitzonderingen zijn er, en welke zachte grensgevallen moet je kennen voordat je een AI-tool inkoopt.
Verboden AI-praktijken zijn AI-toepassingen die de Europese wetgever zo onaanvaardbaar vindt voor mensenrechten of veiligheid dat ze niet meer in de EU mogen worden ingezet — niet door overheid, niet door bedrijven, niet door burgers. AI Act art. 5 somt er acht op. Anders dan hoog-risico AI (waar je nog mag inzetten mits compliant), is hier geen 'mits-clausule': de praktijk is gewoon dicht.
De ban geldt sinds 2 februari 2025. Geen overgangstermijn, geen MKB-uitzondering, geen 'zolang we nog geen handhaving hebben'. De Autoriteit Persoonsgegevens heeft aangekondigd dat zij prioriteit geeft aan handhaving op deze categorie omdat het de EU-grondrechtenbeschermingskern is.
De acht verboden categorieen op een rij
| Sub | Wat verboden is | Voorbeeld dat onder de ban valt |
|---|---|---|
| a | Subliminale of manipulatieve technieken die het gedrag van personen verstoren waardoor schade ontstaat | Een chatbot die psychologische trucs gebruikt om kwetsbare ouderen tot duurdere abonnementen te bewegen |
| b | Exploitatie van kwetsbaarheden (leeftijd, beperking, sociale of economische situatie) | AI-marketing die specifiek mensen in financiele nood targetet voor schuld-producten |
| c | Social-scoring algemeen toepassingsgebied door overheid OF bedrijf | Algemene burger-score die over verschillende levensdomeinen heen wordt gebruikt |
| d | Risico-inschatting voor crimineel gedrag puur op basis van profilering of persoonlijkheidstrekken | Predictive policing dat individuen labelt als 'toekomstige crimineel' op basis van postcode + demografie |
| e | Ongerichte scraping van gezichtsbeelden van internet of CCTV om databases op te bouwen | Een commerciele tool die het hele web scant om een gezichtsherkenning-database te bouwen (Clearview-style) |
| f | Emotie-detectie op werkplek of in onderwijsinstellingen | AI dat tijdens vergaderingen of in het klaslokaal de emoties van medewerkers/leerlingen meet |
| g | Biometrische categorisatie op gevoelige kenmerken (ras, politieke overtuiging, vakbondslidmaatschap, geloofsovertuiging, sexuele geaardheid) | AI dat uit gezichten politieke voorkeur of seksuele orientatie probeert af te leiden |
| h | Realtime biometrische identificatie in voor het publiek toegankelijke ruimtes | Live gezichtsherkenning op stations, in winkels of op straat (m.u.v. zeer specifieke opsporings-uitzonderingen met rechterlijke machtiging) |
De uitzonderingen die je moet kennen
Sommige verboden hebben smalle uitzonderingen. Geen ervan is een vrijbrief — ze zijn strikt en moeten goed gedocumenteerd zijn:
- 1.Sub f (emotie-detectie werkplek/onderwijs) mag wel voor medische redenen of veiligheidsdoeleinden — bv. een vermoeidheid-detector voor vrachtwagenchauffeurs of een burnout-screening tool met expliciete instemming.
- 2.Sub g (biometrische categorisatie) geldt alleen voor de gevoelige kenmerken in de wet. Categorisatie op leeftijdsgroep, gender of taal voor analytische doeleinden valt er niet onder.
- 3.Sub h (realtime biometrische ID publiek) kent strikte opsporings-uitzonderingen: zoektocht naar slachtoffer van ontvoering, voorkoming van terroristische aanslag, opsporing van zware misdaad — alleen met voorafgaande rechterlijke machtiging en alleen door politie of justitie.
- 4.Sub c (social-scoring) geldt alleen voor scoring over levensdomeinen heen. Een loyaliteitsprogramma dat je status binnen één dienst (bv. luchtvaartmaatschappij) bepaalt is geen social-scoring.
- 5.Sub d (predictive policing) is verboden op individuen, niet op gebieden. Een AI dat aangeeft welke wijken meer politiepatrouille nodig hebben mag wel; een AI dat een specifiek persoon labelt als 'toekomstige inbreker' niet.
Grijze gebieden waar je voorzichtig moet zijn
Marketing-AI dat 'gevoelige' inzichten gebruikt
Een marketing-tool die personen segmenteert op basis van inferred politieke voorkeur (bv. om campagne-aanbiedingen te targeten) komt dicht bij sub g (biometrische categorisatie op gevoelige kenmerken). Als de inferentie via biometrie loopt: verboden. Via expliciet opgegeven voorkeuren: niet verboden, wel AVG-grond nodig.
Burnout / wellbeing-detectie op werkplek
Sub f's medische uitzondering is bedoeld voor zorg-context, niet als marketing-truc. Een tool die zegt 'we monitoren je medewerkers preventief op stress' valt vrijwel zeker onder het verbod tenzij er een medische professional in de loop zit en medewerkers expliciete vrijwillige instemming geven.
Sentiment-analyse op klantenservice-gesprekken
Klantenservice met emotie-analyse op klanten (niet medewerkers) zit niet in sub f maar kan wel ergens onder transparantie-verplichtingen vallen (art. 50). Mits de klant weet dat het loopt, geen verbod. Sentiment-analyse op je eigen medewerkers' gesprekken om hun productiviteit te scoren: dat raakt sub f en is verboden.
Predictive maintenance op gedrag van medewerkers
Een AI die voorspelt welke medewerkers waarschijnlijk vertrekken (attrition-modeling) is geen sub f-overtreding maar wel een AVG art. 22-vraagstuk plus mogelijke Bijlage III §4-classificatie als het tot beslissingen leidt over de werknemer.
Wie is aansprakelijk?
Bij verboden praktijken kunnen drie partijen aansprakelijk worden gesteld:
- De aanbieder — wie het systeem in de EU op de markt brengt of in gebruik neemt.
- De gebruiksverantwoordelijke — wie het systeem onder eigen gezag inzet (jouw organisatie als je een tool inkoopt).
- De distributeur of importeur — wie het systeem doorlevert.
Praktisch: als jouw organisatie een tool gebruikt die in de EU is verboden, is de excuus 'onze leverancier zei dat het mocht' geen verdediging. Jij hebt due-diligence-plicht voordat je een AI inkoopt. Vraag de leverancier expliciet of er screenings op art. 5 zijn gedaan, en bewaar die antwoorden.
Boetes en handhaving
Het hoogste boetekader van de AI Act geldt hier: tot €35 miljoen of 7% van de wereldwijde jaaromzet (welke hoger is). Vergelijk: hoog-risico-overtredingen krijgen max 3% / €15 miljoen. De boodschap van de wetgever is duidelijk — verboden = streng.
In Nederland is de toezichthouder afhankelijk van de context: AP voor AVG-overlap, sectorale toezichthouders (DNB/AFM/IGJ) voor sectorale tools, en vanaf augustus 2026 een specifieke AI-Office-coordinator. De [werkagenda 2026 van de AP](https://autoriteitpersoonsgegevens.nl/themas/algoritmes-ai/werkagenda-algoritmes-en-ai) noemt verboden praktijken expliciet als handhavingsprioriteit.
Veelgestelde vragen
Mijn HR-tool gebruikt 'sentiment-analyse op exit-interviews' — verboden?
Wij gebruiken een chatbot die 'kwetsbare klanten' detecteert om extra zorg te bieden — mag dat?
Mag ik een AI-tool inkopen die in de US legaal is maar mogelijk in de EU verboden?
Geldt het verbod ook voor onderzoek / R&D?
Wat moet ik intern documenteren om aan te tonen dat ik geen verboden praktijken inzet?
Verder lezen
Hoog-risico AI herkennen: Annex III in begrijpelijk Nederlands
Bijlage III van de EU AI Act somt acht categorieen AI-systemen op die als hoog-risico gelden. Per categorie: wat valt eronder, wat valt er net buiten, en welke verplichtingen worden actief.
Wat is AI-geletterdheid (Art. 4) en hoe bewijs je het?
AI-geletterdheid is sinds 2 februari 2025 verplicht onder EU AI Act art. 4. Wat het concreet betekent voor Nederlands MKB, hoe je het invult zonder een formele cursus, en hoe je het aantoont aan een toezichthouder.
Doe een gratis risicoscan voor je eigen AI-systeem
5 minuten, geen account, anoniem. Krijg direct je AI Act-categorie + de drie eerstvolgende acties op volgorde van urgentie.