Direct naar inhoud
Wetgeving

Verboden AI-praktijken (Art. 5): wat mag wel en wat niet?

EU AI Act art. 5 verbiedt acht AI-praktijken absoluut — sinds 2 februari 2025. Welke specifieke gebruiksvormen vallen eronder, welke uitzonderingen zijn er, en welke zachte grensgevallen moet je kennen voordat je een AI-tool inkoopt.

Jurgen Claassens·Founder, AuditAI··8 min lezen

Verboden AI-praktijken zijn AI-toepassingen die de Europese wetgever zo onaanvaardbaar vindt voor mensenrechten of veiligheid dat ze niet meer in de EU mogen worden ingezet — niet door overheid, niet door bedrijven, niet door burgers. AI Act art. 5 somt er acht op. Anders dan hoog-risico AI (waar je nog mag inzetten mits compliant), is hier geen 'mits-clausule': de praktijk is gewoon dicht.

De ban geldt sinds 2 februari 2025. Geen overgangstermijn, geen MKB-uitzondering, geen 'zolang we nog geen handhaving hebben'. De Autoriteit Persoonsgegevens heeft aangekondigd dat zij prioriteit geeft aan handhaving op deze categorie omdat het de EU-grondrechtenbeschermingskern is.

De acht verboden categorieen op een rij

AI Act art. 5 — verboden praktijken
SubWat verboden isVoorbeeld dat onder de ban valt
aSubliminale of manipulatieve technieken die het gedrag van personen verstoren waardoor schade ontstaatEen chatbot die psychologische trucs gebruikt om kwetsbare ouderen tot duurdere abonnementen te bewegen
bExploitatie van kwetsbaarheden (leeftijd, beperking, sociale of economische situatie)AI-marketing die specifiek mensen in financiele nood targetet voor schuld-producten
cSocial-scoring algemeen toepassingsgebied door overheid OF bedrijfAlgemene burger-score die over verschillende levensdomeinen heen wordt gebruikt
dRisico-inschatting voor crimineel gedrag puur op basis van profilering of persoonlijkheidstrekkenPredictive policing dat individuen labelt als 'toekomstige crimineel' op basis van postcode + demografie
eOngerichte scraping van gezichtsbeelden van internet of CCTV om databases op te bouwenEen commerciele tool die het hele web scant om een gezichtsherkenning-database te bouwen (Clearview-style)
fEmotie-detectie op werkplek of in onderwijsinstellingenAI dat tijdens vergaderingen of in het klaslokaal de emoties van medewerkers/leerlingen meet
gBiometrische categorisatie op gevoelige kenmerken (ras, politieke overtuiging, vakbondslidmaatschap, geloofsovertuiging, sexuele geaardheid)AI dat uit gezichten politieke voorkeur of seksuele orientatie probeert af te leiden
hRealtime biometrische identificatie in voor het publiek toegankelijke ruimtesLive gezichtsherkenning op stations, in winkels of op straat (m.u.v. zeer specifieke opsporings-uitzonderingen met rechterlijke machtiging)

De uitzonderingen die je moet kennen

Sommige verboden hebben smalle uitzonderingen. Geen ervan is een vrijbrief — ze zijn strikt en moeten goed gedocumenteerd zijn:

  1. 1.Sub f (emotie-detectie werkplek/onderwijs) mag wel voor medische redenen of veiligheidsdoeleinden — bv. een vermoeidheid-detector voor vrachtwagenchauffeurs of een burnout-screening tool met expliciete instemming.
  2. 2.Sub g (biometrische categorisatie) geldt alleen voor de gevoelige kenmerken in de wet. Categorisatie op leeftijdsgroep, gender of taal voor analytische doeleinden valt er niet onder.
  3. 3.Sub h (realtime biometrische ID publiek) kent strikte opsporings-uitzonderingen: zoektocht naar slachtoffer van ontvoering, voorkoming van terroristische aanslag, opsporing van zware misdaad — alleen met voorafgaande rechterlijke machtiging en alleen door politie of justitie.
  4. 4.Sub c (social-scoring) geldt alleen voor scoring over levensdomeinen heen. Een loyaliteitsprogramma dat je status binnen één dienst (bv. luchtvaartmaatschappij) bepaalt is geen social-scoring.
  5. 5.Sub d (predictive policing) is verboden op individuen, niet op gebieden. Een AI dat aangeeft welke wijken meer politiepatrouille nodig hebben mag wel; een AI dat een specifiek persoon labelt als 'toekomstige inbreker' niet.

Grijze gebieden waar je voorzichtig moet zijn

Marketing-AI dat 'gevoelige' inzichten gebruikt

Een marketing-tool die personen segmenteert op basis van inferred politieke voorkeur (bv. om campagne-aanbiedingen te targeten) komt dicht bij sub g (biometrische categorisatie op gevoelige kenmerken). Als de inferentie via biometrie loopt: verboden. Via expliciet opgegeven voorkeuren: niet verboden, wel AVG-grond nodig.

Burnout / wellbeing-detectie op werkplek

Sub f's medische uitzondering is bedoeld voor zorg-context, niet als marketing-truc. Een tool die zegt 'we monitoren je medewerkers preventief op stress' valt vrijwel zeker onder het verbod tenzij er een medische professional in de loop zit en medewerkers expliciete vrijwillige instemming geven.

Sentiment-analyse op klantenservice-gesprekken

Klantenservice met emotie-analyse op klanten (niet medewerkers) zit niet in sub f maar kan wel ergens onder transparantie-verplichtingen vallen (art. 50). Mits de klant weet dat het loopt, geen verbod. Sentiment-analyse op je eigen medewerkers' gesprekken om hun productiviteit te scoren: dat raakt sub f en is verboden.

Predictive maintenance op gedrag van medewerkers

Een AI die voorspelt welke medewerkers waarschijnlijk vertrekken (attrition-modeling) is geen sub f-overtreding maar wel een AVG art. 22-vraagstuk plus mogelijke Bijlage III §4-classificatie als het tot beslissingen leidt over de werknemer.

Wie is aansprakelijk?

Bij verboden praktijken kunnen drie partijen aansprakelijk worden gesteld:

  • De aanbieder — wie het systeem in de EU op de markt brengt of in gebruik neemt.
  • De gebruiksverantwoordelijke — wie het systeem onder eigen gezag inzet (jouw organisatie als je een tool inkoopt).
  • De distributeur of importeur — wie het systeem doorlevert.

Praktisch: als jouw organisatie een tool gebruikt die in de EU is verboden, is de excuus 'onze leverancier zei dat het mocht' geen verdediging. Jij hebt due-diligence-plicht voordat je een AI inkoopt. Vraag de leverancier expliciet of er screenings op art. 5 zijn gedaan, en bewaar die antwoorden.

Boetes en handhaving

Het hoogste boetekader van de AI Act geldt hier: tot €35 miljoen of 7% van de wereldwijde jaaromzet (welke hoger is). Vergelijk: hoog-risico-overtredingen krijgen max 3% / €15 miljoen. De boodschap van de wetgever is duidelijk — verboden = streng.

In Nederland is de toezichthouder afhankelijk van de context: AP voor AVG-overlap, sectorale toezichthouders (DNB/AFM/IGJ) voor sectorale tools, en vanaf augustus 2026 een specifieke AI-Office-coordinator. De [werkagenda 2026 van de AP](https://autoriteitpersoonsgegevens.nl/themas/algoritmes-ai/werkagenda-algoritmes-en-ai) noemt verboden praktijken expliciet als handhavingsprioriteit.

Veelgestelde vragen

Mijn HR-tool gebruikt 'sentiment-analyse op exit-interviews' — verboden?
Niet automatisch. Sentiment-analyse op tekst (geen biometrie) van een ex-medewerker is geen sub f-overtreding. Mits de medewerker weet dat het gebeurt en er een AVG-grondslag is, mag het. Wel: documenteer waarom je vindt dat het geen 'emotie-detectie op werkplek' is — een toezichthouder kan dat anders zien.
Wij gebruiken een chatbot die 'kwetsbare klanten' detecteert om extra zorg te bieden — mag dat?
Sub b (exploitatie van kwetsbaarheden) verbiedt het exploiteren met als doel het gedrag te verstoren waardoor schade ontstaat. Detecteren om EXTRA zorg te bieden (verbeterde service, doorverwijzing naar mens) is geen exploitatie. Mits de detectie niet leidt tot duurdere producten of manipulatie.
Mag ik een AI-tool inkopen die in de US legaal is maar mogelijk in de EU verboden?
Niet zonder due-diligence. Vraag de leverancier expliciet of het systeem op art. 5 is getoetst en welke uitzonderingen geclaimd worden. Bewaar het antwoord. Als de leverancier dat niet kan beantwoorden: niet inkopen. Jouw organisatie is als gebruiksverantwoordelijke mede-aansprakelijk.
Geldt het verbod ook voor onderzoek / R&D?
Beperkt. Art. 2 lid 6 stelt dat AI-systemen die uitsluitend voor wetenschappelijk onderzoek of ontwikkeling zijn ontwikkeld buiten de scope van de Verordening vallen — totdat ze in productie gaan. Pre-marketing testen mag dus, in productie zetten niet.
Wat moet ik intern documenteren om aan te tonen dat ik geen verboden praktijken inzet?
Drie dingen: (1) een AI-register met per systeem een art. 5-check, (2) een due-diligence-vragenlijst die je leveranciers laat invullen voordat je inkoopt, en (3) een periodieke heroverweging (jaarlijks) of nieuwe gebruiksvormen onbedoeld in de verboden zone vallen. AuditAI genereert deze documenten automatisch met de juiste structuur.

Verder lezen

Volgende stap

Doe een gratis risicoscan voor je eigen AI-systeem

5 minuten, geen account, anoniem. Krijg direct je AI Act-categorie + de drie eerstvolgende acties op volgorde van urgentie.