Direct naar inhoud
Wetgeving

Hoog-risico AI herkennen: Annex III in begrijpelijk Nederlands

Bijlage III van de EU AI Act somt acht categorieen AI-systemen op die als hoog-risico gelden. Per categorie: wat valt eronder, wat valt er net buiten, en welke verplichtingen worden actief.

Jurgen Claassens·Founder, AuditAI··9 min lezen

Hoog-risico AI is een AI-systeem dat substantiele schade kan aanrichten aan gezondheid, veiligheid of grondrechten van personen, en daardoor onder strenge eisen valt: FRIA, conformiteitsbeoordeling, technische documentatie, menselijk toezicht en logging. Bijlage III van de EU AI Act lijst de specifieke domeinen op waar zulke systemen typisch onder vallen.

Het is de bijlage die je moet kennen. Niet vanwege de juridische diepte (die ligt in art. 6-15) maar omdat 'sta ik in Bijlage III?' het filter is dat bepaalt of je de hele hoog-risico-set verplichtingen krijgt of alleen de algemene plichten (art. 4 + art. 50).

De acht categorieen op een rij

Bijlage III — hoog-risico-AI per domein
#DomeinVoorbeeldWettelijke basis
1BiometrieReal-time identificatie, biometrische categorisatie, emotie-herkenningBijlage III §1
2Kritieke infrastructuurVeiligheidscomponenten in energie-, water- of digitale-infrastructuur-beheerBijlage III §2
3Onderwijs en beroepsopleidingToelating, plaatsing, beoordeling van leerlingenBijlage III §3
4Werk, HR, zelfstandigenWerving, selectie, evaluatie, taaktoewijzing, beeindiging arbeidsrelatieBijlage III §4
5Toegang tot essentiele dienstenKrediet-scoring, verzekerings-pricing, uitkeringsbeoordeling, hulpdiensten-prioriteringBijlage III §5
6RechtshandhavingRisico-inschatting, bewijs-evaluatie, profilering door politieBijlage III §6
7Migratie, asiel, grenscontroleRisico-inschatting van personen, asielaanvragen-beoordeling, biometrieBijlage III §7
8Rechtspraak en democratieOnderzoek-ondersteuning rechters, beinvloeding stemresultatenBijlage III §8

De uitzondering die je echt moet kennen

Art. 6 lid 3 zegt: een systeem in een Bijlage III-domein is niet hoog-risico als het 'geen significant risico op schade aan gezondheid, veiligheid of grondrechten' oplevert, omdat het een van de volgende rollen heeft:

  • Het voert een smal proceduretaakje uit (bv. ongestructureerde data omzetten naar gestructureerde data).
  • Het verbetert de uitkomst van een eerder voltooide menselijke activiteit (bv. spelfouten in een rechterlijke beslissing corrigeren).
  • Het detecteert patronen of afwijkingen zonder de menselijke beoordeling te vervangen.
  • Het voert een voorbereidende taak uit voor een beoordeling die uiteindelijk door een mens wordt gedaan.

Toch profileert een AI-systeem natuurlijke personen? Dan val je per definitie onder hoog-risico, ongeacht de uitzondering. (art. 6 lid 3 laatste alinea)

Wat verandert er als je hoog-risico bent?

De volledige set verplichtingen voor hoog-risico-systemen:

  1. 1.FRIA (Fundamental Rights Impact Assessment, art. 27): vóór ingebruikname een grondrechten-effectbeoordeling uitvoeren als gebruiksverantwoordelijke in publieke sector of bij essentiele diensten.
  2. 2.Conformiteitsbeoordeling (art. 43): aanbieders moeten aantonen dat het systeem aan de eisen voldoet — interne controle of via een aangemelde instantie.
  3. 3.Technische documentatie (Bijlage IV): trainings- en validatie-data, architecturale beschrijving, performance-metrics, voorzienbare risico's.
  4. 4.Logging (art. 12): minimaal 6 maanden bewaartermijn van invoer + uitvoer + menselijke interventies.
  5. 5.Menselijk toezicht (art. 14): ingebouwde mogelijkheid voor een mens om een beslissing te overrulen of te stoppen.
  6. 6.Robuustheid en cybersecurity (art. 15): bewijsbaar weerstand tegen typische adversarial-aanvallen.
  7. 7.Transparantie naar gebruiksverantwoordelijken (art. 13): instructies, beperkingen, voorzienbaar verkeerd gebruik documenteren.
  8. 8.Registratie in EU-databank (art. 49): vóór ingebruikname een entry maken die publiek toegankelijk is (m.u.v. rechtshandhaving).

Vanaf wanneer moet ik dit op orde hebben?

De gefaseerde inwerkingtreding van de hoog-risico-verplichtingen:

AI Act-deadlines voor hoog-risico-systemen
DatumWat geldtDetail
2 februari 2025Verboden praktijken (art. 5) + AI-geletterdheid (art. 4)Al van kracht.
2 augustus 2026Hoog-risico verplichtingen (Bijlage III categorieen 1-8)Voor de meeste organisaties dé deadline. Mogelijk uitgesteld door Digital Omnibus naar eind 2026.
2 augustus 2027Hoog-risico voor producten onder bestaande EU-productwetgeving (Bijlage I)Bv. medische devices, machines, speelgoed met AI-componenten.

Wat als ik MKB ben?

MKB krijgt een lichte verlichting in art. 62 + 63: lagere boetes, gratis toegang tot regulatory sandboxes, en de Commissie moet 'rekening houden met de specifieke belangen van MKB' bij richtsnoeren. Maar de inhoudelijke verplichtingen blijven hetzelfde.

Praktisch: als je in Bijlage III valt en MKB bent, doe minimaal:

  • Een conceptversie van FRIA + DPIA (mag in één document, zie ons FRIA+DPIA-artikel).
  • Logging aanzetten vanaf dag 1 — Anthropic, OpenAI, Microsoft Copilot leveren logs als ze enterprise-tier zijn. Bij consumer-tier loggen op je eigen kant.
  • Een human-oversight-protocol dat zegt wie de AI kan overrulen en hoe.
  • Documentatie van trainingsdata — bij gebruik van foundation models is dit deels via de leverancier (zij delen onder art. 53), aanvuld met je eigen retrievalsource.

Voor de meeste MKB met een eenduidig hoog-risico-systeem is het: een dagdeel intake → 30 minuten classificatie → een paar uur reviewen van de gegenereerde documenten met je jurist. Niet maanden werk. Wel moet het er staan voordat een aanbesteding of een Toezichthouder erom vraagt.

Veelgestelde vragen

Mijn HR-tool gebruikt AI om CV's te samen te vatten — val ik onder Bijlage III §4?
Ja, in beginsel wel — werving en selectie is expliciet genoemd. Tenzij de samenvatting puur ondersteunend is en de uiteindelijke selectie volledig door een mens gebeurt zonder dat de AI-output substantieel doorwerkt (art. 6 lid 3 uitzondering). In de praktijk: de uitzondering is smal en de meeste HR-tools vallen alsnog in hoog-risico.
Een chatbot op mijn website — is dat hoog-risico?
Nee, een gewone klanten-chatbot valt onder beperkt risico (art. 50 transparantieplicht: zeg dat het AI is). Het wordt pas hoog-risico als de chatbot beslissingen neemt over essentiele diensten of in een Bijlage III-domein opereert.
We gebruiken een GPT voor interne kennis-RAG. Hoog-risico?
In de regel niet — interne kennis-zoektocht zit niet in Bijlage III. Wel geldt art. 4 (geletterdheid) en eventueel art. 50 als de chat naar buiten wordt opengezet. AI-register, AI-beleid en transparantie-statement zijn dan voldoende basis.
Wat als ik niet zeker weet of ik in Bijlage III val?
Doe een risicoscan of laat een jurist de feiten beoordelen. Bij twijfel: documenteer waarom je denkt dat je niet in Bijlage III valt (de uitzondering uit art. 6 lid 3). Dat is je juridische verdediging als de toezichthouder later anders besluit.
Geldt Bijlage III ook als ik AI-systeem inkoopt van een Amerikaanse leverancier?
Ja. De wet kijkt naar het gebruik binnen de EU, niet naar de oorsprong. Als jij gebruiksverantwoordelijke bent en het systeem in een Bijlage III-domein inzet, gelden de plichten — ongeacht waar de aanbieder zit.

Verder lezen

Volgende stap

Doe een gratis risicoscan voor je eigen AI-systeem

5 minuten, geen account, anoniem. Krijg direct je AI Act-categorie + de drie eerstvolgende acties op volgorde van urgentie.