Hoog-risico AI herkennen: Annex III in begrijpelijk Nederlands
Bijlage III van de EU AI Act somt acht categorieen AI-systemen op die als hoog-risico gelden. Per categorie: wat valt eronder, wat valt er net buiten, en welke verplichtingen worden actief.
Hoog-risico AI is een AI-systeem dat substantiele schade kan aanrichten aan gezondheid, veiligheid of grondrechten van personen, en daardoor onder strenge eisen valt: FRIA, conformiteitsbeoordeling, technische documentatie, menselijk toezicht en logging. Bijlage III van de EU AI Act lijst de specifieke domeinen op waar zulke systemen typisch onder vallen.
Het is de bijlage die je moet kennen. Niet vanwege de juridische diepte (die ligt in art. 6-15) maar omdat 'sta ik in Bijlage III?' het filter is dat bepaalt of je de hele hoog-risico-set verplichtingen krijgt of alleen de algemene plichten (art. 4 + art. 50).
De acht categorieen op een rij
| # | Domein | Voorbeeld | Wettelijke basis |
|---|---|---|---|
| 1 | Biometrie | Real-time identificatie, biometrische categorisatie, emotie-herkenning | Bijlage III §1 |
| 2 | Kritieke infrastructuur | Veiligheidscomponenten in energie-, water- of digitale-infrastructuur-beheer | Bijlage III §2 |
| 3 | Onderwijs en beroepsopleiding | Toelating, plaatsing, beoordeling van leerlingen | Bijlage III §3 |
| 4 | Werk, HR, zelfstandigen | Werving, selectie, evaluatie, taaktoewijzing, beeindiging arbeidsrelatie | Bijlage III §4 |
| 5 | Toegang tot essentiele diensten | Krediet-scoring, verzekerings-pricing, uitkeringsbeoordeling, hulpdiensten-prioritering | Bijlage III §5 |
| 6 | Rechtshandhaving | Risico-inschatting, bewijs-evaluatie, profilering door politie | Bijlage III §6 |
| 7 | Migratie, asiel, grenscontrole | Risico-inschatting van personen, asielaanvragen-beoordeling, biometrie | Bijlage III §7 |
| 8 | Rechtspraak en democratie | Onderzoek-ondersteuning rechters, beinvloeding stemresultaten | Bijlage III §8 |
De uitzondering die je echt moet kennen
Art. 6 lid 3 zegt: een systeem in een Bijlage III-domein is niet hoog-risico als het 'geen significant risico op schade aan gezondheid, veiligheid of grondrechten' oplevert, omdat het een van de volgende rollen heeft:
- Het voert een smal proceduretaakje uit (bv. ongestructureerde data omzetten naar gestructureerde data).
- Het verbetert de uitkomst van een eerder voltooide menselijke activiteit (bv. spelfouten in een rechterlijke beslissing corrigeren).
- Het detecteert patronen of afwijkingen zonder de menselijke beoordeling te vervangen.
- Het voert een voorbereidende taak uit voor een beoordeling die uiteindelijk door een mens wordt gedaan.
Toch profileert een AI-systeem natuurlijke personen? Dan val je per definitie onder hoog-risico, ongeacht de uitzondering. (art. 6 lid 3 laatste alinea)
Wat verandert er als je hoog-risico bent?
De volledige set verplichtingen voor hoog-risico-systemen:
- 1.FRIA (Fundamental Rights Impact Assessment, art. 27): vóór ingebruikname een grondrechten-effectbeoordeling uitvoeren als gebruiksverantwoordelijke in publieke sector of bij essentiele diensten.
- 2.Conformiteitsbeoordeling (art. 43): aanbieders moeten aantonen dat het systeem aan de eisen voldoet — interne controle of via een aangemelde instantie.
- 3.Technische documentatie (Bijlage IV): trainings- en validatie-data, architecturale beschrijving, performance-metrics, voorzienbare risico's.
- 4.Logging (art. 12): minimaal 6 maanden bewaartermijn van invoer + uitvoer + menselijke interventies.
- 5.Menselijk toezicht (art. 14): ingebouwde mogelijkheid voor een mens om een beslissing te overrulen of te stoppen.
- 6.Robuustheid en cybersecurity (art. 15): bewijsbaar weerstand tegen typische adversarial-aanvallen.
- 7.Transparantie naar gebruiksverantwoordelijken (art. 13): instructies, beperkingen, voorzienbaar verkeerd gebruik documenteren.
- 8.Registratie in EU-databank (art. 49): vóór ingebruikname een entry maken die publiek toegankelijk is (m.u.v. rechtshandhaving).
Vanaf wanneer moet ik dit op orde hebben?
De gefaseerde inwerkingtreding van de hoog-risico-verplichtingen:
| Datum | Wat geldt | Detail |
|---|---|---|
| 2 februari 2025 | Verboden praktijken (art. 5) + AI-geletterdheid (art. 4) | Al van kracht. |
| 2 augustus 2026 | Hoog-risico verplichtingen (Bijlage III categorieen 1-8) | Voor de meeste organisaties dé deadline. Mogelijk uitgesteld door Digital Omnibus naar eind 2026. |
| 2 augustus 2027 | Hoog-risico voor producten onder bestaande EU-productwetgeving (Bijlage I) | Bv. medische devices, machines, speelgoed met AI-componenten. |
Wat als ik MKB ben?
MKB krijgt een lichte verlichting in art. 62 + 63: lagere boetes, gratis toegang tot regulatory sandboxes, en de Commissie moet 'rekening houden met de specifieke belangen van MKB' bij richtsnoeren. Maar de inhoudelijke verplichtingen blijven hetzelfde.
Praktisch: als je in Bijlage III valt en MKB bent, doe minimaal:
- Een conceptversie van FRIA + DPIA (mag in één document, zie ons FRIA+DPIA-artikel).
- Logging aanzetten vanaf dag 1 — Anthropic, OpenAI, Microsoft Copilot leveren logs als ze enterprise-tier zijn. Bij consumer-tier loggen op je eigen kant.
- Een human-oversight-protocol dat zegt wie de AI kan overrulen en hoe.
- Documentatie van trainingsdata — bij gebruik van foundation models is dit deels via de leverancier (zij delen onder art. 53), aanvuld met je eigen retrievalsource.
Voor de meeste MKB met een eenduidig hoog-risico-systeem is het: een dagdeel intake → 30 minuten classificatie → een paar uur reviewen van de gegenereerde documenten met je jurist. Niet maanden werk. Wel moet het er staan voordat een aanbesteding of een Toezichthouder erom vraagt.
Veelgestelde vragen
Mijn HR-tool gebruikt AI om CV's te samen te vatten — val ik onder Bijlage III §4?
Een chatbot op mijn website — is dat hoog-risico?
We gebruiken een GPT voor interne kennis-RAG. Hoog-risico?
Wat als ik niet zeker weet of ik in Bijlage III val?
Geldt Bijlage III ook als ik AI-systeem inkoopt van een Amerikaanse leverancier?
Verder lezen
Verboden AI-praktijken (Art. 5): wat mag wel en wat niet?
EU AI Act art. 5 verbiedt acht AI-praktijken absoluut — sinds 2 februari 2025. Welke specifieke gebruiksvormen vallen eronder, welke uitzonderingen zijn er, en welke zachte grensgevallen moet je kennen voordat je een AI-tool inkoopt.
FRIA in 7 stappen: grondrechten-effectbeoordeling voor MKB
Een FRIA (Fundamental Rights Impact Assessment) is voor hoog-risico AI-systemen verplicht onder EU AI Act art. 27. Welke 7 stappen je doorloopt, welke informatie je verzamelt, en hoe je het document maakt zonder een externe adviseur in te huren.
Audit-pack: wat de toezichthouder écht wil zien
Een audit-pack is een gestructureerde set documenten die bewijst dat je AI-Act-compliant werkt. Wat hoort er minimaal in voor MKB, hoe leveren toezichthouders een audit-vraag uit, en welke valkuilen vermijd je.
Doe een gratis risicoscan voor je eigen AI-systeem
5 minuten, geen account, anoniem. Krijg direct je AI Act-categorie + de drie eerstvolgende acties op volgorde van urgentie.