AI Act-compliance voor overheid en publieke sector
Overheid en publieke sector hebben binnen de AI Act extra plichten: bijna altijd FRIA verplicht (art. 27 lid 1), publicatie in het Algoritmeregister, en harde Awb-eisen aan motivering en bezwaar. Voor gemeenten, ministeries, ZBO's en uitvoeringsorganisaties: hier zijn de specifieke punten.
Toezichthouders die in deze sector relevant zijn
Toezicht op AVG bij overheid; specifieke focus op profilering, fraude-detectie en uitkeringsbeslissingen. Eerste handhavingsacties op overheid-AI in werkagenda 2026.
Klachten van burgers over (on)behoorlijk bestuur. Bij AI-besluitvorming groeiend kanaal voor klachten over uitlegbaarheid.
Doelmatigheidstoets op AI-inzet; rapportages over Algoritmes bij Rijk en gemeenten als specifiek thema.
Sectorale handhaving van AI Act-verplichtingen. Voor overheid-AI in NL: vermoedelijk gecoordineerd door BZK/Rijksoverheid + AP.
AI-toepassingen in deze sector — typische classificatie
Indicatieve classificatie per use-case. Echte classificatie hangt af van specifieke implementatie, data en autonomie-niveau — doe een risicoscan voor jouw specifieke geval.
| Use-case | Classificatie | Onderbouwing |
|---|---|---|
| Uitkeringsbeslissingen / fraude-detectie sociale zekerheid | Hoog | Bijlage III §5b: toegang tot essentiele publieke diensten. Verplicht FRIA + publicatie Algoritmeregister + AVG art. 22-recht. Hier is geen ruimte voor 'snelle pilots'. |
| Toelating tot publieke voorzieningen (woonruimte, zorg, etc.) | Hoog | Bijlage III §5b. Plus Awb-bezwaar-procedure: motivering moet menselijk navolgbaar zijn. Black-box-AI is hier juridisch onhoudbaar. |
| Risico-inschatting van personen door politie / OM | Hoog | Bijlage III §6 (rechtshandhaving). Volledige FRIA + technische documentatie + bias-test. Predictive policing op individu-niveau is verboden onder art. 5 lid 1d. |
| Asiel- of visumaanvragen-beoordeling | Hoog | Bijlage III §7 (migratie en asiel). Vergaande grondrechten-impact, FRIA-verplicht, plus Vreemdelingenwet-procedurele waarborgen. |
| Chatbot voor burgerservice (FAQ, doorverwijzing) | Beperkt | Geen besluitvorming over diensten — AI Act art. 50 transparantie. Burger moet weten dat het AI is, en alternatieve route naar mens moet beschikbaar zijn (Awb-borging). |
| Content-moderatie op overheid-platforms | Beperkt | Mits puur ondersteunend (mens beslist over verwijdering): art. 6 lid 3-uitzondering. Wel: vrijheid van meningsuiting (Handvest art. 11) raakt; documenteer in FRIA. |
| AI-document-extractie (vergunning-aanvragen, belastingaangiftes) | Beperkt | Pure data-extractie zonder besluit valt onder art. 6 lid 3a. Wel: bewaartermijn-afspraken volgens Archiefwet + AVG. |
Sector-specifieke wetgeving naast EU AI Act en AVG
Eisen aan motivering (art. 3:46), zorgvuldigheid (art. 3:2), bezwaar en beroep. Bij AI-besluiten: kenbare motivering vereist — een verwijzing naar 'algoritme' is onvoldoende. Awb art. 3:46 + 4:84 zijn de meest geraakte bepalingen.
Sinds 2022 verplicht voor gebruik van impactvolle algoritmes door Rijksoverheid; bij hoog-risico AI Act-systemen ook breder vereist via art. 49. Publicatie via algoritmeregister.overheid.nl met standaard-velden.
Recht op informatie voor burgers — AI-besluitvorming valt onder Woo-verzoeken. Trainingsdata, model-keuzes en evaluaties zijn typisch openbaar tenzij specifieke uitzondering geldt.
Verbod op volledig geautomatiseerde besluiten met rechtsgevolg, tenzij wettelijk toegestaan met passende waarborgen. Voor overheid: specifieke wettelijke grondslag + uitleg-recht + menselijke heroverweging.
Politieke Onderzoekscommissie Kinderopvangtoeslag heeft scherpe aanbevelingen gedaan over fraude-detectie-AI. Vrijwel alle uitvoeringsorganisaties hebben sindsdien aanvullende interne richtlijnen.
Vaak-gemaakte fouten in deze sector
Algoritmeregister-publicatie als afterthought
Veel gemeenten en ZBO's behandelen het Algoritmeregister als formaliteit — invullen wat moet, publiceren, klaar. Burgers en journalisten gebruiken het actief. Een onvolledige registratie zonder duidelijk doel/afweging triggert onmiddellijk Woo-verzoeken en kritische pers.
Awb-motivering die 'het algoritme zegt' citeert
Een Awb-besluit moet navolgbaar gemotiveerd zijn voor de burger en voor de bestuursrechter. Verwijzen naar een AI-uitkomst zonder feature-importance of menselijke onderbouwing is geen voldoende motivering — Centrale Raad van Beroep en Hoge Raad zijn hier strikt.
Profilering richting kwetsbare groepen
Na de Toeslagenaffaire is iedere fraude-detectie-AI op uitkeringsdoelgroepen onder politiek vergrootglas. Documenteer specifiek hoe je bias monitort op kwetsbare groepen (lage-inkomens, migrantenachtergrond, alleenstaande ouders) — anders krijgt het systeem politieke schade lang voor juridische.
Geen menselijke route bij chatbot
Een burger heeft Awb-recht op contact met een ambtenaar. Een chatbot die 'enige weg' is om iets te regelen schendt die rechtsbescherming. Borg een duidelijk pad naar mens, en documenteer dat in transparantie-statement.
Documenten die je in deze sector typisch nodig hebt
- AI-beleid met expliciete Awb-clausules over motivering en bezwaar
- Algoritmeregister-publicatie per AI-systeem (volgens standaard-velden algoritmeregister.overheid.nl)
- AI-register intern (uitgebreider dan publieke versie, voor toezicht en audit)
- FRIA per hoog-risico-systeem (verplicht voor publieke sector onder art. 27 lid 1)
- DPIA — bij persoonsgegevens-verwerking, gecombineerd met FRIA
- Technische documentatie inclusief trainingsdata-bronnen, bias-testen, model-keuzes
- Logging-policy met Archiefwet-bewaartermijnen + AI Act 6-mnd minimum
- Human-oversight-protocol voor elk hoog-risico-systeem (Awb-borging)
- Incident-response-plan met meldingsrichting AI Office + AP + politiek bestuur
- Burger-facing transparantie-statement met uitleg-recht + bezwaar-pad
- Klachtenprocedure inclusief route naar Nationale ombudsman
- Bewijs AI-geletterdheid voor ambtenaren + bestuurders
Veelgestelde vragen — Overheid en publieke sector
Wij zijn een gemeente met 5 fte op IT — kunnen wij AI Act-compliance halen?
Als wij AI inkopen via SAAS — wie is verantwoordelijk?
Awb-motivering bij hoog-risico AI — hoe doe je dat praktisch?
Hoeveel tijd kost een goede FRIA voor een gemiddelde gemeente-AI?
Mogen we burgers verplichten een AI-route te volgen (bv. chatbot eerst)?
Verder lezen in de kennisbank
FRIA in 7 stappen: grondrechten-effectbeoordeling voor MKB
Een FRIA (Fundamental Rights Impact Assessment) is voor hoog-risico AI-systemen verplicht onder EU AI Act art. 27. Welke 7 stappen je doorloopt, welke informatie je verzamelt, en hoe je het document maakt zonder een externe adviseur in te huren.
Hoog-risico AI herkennen: Annex III in begrijpelijk Nederlands
Bijlage III van de EU AI Act somt acht categorieen AI-systemen op die als hoog-risico gelden. Per categorie: wat valt eronder, wat valt er net buiten, en welke verplichtingen worden actief.
Audit-pack: wat de toezichthouder écht wil zien
Een audit-pack is een gestructureerde set documenten die bewijst dat je AI-Act-compliant werkt. Wat hoort er minimaal in voor MKB, hoe leveren toezichthouders een audit-vraag uit, en welke valkuilen vermijd je.
Ontvang een rapport voor jouw eigen organisatie in 5 minuten
De gratis risicoscan vraagt naar je specifieke AI-toepassingen en geeft een sector-aware classificatie. Geen account nodig.