AI Act-compliance voor onderwijs (PO, VO, MBO, HO)
Onderwijs-AI raakt minderjarigen, beoordeling en toelating — drie zware juridische items tegelijk. Bijlage III §3 maakt veel toepassingen hoog-risico, AVG art. 8 voegt extra waarborgen toe voor leerlingen onder de 16. Voor scholen en EdTech-aanbieders is dit een sector waar de wet streng is maar de praktijk verrassend werkbaar — als je de structuur kent.
Toezichthouders die in deze sector relevant zijn
Toezicht op kwaliteit en toegankelijkheid onderwijs. AI in beoordeling/toelating raakt deze toezicht-as direct.
Toezicht op AVG, met specifieke aandacht voor verwerking persoonsgegevens van minderjarigen (AVG art. 8) en EdTech-leveranciers.
Geen toezichthouder, wel de feitelijke standaard-zetters voor onderwijs-IT in NL. Hun convenanten en voorwaarden voor EdTech zijn de defacto branche-norm.
AI-toepassingen in deze sector — typische classificatie
Indicatieve classificatie per use-case. Echte classificatie hangt af van specifieke implementatie, data en autonomie-niveau — doe een risicoscan voor jouw specifieke geval.
| Use-case | Classificatie | Onderbouwing |
|---|---|---|
| Plaatsings- of selectie-AI bij toelating (HO of VO) | Hoog | Bijlage III §3a: AI voor toegang of toelating tot onderwijsinstellingen. FRIA verplicht. Bias-testen op beschermde kenmerken essentieel. |
| AI voor cijfer-bepaling / beoordeling examens | Hoog | Bijlage III §3b: AI voor evaluatie van leerresultaten. Vereist menselijke override-mogelijkheid + transparantie naar leerling/student. |
| Plagiaat-detectie / AI-content-detectie | Hoog | Wanneer uitkomst leidt tot beoordelings-besluit (zakken, fraude-procedure): Bijlage III §3b. False positives raken grondrecht op rechtsbescherming. Documenteer in FRIA hoe leerling kan reageren. |
| Gepersonaliseerd leren / adaptieve oefeningen | Beperkt | Mits puur ondersteunend (mens-docent ziet nog steeds de vorderingen): art. 6 lid 3-uitzondering. Wel AVG art. 8 voor minderjarigen + transparantie naar ouders. |
| Examenfraude-detectie via webcam-AI (proctoring) | Hoog | Bijlage III §3 + raakt biometrie (gezicht, blik). Bovendien art. 5 lid 1f: emotie-detectie in onderwijs is verboden — stress-detectie tijdens examens is dus gewoon dicht. |
| Chatbot voor leerling-FAQ / studentenservice | Beperkt | Geen beoordelings-impact — Art. 50 (transparantie). Voor minderjarigen: extra check op AVG art. 8 + ouder-toestemming voor accountkoppeling. |
| Studieadvies-AI (welke vervolgopleiding) | Beperkt | Hulpmiddel voor leerling/student, mens beslist zelf. Mits geen automatische uitsluiting van bepaalde routes. |
Sector-specifieke wetgeving naast EU AI Act en AVG
Algemene onderwijswetten met eisen aan kwaliteit, toelating en beoordeling. AI-systemen die in deze processen mee-werken vallen onder de instellings-verantwoordelijkheid.
HO-eisen aan toelating, beoordeling en bezwaar-procedures. Bij AI-toepassingen: examenreglement moet expliciet zijn over AI-inzet.
Onder de 16: ouderlijke toestemming verplicht voor verwerking persoonsgegevens bij online diensten. Onderwijs-AI met persoonsgegevens van minderjarigen vereist dit expliciet.
Standaard EdTech-DPA voor scholen onder afspraak met leveranciers (SIVON, SURF). Veel EdTech-leveranciers tekenen dit; gebruik het als basis bij inkoop.
Medezeggenschapsraad (MR) heeft instemmingsrecht bij invoering van technische middelen die leerlingen-data verwerken (art. 10c). AI-tools vallen hieronder.
Vaak-gemaakte fouten in deze sector
Proctoring-tools met emotie-/stress-detectie
Veel examenfraude-AI claimt 'gedrag-anomalie-detectie' wat in de praktijk emotie-/stress-detectie is. Onder art. 5 lid 1f (verbod op emotie-detectie in onderwijs) gewoon verboden. Vraag bij inkoop expliciet of de tool emotie-componenten heeft — zo ja, niet inkopen.
Ouder-toestemming aannemen via algemene voorwaarden
AVG art. 8 vereist specifieke toestemming van ouders voor verwerking onder de 16, niet 'als je je inschrijft, ga je akkoord met...'. Veel scholen hebben dit nog niet expliciet voor AI-toepassingen geregeld. Maak het een specifieke opt-in in inschrijving / ouder-portaal.
Plagiaat-tools die AI-detectie doen zonder transparantie
AI-content-detectie is notoir onbetrouwbaar (false-positive op niet-moedertaalsprekers, op leerlingen met dyslexie). Een fraude-beslissing op basis van een AI-detectie zonder menselijk weerwoord is een AVG art. 22-overtreding. Documenteer FRIA + menselijk-overrule-pad.
MR-instemming overslaan bij EdTech-pilot
Veel scholen draaien EdTech-pilots zonder MR-instemming. WMS art. 10c is wettelijk; pilots zonder formele goedkeuring zijn rechtmatig aanvechtbaar door ouders / leerlingen. Betrek MR vooraf.
Documenten die je in deze sector typisch nodig hebt
- AI-beleid met expliciete clausules over minderjarigen (AVG art. 8) en MR-instemming
- AI-register met MR-status per systeem (voorgelegd / instemming / nog open)
- FRIA + DPIA per hoog-risico-systeem (incl. specifieke risico-analyse minderjarigen)
- Ouder-toestemming-procedure (specifieke opt-in voor onderwijs-AI)
- Convenant Digitale Onderwijsmiddelen en Privacy ondertekend met leverancier
- Examenreglement-clausule over AI-inzet bij beoordeling
- Klachtenprocedure met escalatie naar examencommissie + Inspectie
- Logging-policy met Archiefwet-bewaartermijnen voor onderwijs-data
- Human-oversight-protocol — welke docent / examencommissie kan welke AI-output overrulen
- Bewijs AI-geletterdheid voor docenten + bestuur + ondersteunend personeel
- Transparantie-statement leerling/student-facing in begrijpelijke taal (WPO-leeftijdsadequaat)
Veelgestelde vragen — Onderwijs
Mogen we ChatGPT in de klas gebruiken voor opdrachten?
Plagiaat-tool detecteert AI-tekst — kunnen we dat als bewijs gebruiken?
Wij zijn een EdTech-startup — moeten wij conformiteitsbeoordeling?
Onze ROC heeft 50+ verschillende EdTech-tools. Hoe organiseer ik dat?
Geldt AVG art. 8 ook voor leerlingen van 16-17?
Verder lezen in de kennisbank
Verboden AI-praktijken (Art. 5): wat mag wel en wat niet?
EU AI Act art. 5 verbiedt acht AI-praktijken absoluut — sinds 2 februari 2025. Welke specifieke gebruiksvormen vallen eronder, welke uitzonderingen zijn er, en welke zachte grensgevallen moet je kennen voordat je een AI-tool inkoopt.
Hoog-risico AI herkennen: Annex III in begrijpelijk Nederlands
Bijlage III van de EU AI Act somt acht categorieen AI-systemen op die als hoog-risico gelden. Per categorie: wat valt eronder, wat valt er net buiten, en welke verplichtingen worden actief.
FRIA in 7 stappen: grondrechten-effectbeoordeling voor MKB
Een FRIA (Fundamental Rights Impact Assessment) is voor hoog-risico AI-systemen verplicht onder EU AI Act art. 27. Welke 7 stappen je doorloopt, welke informatie je verzamelt, en hoe je het document maakt zonder een externe adviseur in te huren.
Ontvang een rapport voor jouw eigen organisatie in 5 minuten
De gratis risicoscan vraagt naar je specifieke AI-toepassingen en geeft een sector-aware classificatie. Geen account nodig.