Tijdlijn die telt: Sinds februari 2025 zijn organisaties verplicht om AI-geletterdheid te organiseren onder artikel 4 van de AI-verordening. Per augustus 2026 starten nationale toezichthouders met handhaving. Wie nu slim bouwt, voorkomt later herstelwerk en kan ondertussen veilig innoveren. De AP biedt met de nieuwe handreiking "Verder bouwen aan AI-geletterdheid" een concreet bouwplan.
Wat is er precies nieuw?
De Autoriteit Persoonsgegevens publiceerde deze week een vervolghandreiking over AI-geletterdheid. Dit is geen losse campagne of vrijblijvende aanbeveling, maar een verdieping op "Aan de slag met AI-geletterdheid" die de wettelijke plicht vertaalt naar een meerjarig, iteratief actieplan: identificeren, doelen bepalen, uitvoeren en evalueren.
Het document is doorspekt met inzichten uit de oproep tot input en AP-bijeenkomsten, en laat zien dat veel organisaties de eerste stappen hebben gezet, maar moeite hebben met verankering, sturing en meting. Het centrale idee: AI-geletterdheid is geen eenmalige training, maar een organisatievaardigheid die je zichtbaar maakt, beheerst en periodiek verbetert.
Wat vereist de wet precies?
Artikel 4 van de AI-verordening verplicht aanbieders en gebruikers van AI-systemen om te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en bij andere personen die namens hen met AI-systemen werken. De Europese Commissie verduidelijkt dat dit risicogebaseerd is: de rol van de organisatie (aanbieder of gebruiker), de context van inzet en de risico's van de systemen bepalen de diepgang.
Let op twee tijdsdimensies:
- Februari 2025: de plicht geldt al sinds deze datum
 - Augustus 2026: nationale toezichthouders starten handhaving
 
Bewijsvoering zit in interne documentatie en hoeft geen certificaat te zijn. De Europese Commissie verduidelijkt dit in hun Q&A: "Providers and deployers are not required to obtain a certificate for AI literacy. It is sufficient to maintain internal documentation demonstrating the measures taken."
De kern van AI-geletterdheid, volgens de AP
De AP omschrijft AI-geletterdheid als een doorlopende inspanning die rekening houdt met context en rollen. Het gaat dus verder dan "weten wat een model is". Medewerkers en andere betrokkenen moeten:
- Risico's kunnen herkennen
 - De impact op mensen snappen
 - Weten hoe je verantwoord met AI werkt binnen de eigen processen
 
De verplichting ziet nadrukkelijk ook op personen die namens de organisatie AI inzetten, zoals leveranciers of dienstverleners. Dat alles vraagt om een structurele aanpak, niet om losse workshops.
Het meerjarig actieplan in vier stappen
1) Identificeren: scherp in beeld wat je hebt en wie ermee werkt
Breng AI-systemen in kaart, inclusief doel, mate van autonomie en potentiële gevolgen voor grondrechten, veiligheid en gezondheid. Koppel daar direct de betrokken rollen aan: wie gebruikt, beheert, ontwikkelt of beslist met input van AI?
Leg ook het huidige kennis- en vaardigheidsniveau vast. Zonder deze nulmeting blijft elk programma generiek en niet-aantoonbaar.
Praktisch voorbeeld: Een juridische afdeling die AI gebruikt voor contractreview maakt een overzicht van:
- Welke AI-tools worden gebruikt (bijvoorbeeld documentanalyse-tools, generatieve AI voor onderzoek)
 - Wat het doel is (due diligence versnellen, jurisprudentie zoeken)
 - Wie ermee werkt (junior juristen, senior partners, paralegals)
 - Welke data erin gaat (contracten, vertrouwelijke documenten)
 - Wat de belangrijkste risico's zijn (hallucinerende output, vertrouwelijkheid, betrouwbaarheid van bronnen)
 
2) Doelen bepalen: prioriteren op risico en rol
Stel concrete, meetbare doelen op basis van risiconiveau en functieprofielen. Een team dat een hoog-risico toepassing beheert, heeft andere diepgang nodig dan een marketingteam dat generatieve tools test.
Denk multidisciplinair: techniek, mens, recht en organisatiecultuur. Beleg verantwoordelijkheden en maak expliciet wie waarvoor aanspreekbaar is.
Risicogebaseerde doelen in de praktijk
IT-beheerders van AI-modellen: Diepgaande kennis van monitoring, interpretatie van resultaten, escalatiepaden en security-hygiëne. Doel: "Alle beheerders volgen een module over modelgedrag en impact op eindgebruikers binnen het tweede kwartaal van 2025."
Marketing-team met generatieve AI: Bewustzijn van modellimieten, bronverificatie en transparantie. Doel: "Alle marketingmedewerkers weten hoe ze AI-gegenereerde content valideren en wanneer menselijke review verplicht is."
HR bij recruitment met AI-tools: AVG-compliance, bias-bewustzijn, transparantie naar kandidaten. Doel: "HR-team voltooit DPIA-training en kan uitleggen wanneer AI-gebruik gemeld moet worden aan kandidaten."
3) Uitvoeren: van powerpoint naar gedrag
Veranker AI-geletterdheid in governance en stuur niet alleen bottom-up. Bestuurders moeten het onderwerp agenderen, budgetteren en zelf voldoende kennis hebben om richting te geven.
Combineer training en awareness met:
- Transparantie over waar en hoe AI wordt gebruikt
 - Cultuur/visiestuk ("Hoe gaan wij om met AI?")
 - Intern dossier van je aanpak en voortgang
 
De AP benadrukt dat het niet alleen om kennisoverdracht gaat, maar om gedragsverandering en bewustwording die in de dagelijkse werkpraktijk zichtbaar wordt.
4) Evalueren: meten, leren, bijsturen
Zet monitoring op om te zien of doelen worden gehaald, analyseer residueel risico en neem AI-geletterdheid op in managementrapportages. Naarmate het AI-gebruik groeit, moet de volwassenheid van je programma meebewegen.
Evalueren is geen eindtoets, maar routine.
Wie doet wat? Een praktische rolverdeling
Een werkend programma staat of valt met eigenaarschap. De AP adviseert om AI-geletterdheid bestuurlijk te borgen en een duidelijke verantwoordelijke aan te wijzen. In de praktijk werkt vaak het volgende:
| Rol | Verantwoordelijkheid | 
|---|---|
| Directie | Zet koers, bewaakt middelen, agendeert AI-geletterdheid in bestuursvergaderingen | 
| AI-governance groep | Vertaalt koers naar rollen en rituelen (legal, security, privacy, data, HR/L&D, business) | 
| Teamleads | Maken het concreet in processen en on-the-job leren | 
| HR/L&D | Houdt opleidingspaden actueel, meet deelname en effect | 
Zo voorkom je dat kennis in een projectteam blijft hangen en koppel je het aan besluitvorming en risicobeheersing.
Voorbeelden die werken in de praktijk
Juridische afdeling
Start met een overzicht van AI-touchpoints: contractreview met generatieve AI, due diligence, research. Leg per proces vast welke AI wordt gebruikt, wat het doel is en wat de belangrijkste risico's zijn.
Concrete doelen:
- Alle juristen volgen een module over betrouwbare bronverificatie en modelbeperkingen
 - Tweewekelijks oogstmoment met lessons learned
 - Beslisnotities vermelden of AI is gebruikt en hoe is gevalideerd
 
Dat maakt keuzes uitlegbaar en de aanpak toetsbaar.
IT en data
Voor beheerders van modellen of integraties horen onderwerpen als monitoring, interpretatie van resultaten, escalatiepaden en security-hygiëne in het curriculum. Trainers leggen de link tussen modelgedrag en impact op eindgebruikers.
Governance vraagt hier om duidelijke rolafbakening: wie beoordeelt verandering in modelversies, wie kan ingrijpen, wie documenteert?
Onderwijs en serviceorganisaties
Teams die generatieve chatbots of leerplatforms inzetten, hebben een blend nodig van didactiek, bias-bewustzijn en transparantie naar leerlingen of klanten:
- Wanneer praat je met AI?
 - Welke beperkingen gelden?
 - Hoe meld je fouten?
 
Organisaties noemen in de AP-input dat ze meer sturing zoeken en tegelijk bang zijn om grip te verliezen. Een horizontale werkgroep AI-geletterdheid helpt om ervaringen te delen en patronen te vangen.
Meten zonder overdosis dashboards
De Commissie geeft aan dat je geen certificaat nodig hebt; interne documentatie volstaat. Denk aan:
- Register van AI-systemen met risicoprofiel
 - Rol-gebaseerde leerpaden met duidelijke doelen per functie
 - Aanwezigheids- en toetsregistraties (zonder bureaucratie)
 - Managementupdates per kwartaal
 
Houd het klein en betekenisvol: meet liever of gedrag verandert (bijvoorbeeld het aantal peer-reviews met AI-vermelding) dan alleen deelnamepercentages. Laat zien dat je doelen periodiek bijstelt op basis van incidenten, audits en feedback.
Praktische meetbare indicatoren:
- Percentage medewerkers dat de basis AI-awareness training heeft afgerond
 - Aantal AI-systemen in het register met volledig risicoprofiel
 - Percentage beslisnotities waarbij AI-gebruik is gedocumenteerd
 - Aantal meldingen van AI-gerelateerde incidenten of near-misses
 - Resultaten van periodieke kennistoetsen per risicogroep
 
Veelgemaakte valkuilen en hoe je ze ontwijkt
Alleen tools tellen, niet de context
Een lijst met AI-systemen zonder beschrijving van doel, autonomie, datastromen en betrokken rollen is te mager. Begin bij het werk en de beslissingen die met AI worden genomen en koppel daar het leerdoel aan.
Training als los event
Eén e-learning verandert geen gedrag. Combineer micro-learning met praktijkopdrachten, peer-sessies en besluitvormingsregels. Leg vast hoe teams omgaan met onzekerheden in output en wanneer menselijk ingrijpen nodig is.
Geen bestuurlijke verankering
Als management niet zichtbaar meedoet, verdampt aandacht. Plan een kwartaalritme waarin directie de status bespreekt, keuzes vastlegt en obstakels oplost.
Vergeten van externe schakels
De verplichting ziet ook op personen die namens jouw organisatie handelen. Neem leveranciers, inhuur en partners op in je plan, met duidelijke onboarding en afspraken.
De AP merkt op: "AI-geletterdheid beperkt zich niet tot eigen medewerkers. Ook derden die namens de organisatie met AI-systemen werken, vallen onder de verplichting."
De AP gaat dit onderwerp actief volgen
De AP positioneert AI-geletterdheid als aandachtspunt onder haar coördinerende rol voor algoritmes en AI. Verwacht verdiepende activiteiten en monitoring van de status bij organisaties, plus vervolgbijeenkomsten waar je kunt spiegelen met peers.
Dat is interessant voor iedereen die intern draagvlak wil vergroten en de eigen aanpak wil benchmarken.
Een compacte routekaart voor de komende 90 dagen
Week 1–2: Inventarisatie
Maak een actuele lijst van AI-toepassingen, doelen, mate van autonomie en primaire risico's. Koppel er een rollenmatrix aan en bepaal per rol het gewenste kennisniveau. Gebruik bestaande tools zoals je IT-asset register als startpunt.
Week 3–4: Doelen
Formuleer 3–5 meetbare doelen per risicodomein. Leg vast wie eigenaar is, hoe je voortgang meet en hoe escalatie werkt. Presenteer dit aan directie voor commitment en budget.
Maand 2: Uitvoeren
Start rol-specifieke leerinterventies. Publiceer je AI-gebruiksregister intern. Schrijf een kort cultuur/visiestuk ("Hoe werken wij met AI?"). Zet een statuslog op.
Maand 3: Evalueren en bijsturen
Bespreek resultaten in het MT, analyseer residueel risico, stel doelen bij en plan het volgende kwartaal. Neem inzichten op in je managementrapportage.
Quick wins die onmiddellijk impact hebben:
- Update je data handling-policy om expliciet AI-tools te noemen
 - Maak een FAQ-document met concrete voorbeelden van toegestaan en verboden gebruik
 - Creëer een "AI-vraagbaak" waar medewerkers snel kunnen checken of iets mag
 - Voeg AI-gebruik toe aan je onboarding-programma voor nieuwe medewerkers
 
Waarom dit onderwerp perfect past bij jouw organisatie
AI-geletterdheid is geen trainingslijn, maar een organisatiecompetentie. Het maakt innovatie veiliger, versnelt adoptie en zorgt dat keuzes uitlegbaar zijn naar bestuur, toezichthouders en maatschappij.
Met de AP-handreiking en de Q&A van de Europese Commissie is er nu een helder kader om dit aantoonbaar te regelen, zónder onnodige overhead. Begin klein, maak het zichtbaar en bouw door op wat werkt.
Drie uitgangspunten voor succes
1. Pragmatisme boven perfectie: Begin met de AI-systemen die het meeste risico vormen of het meest gebruikt worden. Je hoeft niet alles in één keer op orde te hebben.
2. Gedrag boven papier: Een uitgebreid beleidsdocument dat niemand leest, is minder effectief dan een kort, praktisch document dat echt gebruikt wordt in de dagelijkse praktijk.
3. Enabler boven blocker: Positioneer AI-geletterdheid als iets dat mensen helpt om beter en veiliger te werken, niet als extra bureaucratie die ze tegenwerkt.
De link met bredere governance
AI-geletterdheid staat niet op zichzelf. Het is een bouwsteen in je bredere AI-governance die ook omvat:
- AI-risicobeheersing (FRIA's, DPIA's)
 - Technische documentatie van AI-systemen
 - Transparantie naar gebruikers en betrokkenen
 - Incident management en escalatieprocedures
 
Organisaties die dit integraal oppakken, zien dat investeringen in AI-geletterdheid direct bijdragen aan compliance met de volledige AI-verordening. Medewerkers die begrijpen waarom bepaalde regels bestaan, passen ze ook beter toe.
Conclusie: van verplichting naar organisatievaardigheid
De AP-handreiking biedt een werkbaar kader om AI-geletterdheid te organiseren als een doorlopend programma in plaats van een eenmalige actie. De kern is eenvoudig maar krachtig: identificeer systematisch, bepaal doelen op maat, voer uit met bestuurlijke steun en evalueer continu.
Drie actiepunten voor volgende week:
- Download de AP-handreiking en plan een sessie met je AI-governance team om de vier stappen door te nemen
 - Inventariseer je huidige AI-systemen en wie ermee werkt (zelfs een simpele spreadsheet is een goed begin)
 - Bepaal één concrete pilot voor een specifieke afdeling of risicogroep om mee te starten
 
De organisaties die nu beginnen, bouwen een voorsprong op. Niet alleen omdat ze eerder compliant zijn, maar vooral omdat ze een cultuur ontwikkelen waarin AI verantwoord en effectief wordt ingezet. Dat is geen kostenpost, maar een investering in toekomstbestendigheid.
Bronnen
- Autoriteit Persoonsgegevens, Verder bouwen aan AI-geletterdheid (oktober 2025)
 - Autoriteit Persoonsgegevens, Aan de slag met AI-geletterdheid (eerdere handreiking)
 - Europese Commissie, AI Literacy – Questions & Answers (doorlopend bijgewerkt)
 - AI-verordening, Artikel 4: Verplichtingen inzake AI-geletterdheid