Verboden sinds 2 februari 2025: De verbodsbepalingen uit artikel 5 van de EU AI Act zijn de eerste regels die daadwerkelijk van kracht zijn geworden. Organisaties die nog steeds verboden AI-systemen inzetten, riskeren boetes tot 35 miljoen euro of 7% van de wereldwijde jaaromzet. Sinds februari 2026 geldt daarnaast de AI-geletterdheidsplicht (artikel 4), en vanaf augustus 2026 worden de verplichtingen voor hoog-risico AI-systemen van kracht.
De EU AI Act, die op 1 augustus 2024 in werking is getreden, introduceert een gelaagd regelgevend kader voor kunstmatige intelligentie in Europa. Het meest vergaande onderdeel van deze wet zijn de absolute verboden: AI-toepassingen die de Europese Unie beschouwt als een onaanvaardbaar risico voor grondrechten, veiligheid en democratische waarden. Deze verboden, vastgelegd in artikel 5 van de verordening, zijn op 2 februari 2025 van kracht geworden en zijn daarmee de eerste operationele bepalingen van de AI Act.
Het belang van deze verbodsbepalingen is niet te onderschatten. Ze vormen de rode lijn die Europa trekt: ongeacht de economische of technologische voordelen die een AI-systeem kan bieden, sommige toepassingen zijn simpelweg niet verenigbaar met de Europese waarden van menselijke waardigheid, non-discriminatie en persoonlijke autonomie.
De acht categorieen van verboden AI-systemen
Artikel 5 beschrijft acht categorieen van AI-systemen die volledig verboden zijn binnen de Europese Unie. Elke categorie richt zich op een specifiek type risico dat de EU als onaanvaardbaar beschouwt.
1. Subliminale, manipulatieve of misleidende technieken
AI-systemen die technieken inzetten om personen te manipuleren op manieren die buiten hun bewustzijn vallen, zijn verboden. Het gaat specifiek om systemen die het vermogen van een persoon om een weloverwogen beslissing te nemen wezenlijk ondermijnen. Denk aan AI die via onbewuste audiovisuele prikkels koopgedrag beinvloedt, of systemen die dark patterns inzetten op een manier die verder gaat dan reguliere marketing.
In de praktijk is het onderscheid tussen overtuigende marketing en manipulatieve AI niet altijd eenvoudig. De Europese Commissie heeft in haar richtsnoeren (gepubliceerd in februari 2025) verduidelijkt dat het verbod ziet op technieken die het besluitvormingsproces van een persoon op een significante wijze verstoren, waardoor die persoon een beslissing neemt die hij of zij anders niet zou hebben genomen. Reguliere personalisatie en aanbevelingssystemen vallen hier in principe niet onder, tenzij zij specifiek zijn ontworpen om kwetsbaarheden te exploiteren.
2. Exploitatie van kwetsbaarheden
AI-systemen die doelbewust misbruik maken van kwetsbaarheden van specifieke groepen zijn verboden. Dit betreft kwetsbaarheden op grond van leeftijd (denk aan kinderen en ouderen), een handicap, of een specifieke sociale of economische situatie. Het verbod richt zich op systemen die deze kwetsbaarheden benutten om het gedrag van personen te beinvloeden op een wijze die hen of anderen schade berokkent.
Een concreet voorbeeld: een AI-systeem dat speelgoed aanprijst aan kinderen via spraakassistenten, waarbij het systeem specifiek inspeelt op de psychologische kwetsbaarheden van minderjarigen om herhaalaankopen te stimuleren. Of een app die financiele producten pusht naar ouderen met cognitieve beperkingen, wetende dat zij de complexiteit van het product niet kunnen overzien.
3. Social scoring door overheden en private partijen
Het verbod op social scoring is een van de meest besproken bepalingen van de AI Act. AI-systemen die natuurlijke personen classificeren op basis van hun sociale gedrag of persoonlijke kenmerken, zijn verboden wanneer deze classificatie leidt tot een nadelige behandeling die niet gerechtvaardigd of onevenredig is. Anders dan vaak wordt gedacht, geldt dit verbod niet alleen voor overheden maar ook voor private partijen.
Social scoring: breder dan je denkt
Het verbod op social scoring beperkt zich niet tot systemen zoals het Chinese sociale kredietsysteem. Het omvat ook:
- Werkgevers die AI inzetten om medewerkers te scoren op basis van hun sociale media-activiteit
- Verzekeraars die premies baseren op levensstijlscores afgeleid uit online gedrag
- Verhuurders die huurders selecteren op basis van een algoritmische "betrouwbaarheidsscore"
- Elke toepassing waarbij gedragsdata uit een context wordt gebruikt voor nadelige beslissingen in een andere context
De kern van het verbod is dat personen niet mogen worden beoordeeld of benadeeld op basis van een geaggregeerde score die hun sociale gedrag kwantificeert, tenzij die beoordeling direct relevant en evenredig is voor het specifieke doel.
4. Realtime biometrische identificatie in openbare ruimten
Het gebruik van realtime biometrische identificatiesystemen op afstand in publiek toegankelijke ruimten voor rechtshandhavingsdoeleinden is in principe verboden. Dit verbod erkent dat massale gezichtsherkenning in de publieke ruimte een verregaande inbreuk vormt op het recht op privacy en de vrijheid van beweging. De chilling effect van wetende dat je gezicht continu wordt gescand, is onverenigbaar met een vrije en open samenleving.
Dit verbod kent wel drie strikt afgebakende uitzonderingen (zie hieronder), maar zelfs in die gevallen gelden zware procedurele waarborgen. Elk gebruik moet vooraf worden goedgekeurd door een rechterlijke of onafhankelijke administratieve autoriteit, en het moet voldoen aan de beginselen van noodzakelijkheid en evenredigheid.
5. Biometrische categorisatie op gevoelige kenmerken
AI-systemen die individuen categoriseren op basis van hun biometrische gegevens om daaruit gevoelige kenmerken af te leiden, zoals ras of etnische afkomst, politieke overtuigingen, lidmaatschap van een vakbond, religieuze of filosofische overtuigingen, seksleven of seksuele orientatie, zijn verboden. Dit verbod erkent dat technologie die mensen classificeert op basis van dergelijke kenmerken inherent discriminerend is en een ernstig risico vormt voor de grondrechten.
Een uitzondering geldt voor het labelen of filteren van rechtmatig verkregen biometrische datasets, en voor het categoriseren van biometrische gegevens op het gebied van rechtshandhaving. Maar ook deze uitzonderingen zijn streng begrensd en mogen niet leiden tot discriminatoire praktijken.
6. Ongerichte scraping voor gezichtsherkenningsdatabanken
AI-systemen die gezichtsherkenningsdatabanken opbouwen door het ongericht scrapen van gezichtsafbeeldingen van het internet of uit CCTV-beelden zijn niet toegestaan. Dit verbod is een directe reactie op praktijken zoals die van Clearview AI, het Amerikaanse bedrijf dat miljarden gezichtsfoto's van het internet verzamelde zonder toestemming. Meerdere Europese privacytoezichthouders, waaronder de Autoriteit Persoonsgegevens in Nederland, hebben al boetes opgelegd aan dergelijke bedrijven.
Het verbod is absoluut: er zijn geen uitzonderingen. Het maakt niet uit of de scraping wordt uitgevoerd voor rechtshandhaving, commerciele doeleinden of onderzoek. Het opbouwen van een massale gezichtsherkenningsdatabank door ongerichte dataverzameling is onverenigbaar met het Europese recht op privacy.
7. Emotieherkenning op de werkplek en in het onderwijs
AI-systemen die emoties proberen af te leiden op de werkvloer of in onderwijsinstellingen zijn verboden. Dit verbod is gebaseerd op twee overwegingen. Ten eerste is er substantiele wetenschappelijke kritiek op de validiteit van emotieherkenning: de aanname dat interne emotionele toestanden betrouwbaar kunnen worden afgeleid uit gezichtsuitdrukkingen, stemtoon of lichaamshouding wordt door veel onderzoekers betwist. Ten tweede zijn de werkplek en het onderwijs contexten waarin machtsverhoudingen een grote rol spelen, waardoor de inzet van emotieherkenning een onaanvaardbare inbreuk vormt op de persoonlijke levenssfeer.
Wanneer is emotieherkenning wel toegestaan?
Het verbod op emotieherkenning kent enkele uitzonderingen:
- Medische doeleinden: AI die emoties detecteert voor medische of veiligheidsredenen (bijvoorbeeld het herkennen van vermoeidheid bij chauffeurs) is niet verboden.
- Onderzoeksdoeleinden: Wetenschappelijk onderzoek naar emotieherkenning blijft mogelijk, mits het niet wordt ingezet in een werk- of onderwijscontext.
- Buiten werk en onderwijs: In andere contexten (bijvoorbeeld entertainment of persoonlijke welzijnsapps) gelden de regels voor beperkt-risico AI, niet het absolute verbod.
Let op: ook waar emotieherkenning niet verboden is, gelden de transparantieverplichtingen van artikel 50 en de AVG-vereisten.
8. Predictieve risicobeoordeling op basis van profilering
AI-systemen die uitsluitend op basis van profilering of persoonlijkheidskenmerken een risicobeoordeling uitvoeren van natuurlijke personen met het oog op het voorspellen of iemand een strafbaar feit zal plegen, zijn verboden. Dit verbod richt zich specifiek op predictive policing-systemen die individuen als potentiele criminelen bestempelen op basis van wie zij zijn, in plaats van wat zij doen.
Het cruciale woord is "uitsluitend": als een risicobeoordeling wordt aangevuld met objectieve, verifieerbare feiten die direct verband houden met criminele activiteiten, valt het systeem niet automatisch onder het verbod. Maar een systeem dat mensen puur op basis van hun woonwijk, etnische achtergrond of sociaaleconomische status als risico bestempelt, is ondubbelzinnig verboden.
Leer de EU AI Act door te doen
Geen slides. Geen saaie e-learning. Probeer een interactieve module.
Probeer het zelf
3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.
Uitzonderingen op de verbodsbepalingen
De EU AI Act voorziet in beperkte uitzonderingen, met name voor het verbod op realtime biometrische identificatie in openbare ruimten. Deze uitzonderingen zijn alleen toegestaan onder strikte voorwaarden:
- Het gericht zoeken naar specifieke vermiste personen, waaronder ontvoerde kinderen. Dit moet gaan om een concreet, individueel geval.
- Het voorkomen van een specifieke, substantiele en onmiddellijke bedreiging voor het leven of de fysieke veiligheid van personen, of een reele en actuele of voorzienbare terroristische dreiging.
- Het opsporen van verdachten van specifieke ernstige strafbare feiten (zoals terrorisme, mensenhandel, moord, verkrachting, of andere delicten waarvoor een Europees aanhoudingsbevel kan worden uitgevaardigd).
Zelfs bij deze uitzonderingen gelden strenge procedurele waarborgen. Er is voorafgaande goedkeuring nodig van een rechterlijke autoriteit of een onafhankelijke administratieve autoriteit. In urgente gevallen kan het gebruik starten zonder deze goedkeuring, maar dan moet de goedkeuring zo snel mogelijk achteraf worden verkregen. Wordt de goedkeuring geweigerd, dan moet het gebruik onmiddellijk worden gestaakt en moeten alle verzamelde gegevens worden verwijderd.
Sancties bij overtreding
Het overtreden van de verbodsbepalingen leidt tot de zwaarste sancties die de AI Act kent:
- Tot 35 miljoen euro of 7% van de totale wereldwijde jaaromzet van het voorgaande boekjaar, afhankelijk van welk bedrag hoger is.
- Voor kmo's en start-ups gelden proportionele maxima, maar ook deze zijn substantieel.
Om een idee te geven: voor een bedrijf met een jaaromzet van 500 miljoen euro kan de boete oplopen tot 35 miljoen euro. Voor een techgigant met een omzet van 200 miljard euro kan dit neerkomen op 14 miljard euro. Wil je berekenen wat het risico voor jouw organisatie is? Gebruik de boetecalculator op deze site.
De handhaving wordt uitgevoerd door nationale markttoezichtautoriteiten. In Nederland is de Autoriteit Persoonsgegevens (AP) aangewezen als de primaire toezichthouder voor de AI Act. De AP heeft al aangegeven dat zij actief zal handhaven op de verbodsbepalingen, met prioriteit voor toepassingen die de grondrechten van burgers schenden.
Wat betekent dit voor organisaties in maart 2026?
Nu de verbodsbepalingen al ruim een jaar van kracht zijn, is het essentieel dat organisaties hun AI-portfolio hebben gescreend op verboden toepassingen. In de praktijk blijkt dat veel organisaties dit nog onvoldoende hebben gedaan. Hier volgen concrete stappen die u kunt nemen:
- Inventariseer alle AI-systemen die uw organisatie gebruikt of ontwikkelt. Gebruik hiervoor de risicoclassificatie decision tree om te bepalen onder welke categorie elk systeem valt.
- Toets elk systeem aan de acht verbodscategorieen. Let specifiek op systemen die gebruikmaken van biometrische gegevens, emotieherkenning, of gedragsscoring.
- Beoordeel of uitzonderingen van toepassing zijn. Uitzonderingen gelden alleen onder strikte voorwaarden en vereisen gedegen documentatie.
- Voer een grondrechtenbeoordeling (FRIA) uit voor systemen die in de buurt komen van de verbodsdrempel. De FRIA-generator kan hierbij helpen.
- Zorg voor AI-geletterdheid binnen uw organisatie, zodat medewerkers verboden toepassingen herkennen. Sinds februari 2026 is dit wettelijk verplicht op grond van artikel 4. Lees meer over AI-geletterdheid als toetsbaar beleid.
- Documenteer uw compliance-inspanningen. Bij een eventuele handhavingsactie is het van belang dat u kunt aantonen dat u actief hebt getoetst en gehandeld.
De relatie met hoog-risico AI
De verbodsbepalingen staan niet op zichzelf. Zij vormen de bovengrens van het risicogebaseerde systeem van de AI Act. Direct onder de verboden categorie bevinden zich de hoog-risico AI-systemen, waarvoor strenge maar niet-prohibitieve verplichtingen gelden. Het is belangrijk om het onderscheid te begrijpen: een systeem dat net niet onder een verbod valt, kan alsnog als hoog-risico worden geclassificeerd en onderworpen zijn aan uitgebreide verplichtingen op het gebied van risicobeheer, datakwaliteit, transparantie en menselijk toezicht.
Een goed voorbeeld is het gebruik van AI in werving en selectie. Een AI-systeem dat sollicitanten screent op basis van cv-analyse is niet verboden, maar valt wel onder de hoog-risico categorie (Bijlage III, punt 4). Dit betekent dat er strikte eisen gelden voor bias-mitigatie, transparantie en menselijke tussenkomst. Maar zodra dat systeem overgaat tot social scoring van kandidaten op basis van hun sociale media-activiteit, kan het de grens naar een verboden toepassing overschrijden.
Voor een compleet overzicht van hoe de verschillende risiconiveaus samenhangen, raadpleeg de AI Act Explorer waar u de volledige wettekst kunt doorzoeken.
De bredere context: waarom Europa deze grens trekt
De verbodsbepalingen van de EU AI Act zijn niet louter juridische regels. Ze zijn een uitdrukking van een fundamentele keuze die Europa maakt over de rol van technologie in de samenleving. Waar andere jurisdicties, zoals de Verenigde Staten en China, een meer permissieve of juist autoritaire benadering kiezen, positioneert Europa zich als de regio die menselijke waardigheid en autonomie als niet-onderhandelbaar beschouwt.
Deze keuze heeft consequenties. Het betekent dat sommige AI-toepassingen die elders wel worden ontwikkeld en ingezet, in Europa niet zijn toegestaan. Maar het betekent ook dat Europese burgers en consumenten een beschermingsniveau genieten dat nergens anders ter wereld zo expliciet in wetgeving is verankerd.
De komende maanden worden cruciaal voor de handhaving van deze verboden. Met de hoog-risico verplichtingen die in augustus 2026 van kracht worden, zal de focus van toezichthouders verschuiven, maar de verbodsbepalingen blijven de absolute ondergrens. Organisaties die hier nog niet op voorbereid zijn, doen er goed aan om nu actie te ondernemen. De AI Act enforcement gereedheid biedt een goed startpunt.