Responsible AI Platform
🔒 NIS2 × AI Act

NIS2 & AI Act

Cybersecurity en AI-compliance als één vraagstuk

Zahed AshkaraBijgewerkt: juni 2026~12 min leestijd

Waarom NIS2 en de AI Act samen moeten worden bekeken

AI-systemen zijn allang geen softwarelaagje meer bovenop bestaande processen. In de energiesector sturen ze distributienetwerken aan. In de zorg ondersteunen ze triage en diagnostiek. In de transportsector optimaliseren ze verkeersstromen en planningsprocessen. Daarmee zijn AI-systemen kritieke digitale infrastructuur geworden — en precies dat is wat NIS2 reguleert.

De Network and Information Security Directive 2 (Richtlijn (EU) 2022/2555) legt essentiële en belangrijke entiteiten verplichtingen op rond cybersecurityrisicobeheer, incidentmelding en beveiliging van de toeleveringsketen. De AI Act legt diezelfde sectoren verplichtingen op rond technische robuustheid, incidentrapportage en toezicht op aanbieders. De twee kaders kennen geen expliciete verwijzing naar elkaar — maar de raakvlakken zijn aanzienlijk.

Voor organisaties die zowel NIS2-entiteit zijn als hoog-risico AI inzetten — en dat zijn er veel — leidt een gesplitste aanpak onvermijdelijk tot dubbel werk, lacunes en verhoogd compliancerisico. De slimste aanpak is geïntegreerd: één risicobeoordeling, twee wettelijke kaders, en duidelijke eigenaarschapsstructuren die beide verplichtingen afdekken.

Wat is NIS2?

NIS2 is de herziene richtlijn voor netwerk- en informatiebeveiliging in de EU, van kracht sinds oktober 2024 in Nederland via de Cyberbeveiligingswet. De richtlijn geldt voor essentiële entiteiten (energie, transport, bankwezen, drinkwater, gezondheid, digitale infrastructuur, ruimtevaart) en belangrijke entiteiten (post, afvalbeheer, chemie, levensmiddelen, productie, digitale aanbieders, onderzoek). Samen zijn dat tienduizenden organisaties in Nederland.

NIS2 verplicht entiteiten tot een gedocumenteerd cybersecurityrisicobeheerssysteem, incidentmelding aan de nationale autoriteit (NCSC of sector-CSIRT) binnen strikte termijnen, en actief beheer van de beveiliging in de toeleveringsketen. Bijzonder is dat NIS2 het bestuur expliciet aansprakelijk stelt: leden van het leidinggevend orgaan kunnen persoonlijk aansprakelijk worden gesteld als aantoonbaar onvoldoende aandacht is besteed aan cybersecurity.

In Nederland houdt het Nationaal Cyber Security Centrum (NCSC) toezicht op essentiële entiteiten; sectorale toezichthouders — zoals de ACM, DNB en IGJ — houden toezicht op belangrijke entiteiten in hun respectieve sectoren. De boetes kunnen oplopen tot €10 miljoen of 2% van de wereldwijde jaaromzet voor essentiële entiteiten, en €7 miljoen of 1,4% voor belangrijke entiteiten.

De 5 kruispunten van NIS2 en AI Act

Hieronder beschrijven we de vijf concrete punten waar NIS2 en de AI Act op elkaar aansluiten. Bij elk kruispunt leggen we uit wat de verplichting inhoudt, welke artikelen van toepassing zijn, en wat dit betekent voor jouw compliance-aanpak.

01

Cybersecurity risicobeheer × AI-systeembeveiliging

NIS2 Art. 21 × AI Act Art. 15

Artikel 21 van NIS2 verplicht essentiële en belangrijke entiteiten tot het nemen van passende en evenredige technische, operationele en organisatorische maatregelen om de risico's voor netwerk- en informatiesystemen te beheren. Dat omvat beleid voor informatiebeveiliging, risicoanalyse, bedrijfscontinuïteit en beveiliging van de toeleveringsketen. Cruciaal: NIS2 hanteert het principe van "security-by-design" — beveiliging moet ingebakken zijn in systemen, niet achteraf toegevoegd.

Artikel 15 van de AI Act legt hoog-risico AI-systemen een vergelijkbare eis op: ze moeten bestand zijn tegen pogingen van onbevoegde derden om het gebruik, de output of de werking ervan te manipuleren. Dit omvat bescherming tegen adversarial attacks, data poisoning en andere vormen van AI-specifieke bedreigingen. In sectoren zoals zorg, energie en transport — sectoren die doorgaans NIS2-plichtig zijn — betekent dit dat AI-systemen die kritieke processen aansturen gelijktijdig aan beide beveiligingsstandaarden moeten voldoen. Een gezamenlijke architectuurreview en geïntegreerde beveiligingstest bespaart aanzienlijk werk.

Praktisch: Praktisch: integreer de AI-specifieke bedreigingsanalyse (adversarial attacks, data poisoning, model inversion) in je NIS2-risicoanalyse. Zo voer je één beveiligingsbeoordeling uit die beide kaders dekt, in plaats van twee afzonderlijke trajecten.

02

Incidentrapportage

NIS2 Art. 23 × AI Act Art. 62

Artikel 23 van NIS2 verplicht entiteiten tot het melden van significante incidenten aan de bevoegde autoriteit binnen strikte termijnen: een vroegtijdige melding binnen 24 uur nadat het incident als significant is geïdentificeerd, een gedetailleerde incidentmelding binnen 72 uur, en een eindrapport binnen een maand. Een incident is "significant" als het ernstige operationele verstoringen of financiële verliezen veroorzaakt, of andere entiteiten of personen aanzienlijk treft.

Artikel 62 van de AI Act verplicht aanbieders van hoog-risico AI-systemen tot het melden van ernstige incidenten aan de nationale markttoezichthouder. Deployers — dat zijn de organisaties die het systeem inzetten — moeten de aanbieder op de hoogte stellen. Een "ernstig incident" in de AI Act omvat incidenten die een risico vormen voor de gezondheid, veiligheid of grondrechten van personen, of die leiden tot materiële schade aan eigendommen. In de praktijk kan één en hetzelfde incident — een AI-systeem dat door een cyberaanval verkeerde besluiten neemt in een ziekenhuis — tegelijk als NIS2-incident en als AI Act-incident gelden.

Praktisch: Praktisch: ontwerp één incidentresponsproces dat beide meldplichten afdekt. Stel van tevoren vast welke typen AI-gerelateerde incidenten als "significant" (NIS2) én als "ernstig" (AI Act) kwalificeren, wie de meldingen doet, en aan welke autoriteiten.

03

Supply chain beveiliging

NIS2 Art. 21(2)(d) × AI Act aanbieder/deployer-keten

Artikel 21(2)(d) van NIS2 verplicht entiteiten expliciet tot beveiliging in de toeleveringsketen, inclusief de beveiligingsaspecten van relaties met directe leveranciers en dienstverleners. Dat betekent: due diligence op leveranciers, contractuele beveiligingsvereisten, en periodieke beoordeling van hun beveiligingsniveau. Voor digitale dienstverleners — denk aan cloudaanbieders, beheerde dienstverleners en AI-aanbieders — gelden aanvullende eisen.

De AI Act structureert de verantwoordelijkheden via een aanbieder/deployer-keten. De aanbieder (developer) is verantwoordelijk voor technische documentatie, conformiteitsbeoordelingen en registratie. De deployer (gebruiker van het systeem) is verantwoordelijk voor correct gebruik, menselijk toezicht en het doorgeven van incidenten aan de aanbieder. Voor een NIS2-entiteit die een hoog-risico AI-systeem van een externe aanbieder inkoopt, gelden dus zowel NIS2-leveranciersverplichtingen (beveiliging in de toeleveringsketen) als AI Act-deployerverplichtingen (governance, toezicht, incidentmelding). Beide sets verplichtingen moeten in leverancierscontracten worden verankerd.

Praktisch: Praktisch: voeg in je standaard leverancierscontracten voor AI-systemen zowel de NIS2-beveiligingsvereisten als de AI Act-aanbiederverplichtingen toe als contractuele clausules. Voer jaarlijks een gecombineerde leveranciersbeoordeling uit die beide kaders dekt.

Lees meer over AI-inkoop en contractverplichtingen →
04

Bestuur & aansprakelijkheid leidinggevend orgaan

NIS2 Art. 20 × AI Act Art. 26

Artikel 20 van NIS2 is opmerkelijk in het Europese regelgevingslandschap: het stelt het leidinggevend orgaan (raad van bestuur, directie) expliciet verantwoordelijk voor de naleving van de cybersecurityverplichtingen. Bestuursleden zijn verplicht trainingen te volgen om voldoende kennis te hebben van cybersecurityrisico's. Bij aangetoonde nalatigheid kunnen bestuursleden persoonlijk aansprakelijk worden gesteld. Dit is een fundamentele verschuiving van cybersecurity van een technisch naar een bestuursverantwoordelijkheid.

Artikel 26 van de AI Act legt deployers vergelijkbare governanceverplichtingen op: deployers moeten zorgen dat hoog-risico AI-systemen correct worden gebruikt, dat er menselijk toezicht is, en dat betrokken medewerkers voldoende zijn opgeleid. Hoewel de AI Act geen expliciete bestuurdersaansprakelijkheid introduceert zoals NIS2, is de verwachting van toezichthouders helder: AI-governance moet op bestuursniveau belegd zijn. Wie NIS2 en AI Act combineert, heeft feitelijk geen keuze: het bestuur moet aantoonbaar betrokken zijn bij zowel cybersecurity als AI-governance.

Praktisch: Praktisch: behandel NIS2-bestuurdersverantwoordelijkheid en AI Act-governanceverplichtingen als één bestuurlijk dossier. Stel een geïntegreerd AI- en cybersecurity-governancekader op, rapporteer hierover periodiek aan het bestuur, en leg dat vast in notulen.

Lees meer over Art. 26 verplichtingen voor gebruikers →
05

Sectoroverlap: essentiële entiteiten × hoog-risico AI

NIS2-sectoren × AI Act Bijlage III hoog-risico categorieën

NIS2 definieert essentiële entiteiten in elf sectoren: energie, transport, bankwezen, financiële marktinfrastructuur, drinkwater en afvalwater, gezondheid, digitale infrastructuur, ICT-dienstverlening, ruimtevaart en openbaar bestuur. De AI Act definieert hoog-risico AI-systemen in Bijlage III op basis van toepassing en sector — en de overlap met de NIS2-sectoren is treffend.

Ziekenhuizen die AI inzetten voor triage zijn essentieel NIS2-entiteit én deployer van hoog-risico AI (Bijlage III, punt 5: levensbelangrijke private en publieke diensten). Energiebedrijven die AI gebruiken voor netbeheer zijn essentieel NIS2-entiteit én deployer van hoog-risico AI (Bijlage III, punt 2: kritieke infrastructuur). Gemeenten die AI inzetten voor uitkeringsbeslissingen zijn NIS2-plichtig openbaar bestuur én deployer van hoog-risico AI (Bijlage III, punt 8: overheidsinstanties). De sectoroverlap is geen toeval: beide kaders richten zich op toepassingen met grote maatschappelijke impact.

Praktisch: Praktisch: voer een gecombineerde scope-analyse uit: welke systemen zijn tegelijkertijd NIS2-netwerk- en informatiesystemen én hoog-risico AI-systemen? Die systemen vereisen aandacht onder beide kaders en verdienen prioriteit in je compliance-roadmap.

Wat moet je dubbel regelen?

Hieronder vind je een praktische checklist van maatregelen die zowel NIS2 als de AI Act vereisen. Dit zijn de punten waar een geïntegreerde aanpak het meeste oplevert.

Gecombineerde risicobeoordeling voor AI-systemen in kritieke processen

Art. 21 NIS2 (cybersecurity risicobeheer)⚖️ Art. 9 AI Act (risicobeheerssysteem hoog-risico AI)

Beveiligingsmaatregelen met aandacht voor AI-specifieke bedreigingen

Art. 21(2)(h) NIS2 (beveiliging netwerk- en informatiesystemen)⚖️ Art. 15 AI Act (nauwkeurigheid, robuustheid en cyberbeveiliging)

Geïntegreerde incidentresponsprocedure voor AI-gerelateerde incidenten

Art. 23 NIS2 (incidentmelding binnen 24/72 uur)⚖️ Art. 62 AI Act (melding ernstige incidenten hoog-risico AI)

Contractuele beveiligings- en governancevereisten voor AI-leveranciers

Art. 21(2)(d) NIS2 (beveiliging toeleveringsketen)⚖️ Art. 26 AI Act (verplichtingen deployers, inclusief toezicht op aanbieder)

Bestuursrapportage over AI-governance en cybersecurityrisico's

Art. 20 NIS2 (aansprakelijkheid leidinggevend orgaan)⚖️ Art. 26 AI Act (menselijk toezicht en governance deployer)

Scope-analyse: welke systemen zijn NIS2-plichtig én hoog-risico AI

Art. 2-3 NIS2 (toepassingsgebied essentiële/belangrijke entiteiten)⚖️ Art. 6 + Bijlage III AI Act (classificatie hoog-risico systemen)

Technische documentatie en auditlogs voor AI-systemen in kritieke infrastructuur

Art. 21(2)(j) NIS2 (logbestanden en monitoring)⚖️ Art. 11 + 12 AI Act (technische documentatie en logregistratie)

Bewustzijnstraining voor bestuur én operationeel personeel

Art. 20(2) NIS2 (verplichte training leidinggevend orgaan)⚖️ Art. 26(6) AI Act (voldoende AI-geletterdheid voor gebruikers)

Hoe compliant ben je op beide fronten?

De AI Readiness Score toetst je organisatie specifiek op de raakvlakken tussen de AI Act en gerelateerde wetgeving zoals NIS2. Je krijgt een score per thema en concrete aanbevelingen.