DPIA vs FRIA: praktische gids voor compliance in 2025

14 min leestijd
Engelse versie niet beschikbaar

Navigeren door de overlap en verschillen tussen privacy en AI impact beoordelingen

Belangrijke ontwikkeling: Organisaties die hoogrisico AI-systemen inzetten krijgen te maken met twee verschillende maar gerelateerde impact assessments: de DPIA uit de AVG en de nieuwe FRIA uit de AI-verordening. Deze assessments overlappen maar hebben ook eigen specifieke focus en vereisten.

Waarom twee verschillende impact assessments?

In 2016 introduceerde de AVG de Data Protection Impact Assessment (DPIA) als instrument om risico's voor fundamentele rechten en vrijheden vanuit gegevensverwerkingsactiviteiten te identificeren en beperken. Met de EU AI-verordening, die in augustus 2024 in werking trad, is daar de Fundamental Rights Impact Assessment (FRIA) bijgekomen, specifiek ontwikkeld voor hoogrisico AI-systemen.

Deze dubbele verplichting ontstaat omdat AI-systemen bredere risico's kunnen vormen dan alleen gegevensbescherming. Waar een DPIA zich concentreert op privacy-gerelateerde risico's, kijkt een FRIA naar het volledige spectrum van fundamentele rechten die door AI kunnen worden beïnvloed.

DPIA: gegevensbescherming centraal

Wanneer is een DPIA verplicht?

Onder artikel 35 van de AVG moet je een DPIA uitvoeren wanneer de verwerking "waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen." Dit geldt specifiek wanneer je:

  • Systematisch en uitgebreid persoonlijke aspecten van mensen beoordeelt
  • Dit doet op basis van geautomatiseerde verwerkingen van persoonsgegevens, inclusief profilering
  • Hierop beslissingen baseert die gevolgen hebben voor mensen

Minimale inhoud DPIA

Artikel 35 van de AVG vereist dat een DPIA tenminste bevat:

  • Systematische beschrijving van de verwerkingsactiviteiten en doeleinden
  • Beoordeling van noodzakelijkheid en proportionaliteit van de verwerking
  • Beoordeling van risico's voor rechten en vrijheden van betrokkenen
  • Maatregelen om geïdentificeerde risico's aan te pakken

DPIA timing

Een DPIA moet worden uitgevoerd vóór het begin van de gegevensverwerkingsactiviteiten. Idealiter voer je de DPIA uit tijdens de planningsfase van je project, niet achteraf.

FRIA: bredere fundamentele rechten focus

Juridische basis en doel

De Fundamental Rights Impact Assessment (FRIA) is vastgelegd in artikel 27 van de EU AI-verordening als een uitgebreid instrument om potentiële gevolgen voor fundamentele rechten te beoordelen voordat hoogrisico AI-systemen worden ingezet. In tegenstelling tot de DPIA die zich primair richt op gegevensbescherming, hanteert de FRIA een mensgerichte benadering door alle relevante fundamentele rechten te onderzoeken die door AI-systemen kunnen worden beïnvloed - waaronder menselijke waardigheid, non-discriminatie, vrijheid van meningsuiting, toegang tot rechtsbescherming, en andere.

Deze bredere reikwijdte weerspiegelt de erkenning van de EU dat AI-systemen het leven van burgers kunnen beïnvloeden op manieren die verder gaan dan privacyzorgen, waardoor een meer holistische beoordeling van fundamentele rechten implicaties vereist is.

Wanneer is een FRIA verplicht?

Artikel 27 van de AI-verordening verplicht twee specifieke categorieën van gebruikers (deployers) tot het uitvoeren van een FRIA - niet de ontwikkelaars (providers) van AI-systemen:

Categorie 1: Publieke organen en entiteiten die diensten van publiek belang verlenen

Deze categorie omvat alle publieke instanties (organen die onder publiekrecht vallen) en private entiteiten die diensten van publiek belang verlenen. Het bereik is bewust breed en omvat organisaties die actief zijn in het onderwijs zoals scholen, universiteiten en opleidingsinstituten, gezondheidszorg waaronder ziekenhuizen, medische centra en zorgverzekeraars, organisaties voor sociale diensten zoals uitkeringsinstanties en arbeidsbemiddelingsdiensten, huisvesting met inbegrip van sociale huursorganisaties en verhuurmaatschappijen, en instellingen betrokken bij rechtspraak en democratische processen zoals rechtbanken en verkiezingssystemen.

De AI-verordening hanteert bewust een ruime interpretatie van "diensten van publiek belang" om elke private organisatie te dekken die diensten verleent die redelijkerwijs het publieke belang raken, wat betekent dat nutsbedrijven die essentiële diensten zoals water- of energievoorziening aanbieden ook onder deze categorie kunnen vallen.

Uitzondering voor kritieke infrastructuur: Nutsbedrijven (water, energie, transport) en andere exploitanten van kritieke infrastructuur zijn vrijgesteld van FRIA-verplichtingen wanneer zij AI-systemen gebruiken specifiek als veiligheidscomponenten voor het beheer en de operatie van kritieke infrastructuur (Bijlage III punt 2). Echter, als zij andere hoogrisico AI-systemen gebruiken buiten deze specifieke context (bijv. voor HR-beslissingen, klant kredietbeoordelingen), geldt de FRIA-verplichting wel degelijk.

Categorie 2: Financiële risicobeoordelingssystemen (alle gebruikers)

De tweede categorie geldt universeel voor elke organisatie - publiek of privaat - die hoogrisico AI-systemen gebruikt voor kredietwaardigheidsbeoordelingen of credit scoring van natuurlijke personen, of voor risicobeoordeling en premieberekening bij levens- en ziektekostenverzekeringen. Dit betekent dat banken, financiële instellingen en verzekeringsmaatschappijen die dergelijke AI-systemen gebruiken FRIA's moeten uitvoeren ongeacht hun organisatiestructuur of of zij publieke diensten verlenen.

Belangrijke uitzondering: AI-systemen die uitsluitend worden gebruikt voor het opsporen van financiële fraude zijn expliciet uitgesloten van FRIA-vereisten, zelfs binnen financiële instellingen.

Welke AI-systemen vereisen een FRIA?

De FRIA-verplichting geldt alleen voor hoogrisico AI-systemen die vallen onder artikel 6(2) van de AI-verordening. Dit zijn systemen die significante risico's voor fundamentele rechten vormen en omvatten AI-toepassingen in rechtsbedeling en democratische processen, systemen die toegang tot onderwijs en beroepsopleidingen controleren, AI gebruikt voor werkgelegenheid en personeelsbeheer beslissingen, systemen die toegang tot essentiële diensten beheren, biometrische identificatie en categorisering technologieën, en AI-systemen gebruikt in migratie, asiel en grenscontrole processen.

De gemeenschappelijke draad tussen deze systemen is hun potentie om fundamentele rechten en levenskansen van individuen significant te beïnvloeden, weshalve de EU ze onderworpen heeft aan verhoogd toezicht via de FRIA-verplichting.

Belangrijk: Niet alle hoogrisico AI-systemen vereisen een FRIA. Belangrijke uitzonderingen omvatten:

  • Systemen als veiligheidscomponenten van producten onder EU-harmonisatiewetgeving (artikel 6.1)
  • Kritieke infrastructuur veiligheidssystemen: AI-systemen gebruikt als veiligheidscomponenten voor het beheer en de operatie van kritieke infrastructuur in digitale infrastructuur, transport, en nutsvoorzieningen (water, gas, warmte, elektriciteit) - Bijlage III punt 2
  • Let op: Dezelfde organisatie kan nog steeds FRIA nodig hebben voor andere hoogrisico AI-toepassingen buiten kritieke infrastructuur veiligheid

FRIA proces en vereisten

Een FRIA moet worden uitgevoerd vóór het eerste gebruik van het hoogrisico AI-systeem, om ervoor te zorgen dat potentiële fundamentele rechten gevolgen worden beoordeeld en gemitigeerd voordat implementatie plaatsvindt. In tegenstelling tot continue monitoring vereisten, hoeft de FRIA alleen bijgewerkt te worden wanneer relevante elementen wijzigen in de inzet van het AI-systeem of het risicoprofiel. Na voltooiing moeten de FRIA-resultaten gerapporteerd worden aan de markttoezichtautoriteit met gebruik van een gestandaardiseerd template dat door het AI Office zal worden gepubliceerd.

Het beoordelingsproces omvat een uitgebreide evaluatie van het beoogde gebruik van het AI-systeem, de frequentie en context van inzet, de categorieën individuen die (direct of indirect) kunnen worden getroffen, potentiële risico's voor fundamentele rechten inclusief discriminatie en andere mensenrechtenschendingen, en de mitigerende maatregelen die gepland zijn om geïdentificeerde risico's aan te pakken, inclusief mechanismen voor menselijk toezicht en klachtenprocedures.

Rapportagevereisten zijn verplicht voor alle voltooide FRIA's, met gebruik van een gestandaardiseerd vragenlijstformat dat het AI Office zal verstrekken. In uitzonderlijke omstandigheden waarbij dringende openbare veiligheidszorgen, bescherming van mensenlevens, of kritieke infrastructuurbeveiliging aan de orde zijn, kunnen toezichthoudende autoriteiten tijdelijk vrijstellingen verlenen van de meldingsplicht. Dergelijke vrijstellingen zijn echter strikt tijdelijk, en organisaties moeten de normale FRIA-procedure voltooien en voldoen aan rapportageverplichtingen zodra de noodsituatie is opgelost.

Praktische verschillen tussen DPIA en FRIA

AspectDPIA (AVG)FRIA (AI-verordening)
FocusGegevensbescherming en privacyAlle fundamentele rechten
DatatypeAlleen persoonsgegevensPersoons- en niet-persoonsgegevens
ToepassingsgebiedAlle hoog-risico dataverwerkingenSpecifieke hoogrisico AI-systemen
Wie verplichtVerwerkingsverantwoordelijkenBepaalde categorieën gebruikers
RapportageIntern (behalve bij voorafgaande raadpleging)Verplichte melding aan toezichthouder

Overlappen en complementariteit

Geïntegreerde benadering mogelijk

De AI-verordening erkent de overlap tussen beide assessments. Artikel 27(4) stelt dat een FRIA een bestaande DPIA kan aanvullen wanneer beide vereist zijn. In de praktijk betekent dit dat organisaties kunnen kiezen voor:

  1. Twee aparte assessments: Afzonderlijke DPIA en FRIA documenten
  2. Geïntegreerd assessment: Eén gecombineerd document dat aan beide sets vereisten voldoet

Voorwaarden voor integratie

Voor een succesvolle integratie moeten beide assessments:

  • Alle DPIA-vereisten uit artikel 35 AVG dekken
  • Alle FRIA-elementen uit artikel 27 AI-verordening bevatten
  • De bredere scope van fundamentele rechten (niet alleen gegevensbescherming) adresseren

Praktische tip voor integratie

Begin met je bestaande DPIA-template en breid deze uit met FRIA-elementen zoals non-discriminatie, eerlijkheid, transparantie en andere relevante fundamentele rechten die door je AI-systeem kunnen worden beïnvloed.

Fundamentele rechten: meer dan alleen privacy

Bredere scope van FRIA

Waar een DPIA zich primair richt op artikel 8 van het EU Handvest van de Fundamentele Rechten (recht op gegevensbescherming), moet een FRIA een veel breder spectrum van rechten evalueren. Deze omvatten menselijke waardigheid (artikel 1), dat de basis vormt voor alle andere rechten, gelijkheid voor de wet (artikel 20) die eerlijke behandeling waarborgt ongeacht persoonlijke kenmerken, non-discriminatie (artikel 21) ter voorkoming van oneerlijke vooringenomenheid in AI-besluitvorming, culturele, religieuze en taalkundige diversiteit (artikel 22) ter bescherming van minderheidsrechten en culturele expressie, en het recht op effectieve rechtsbescherming (artikel 47) dat ervoor zorgt dat individuen AI-beslissingen die hen treffen kunnen aanvechten.

Praktische uitdaging

Deze bredere scope maakt FRIA's aanzienlijk complexer dan DPIA's. Organisaties moeten uitgebreide kennis ontwikkelen over verschillende fundamentele rechten die verder gaan dan gegevensbescherming, multidisciplinaire teams samenstellen die juridische, technische en ethische expertise combineren, en systematische benaderingen ontwikkelen om alle relevante rechten die door hun AI-systemen kunnen worden beïnvloed te evalueren. Dit vereist een verschuiving van de relatief goed gevestigde privacy-impactbeoordeling methodologie naar een meer holistische evaluatie-framework dat veel organisaties nog aan het ontwikkelen zijn.

Implementatie in 2025: wat te verwachten

Templates en ondersteuning

Het AI Office zal een gestandaardiseerd FRIA-template publiceren, vergelijkbaar met bestaande DPIA-templates. Dit template zal waarschijnlijk een standaard vragenlijst voor uitgebreide fundamentele rechten evaluatie bevatten, gedetailleerde richtlijnen voor systematische risicoidentificatie en -beoordeling over meerdere rechten categorieën, en gestandaardiseerde formats voor het rapporteren van beoordelingsresultaten aan toezichthoudende autoriteiten. Deze tools zullen organisaties helpen de complexiteit van fundamentele rechten beoordeling op een consistente en gestructureerde manier te navigeren.

Timing en deadlines

Organisaties die al actief zijn met AI-systemen moeten een drieledige aanpak hanteren. Voor bestaande systemen moeten zij evalueren of hun huidige AI-implementaties onder FRIA-verplichtingen vallen en waar vereist beoordelingen uitvoeren. Voor nieuwe systemen moet het FRIA-proces vanaf de vroegste fasen in ontwikkelingsworkflows worden geïntegreerd, om ervoor te zorgen dat fundamentele rechten overwegingen in het systeemontwerp worden ingebouwd in plaats van achteraf toegevoegd. Daarnaast moeten organisaties doorlopende monitoring processen opzetten om regelmatige updates van hun FRIA's te plannen wanneer systeemparameters, gebruikscontexten, of risicoprofielen veranderen.

Strategische aanpak: Begin nu met het in kaart brengen van je AI-systemen en hun mogelijke impact op fundamentele rechten. Dit geeft je een voorsprong op de formele FRIA-vereisten en templates.

Compliance strategie: dubbele assessments beheren

Voor organisaties met beide verplichtingen

Veel organisaties zullen te maken krijgen met beide assessments en moeten een geïntegreerde compliance-strategie ontwikkelen. Dit begint met het creëren van een uitgebreide inventarisatie die alle gegevensverwerkingsactiviteiten en AI-systemen in kaart brengt om de volledige scope van beoordelingsvereisten te begrijpen. Hierop volgend moeten organisaties een grondige gap-analyse uitvoeren om te identificeren waar DPIA- en FRIA-vereisten overlappen en waar zij verschillen, wat efficiëntere resource-allocatie mogelijk maakt.

Waar mogelijk moeten organisaties zich richten op template-ontwikkeling die geïntegreerde beoordelings-frameworks creëert die aan beide sets vereisten voldoen, terwijl zij gestroomlijnde processen ontwerpen die beide types beoordelingen efficiënt faciliteren zonder dubbele inspanningen. Tot slot wordt competentie-opbouw cruciaal, waarbij training voor compliance-teams nodig is in het bredere spectrum van fundamentele rechten evaluatie die verder gaat dan traditionele gegevensbescherming expertise.

Risicomanagement aanpak

Impact assessments moeten worden behandeld als integrale componenten van breder organisatie-risicomanagement in plaats van op zichzelf staande compliance-oefeningen. Dit betekent het integreren van DPIA- en FRIA-processen in bestaande projectmanagement-workflows, het koppelen aan gevestigde compliance-frameworks zoals ISO-standaarden of sector-specifieke regelgeving, en het gebruiken van beoordelingsuitkomsten als belangrijke input voor strategische AI-implementatiebeslissingen. Organisaties moeten ook systematische monitoring- en updateprocessen vaststellen gebaseerd op nieuwe inzichten, technologische ontwikkelingen en evoluerende regelgevingsrichtlijnen.

Toezicht en handhaving

Verschillende toezichthoudende autoriteiten

DPIA's vallen onder toezicht van de Autoriteit Persoonsgegevens, terwijl FRIA's worden gerapporteerd aan de markttoezichtautoriteit. Deze verschillende rapportagelijnen creëren praktische uitdagingen voor organisaties, waarbij zij verschillende toezichtverwachtingen en -procedures moeten begrijpen, op maat gemaakte communicatiebenaderingen voor elke autoriteit moeten ontwikkelen, en mogelijk verschillende update-cyclussen en rapportageformats moeten beheren. Deze dubbele toezichtstructuur weerspiegelt de verschillende regulatoire oorsprong van de twee beoordelingstypes, maar kan coördinatie-uitdagingen creëren in de praktijk.

Sancties en compliance

Niet-naleving van beoordelingsvereisten kan resulteren in aanzienlijke financiële boetes. Onder de AVG kunnen DPIA-overtredingen leiden tot boetes tot 4% van de wereldwijde jaaromzet, terwijl de AI-verordening nog hogere belangen stelt waarbij FRIA-niet-naleving mogelijk kan resulteren in boetes tot €35 miljoen of 7% van de wereldwijde jaaromzet, welke het hoogst is. Deze substantiële boete-niveaus onderstrepen het belang dat beide regelgevingen hechten aan proactieve risicobeoordeling en fundamentele rechten bescherming.

Vooruitkijkend: ontwikkelingen in 2025

Standaardisatie en best practices

Het jaar 2025 zal waarschijnlijk significante ontwikkelingen brengen in FRIA-implementatie. Organisaties kunnen de publicatie van officiële FRIA-templates door het AI Office verwachten, wat broodnodige standaardisatie en duidelijkheid over beoordelingsvereisten biedt. Sector-specifieke richtlijnen zullen opkomen om de unieke uitdagingen van verschillende industrieën aan te pakken, van gezondheidszorg tot financiële diensten. We zullen ook toenemende harmonisatie zien tussen verschillende EU-lidstaten naarmate nationale regelgevers hun benaderingen op elkaar afstemmen, en voortgezette evolutie naar meer integratie tussen DPIA- en FRIA-processen naarmate organisaties en regelgevers praktische ervaring opdoen met dubbele beoordelingsvereisten.

Technologische ondersteuning

De compliance-technologiemarkt zal waarschijnlijk reageren op deze nieuwe vereisten met innovatieve oplossingen. We kunnen geautomatiseerde tools verwachten die het impact assessment proces stroomlijnen, waardoor het voor organisaties gemakkelijker wordt om uitgebreide fundamentele rechten evaluaties uit te voeren. AI-gedreven risicoanalyse platforms zullen opkomen om potentiële rechten impacts over complexe AI-systemen te helpen identificeren, terwijl geïntegreerde compliance dashboards organisaties uniforme overzichten van hun DPIA- en FRIA-verplichtingen zullen bieden. Daarnaast zullen sector-specifieke assessment frameworks worden ontwikkeld om de unieke uitdagingen en risicoprofielen van verschillende industrieën aan te pakken, van gezondheidszorg en onderwijs tot financiële diensten en openbaar bestuur.

Praktische stappen voor 2025

Organisaties moeten een vijfvoudige aanpak hanteren: ten eerste het auditeren van huidige AI-systemen op FRIA-vereisten, ten tweede het ontwikkelen van geïntegreerde assessment templates die beide regelgevingen dekken, ten derde het trainen van compliance teams in fundamentele rechten evaluatie, ten vierde het instellen van procedures voor doorlopende monitoring van systemen en regelgevingsontwikkelingen, en ten vijfde het voorbereiden van rapportageprocessen aan relevante autoriteiten om tijdig te kunnen voldoen aan meldplichten.

Slotgedachten

De introductie van FRIA naast bestaande DPIA-verplichtingen markeert een belangrijke verschuiving in hoe we denken over AI-governance. Waar gegevensbescherming lange tijd de primaire lens was voor privacy-gerelateerde risico's, erkent de EU nu dat AI-systemen een breder spectrum van fundamentele rechten kunnen beïnvloeden.

Voor organisaties betekent dit een verbreding van compliance-verplichtingen, maar ook een kans om meer holistische risicomanagement te ontwikkelen. Door DPIA en FRIA niet als separate verplichtingen te zien maar als complementaire instrumenten voor verantwoorde technologie-implementatie, kunnen organisaties effectievere governance-structuren ontwikkelen.

De komende maanden zullen bepalend zijn voor hoe deze nieuwe instrumenten in de praktijk functioneren. Organisaties die nu investeren in begrip en implementatie van geïntegreerde impact assessments, positioneren zich niet alleen voor compliance maar ook voor duurzamere en ethischere AI-implementatie.


De FRIA-verplichtingen uit de AI-verordening worden van toepassing vanaf augustus 2026. Organisaties hebben dan concrete verplichtingen om fundamentele rechten impact te beoordelen voordat zij hoogrisico AI-systemen implementeren. Effectieve integratie met bestaande DPIA-processen wordt steeds meer een strategische noodzaak.