Europese Commissie trekt AI Liability Directive in: Gevolgen voor AI-aansprakelijkheid in de EU

••12 min leestijd
Engelse versie niet beschikbaar

Op 11 februari 2025 kondigde de Europese Commissie in haar werkprogramma 2025 aan de AI Liability Directive in te trekken vanwege gebrek aan consensus onder belanghebbenden. Deze beslissing heeft verstrekkende gevolgen voor de manier waarop AI-gerelateerde schade en aansprakelijkheid binnen de EU worden aangepakt.

De intrekking van de AI Liability Directive laat een belangrijke lacune achter in het Europese AI-juridische kader, waardoor AI-aansprakelijkheid grotendeels onder nationale wetgeving valt met mogelijk inconsistente uitkomsten tussen lidstaten.

Achtergrond: Het oorspronkelijke doel van de AI Liability Directive

De Europese Commissie presenteerde op 28 september 2022 de AI Liability Directive (AILD) als onderdeel van een ambitieus dubbel voorstel samen met de herziening van de Product Liability Directive. Deze richtlijn vormde een essentieel onderdeel van Europa's strategie om een comprehensief juridisch kader te creƫren voor AI-gerelateerde aansprakelijkheid binnen de Europese Unie.

Het oorspronkelijke doel van de AILD was het aanpakken van fundamentele tekortkomingen in bestaande aansprakelijkheidswetgeving wanneer het gaat om schade veroorzaakt door AI-systemen. De Commissie erkende dat de huidige nationale aansprakelijkheidsregels, voornamelijk gebaseerd op traditionele schuldconcepten, ontoereikend waren voor de complexe realiteit van moderne AI-technologie.

De complexiteit van AI-aansprakelijkheid

Traditionele aansprakelijkheidsregels stellen dat slachtoffers moeten aantonen dat er sprake is van een wrongful action door een identificeerbare persoon die de schade heeft veroorzaakt. Dit principe, dat eeuwenlang heeft gefunctioneerd voor traditionele producten en diensten, botst echter fundamenteel met de aard van AI-systemen. Kunstmatige intelligentie opereert autonoom, leert van data, en neemt beslissingen op basis van complexe algoritmen die zelfs voor hun ontwikkelaars moeilijk te doorgronden zijn.

Het zogenaamde "black box" probleem vormt hierbij een centrale uitdaging. Veel AI-systemen, met name complexe machine learning modellen, functioneren op een manier die ondoorzichtig is voor buitenstaanders en soms zelfs voor hun makers. Deze ondoorzichtigheid maakt het voor slachtoffers van AI-gerelateerde schade buitengewoon moeilijk om aan te tonen hoe en waarom een AI-systeem een bepaalde beslissing heeft genomen die tot schade heeft geleid. De bewijslast wordt daarmee vaak prohibitief duur, waardoor legitieme claims feitelijk onhaalbaar worden.

Daarnaast dreigde een gebrek aan harmonisatie tussen EU-lidstaten tot een gefragmenteerd juridisch landschap te leiden. Verschillende nationale benaderingen zouden niet alleen leiden tot verhoogde kosten voor bedrijven die actief zijn in meerdere EU-markten, maar ook tot rechtsonzekerheid voor consumenten over hun rechten bij AI-gerelateerde schade. De AILD was bedoeld om deze fragmentatie te voorkomen door uniforme regels te introduceren.

Redenen voor intrekking

De Commissie noemde "geen voorzienbare overeenstemming" als hoofdreden voor de intrekking van de richtlijn in februari 2025.

De beslissing om de AI Liability Directive in te trekken kwam niet onverwacht, maar was het resultaat van een langdurig politiek en legislatief proces waarin verschillende belanghebbenden fundamenteel van mening verschilden over de noodzaak en vormgeving van de richtlijn.

Industriƫle coalitie tegen de richtlijn

Op 29 januari 2025, slechts weken voordat de Commissie haar beslissing bekendmaakte, publiceerde een invloedrijke coalitie van 12 industriƫle organisaties, waaronder MedTech Europe, een gezamenlijke verklaring waarin werd opgeroepen tot intrekking van de AILD. Deze coalitie, die een breed spectrum van sectoren vertegenwoordigde, uitte fundamentele bezwaren tegen de voorgestelde richtlijn.

De industriƫle organisaties waarschuwden dat de AILD zou leiden tot juridische complexiteit die de concurrentiekracht van de Europese Unie zou kunnen schaden. Zij argumenteerden dat de voorgestelde regels een verhoogde administratieve en juridische last zouden betekenen voor bedrijven die AI-technologie ontwikkelen of inzetten, wat innovatie zou kunnen afremmen in een periode waarin Europa juist probeert haar positie als AI-leider te verstevigen.

Bovendien vreesde de industrie dat de onzekerheid rondom potentiƫle aansprakelijkheid investeringen in AI-technologie zou kunnen ontmoedigen. In een sector waar kapitaalintensieve onderzoeksinvesteringen essentieel zijn voor doorbraken, zou elke factor die investeringsrisico's verhoogt kunnen leiden tot een verplaatsing van AI-innovatie naar jurisdicties met minder stringente aansprakelijkheidsregimes.

Parlementaire verdeeldheid

Binnen het Europees Parlement ontstond eveneens een verdeelde situatie. De Commissie voor de Interne Markt en Consumentenbescherming, die een centrale rol speelde in de beoordeling van de richtlijn, achtte de aanneming van de AILD voorbarig en onnodige. Deze commissie argumenteerde dat de bestaande juridische instrumenten, in combinatie met de recent aangenomen AI Act en de herziene Product Liability Directive, mogelijk voldoende zouden zijn om AI-gerelateerde aansprakelijkheid adequaat aan te pakken.

Echter, niet alle Europarlementariƫrs deelden deze visie. CDU-MEP Axel Voss, een prominente stem in AI-wetgeving binnen het Parlement, noemde de intrekking "een ramp voor Europese bedrijven en burgers". Voss en andere supporters van de richtlijn argumenteerden dat de intrekking een gemiste kans betekende om Europa voorop te laten lopen in het creƫren van een rechtvaardige en transparante aansprakelijkheidsstructuur voor AI-systemen.

Supporters van de richtlijn in het Parlement verwezen naar de toenemende druk van de technologie-industrie voor regulatoire vereenvoudiging als een belangrijke factor in de beslissing van de Commissie. Deze dynamiek illustreert de spanning tussen de wens om een krachtig juridisch kader te creƫren voor consumentenbescherming enerzijds, en de behoefte om Europa aantrekkelijk te houden voor AI-investeringen anderzijds.

Gevolgen voor AI-aansprakelijkheid binnen de EU

Het ontstaan van een gefragmenteerd juridisch landschap

De intrekking van de AI Liability Directive heeft verstrekkende gevolgen voor de manier waarop AI-aansprakelijkheid binnen de Europese Unie wordt aangepakt. In plaats van een geharmoniseerd EU-breed systeem, zal AI-aansprakelijkheid nu voornamelijk vallen onder de nationale wetgevingen van de 27 lidstaten, elk met hun eigen juridische tradities, procedures en interpretaties van aansprakelijkheidsrecht.

Deze fragmentatie creëert een complex juridisch landschap waarin organisaties die AI-systemen ontwikkelen of implementeren nu moeten navigeren door een doolhof van verschillende nationale regelgevingen. Waar de AILD uniforme EU-regels zou hebben geïntroduceerd, zien we nu een situatie waarin 27 verschillende nationale systemen van toepassing kunnen zijn, afhankelijk van de jurisdictie waarin schade optreedt of waar een rechtszaak wordt aangespannen.

AspectMet AILDNa intrekking
HarmonisatieUniforme EU-regels27 verschillende nationale systemen
BewijslastVereenvoudigde proceduresNationale variaties
RechtsonzekerheidVerminderdVerhoogd

De bewijslast, een van de meest complexe aspecten van AI-aansprakelijkheid, zal nu variƫren per land. Sommige lidstaten hebben mogelijk meer progressieve benaderingen die de bewijslast voor slachtoffers verlichten, terwijl andere landen vasthouden aan traditionele aansprakelijkheidsprincipes die het voor slachtoffers moeilijker maken om succesvol een claim in te dienen. Deze variatie in procedures en standaarden verhoogt de rechtsonzekerheid aanzienlijk voor zowel bedrijven als consumenten.

Sectorspecifieke gevolgen

De gevolgen van de intrekking manifesteren zich verschillend afhankelijk van de sector en het type AI-toepassing. Professionele AI-toepassingen, die doorgaans buiten de scope van de Product Liability Directive vallen, blijven nu volledig onderworpen aan nationale wetgeving. Dit betekent dat Business-to-Business AI-toepassingen, zoals AI-systemen gebruikt in de financiƫle sector, gezondheidszorg, of industriƫle automatisering, te maken krijgen met verschillende aansprakelijkheidsregimes afhankelijk van het land waarin ze worden gebruikt.

Voor consumenten-AI-producten is de situatie enigszins anders. Deze producten blijven gedeeltelijk gedekt onder de herziene Product Liability Directive, die in oktober 2024 werd aangenomen. Deze richtlijn biedt enige bescherming voor consumenten die schade ondervinden van defecte AI-enabled producten. Echter, belangrijke lacunes blijven bestaan, met name voor niet-materiƫle schade en zuiver economische verliezen, die vaak buiten de scope van productaansprakelijkheid vallen.

Deze sectorale verschillen creƫren een ongelijk speelveld waarbij consumenten in sommige gevallen beter beschermd zijn dan professionele gebruikers, terwijl in andere situaties juist het omgekeerde het geval kan zijn, afhankelijk van de specifieke nationale wetgeving die van toepassing is.

Context: AI Act en Product Liability Directive herziening

De complexe relatie met de AI Act

De AI Liability Directive was oorspronkelijk ontworpen als een essentieel complement van de Europese AI Act, die in augustus 2024 volledig van kracht werd. Deze twee wetgevingsinstrumenten hadden verschillende maar nauw verwante doelstellingen die samen een comprehensief juridisch kader voor AI zouden vormen.

De AI Act richt zich primair op de regulering van AI-ontwikkeling en -implementatie, met strenge eisen voor hoog-risico AI-systemen, verboden op bepaalde AI-praktijken, en governance-structuren voor AI-systemen met een algemeen doel. De wet stelt technische standaarden, conformiteitsbeoordelingen, en toezichtmechanismen vast om ervoor te zorgen dat AI-systemen veilig en betrouwbaar zijn voordat ze op de markt worden gebracht.

De AILD zou daarentegen hebben gefocust op de individuele rechten van personen die schade ondervinden nadat AI-systemen al in gebruik zijn. Waar de AI Act preventief werkt door regels te stellen voor AI-ontwikkeling, zou de AILD reactief hebben gewerkt door heldere procedures te bieden voor schadevergoeding wanneer AI-systemen ondanks alle preventieve maatregelen toch schade veroorzaken.

Hoewel de AILD is ingetrokken, zullen nationale rechters nog steeds vaak verwijzen naar EU-wetgeving - met name de AI Act - bij hun uitspraken, geregeerd door EU-rechtsprincipes zoals het effectiviteitsbeginsel.

Deze complementariteit betekent dat de intrekking van de AILD een belangrijke lacune achterlaat in het Europese AI-juridische ecosysteem. De AI Act bevat geen specifieke bepalingen over individuele schadevergoeding, terwijl de AILD geen substantiƫle regels zou hebben bevat over AI-ontwikkeling. Samen zouden ze een volledig systeem hebben gevormd; apart blijven er belangrijke gaten bestaan.

Interessant is dat nationale rechters, ondanks de intrekking van de AILD, nog steeds zullen verwijzen naar de AI Act bij het beoordelen van AI-aansprakelijkheidszaken. De classificaties, definities, en risicobeoordelingen uit de AI Act zullen waarschijnlijk een belangrijke rol spelen in nationale rechtszaken, geregeerd door EU-rechtsprincipes zoals het effectiviteitsbeginsel dat vereist dat nationale procedures effectieve rechtsbescherming bieden.

Het succes van de Product Liability Directive

Terwijl de AI Liability Directive werd ingetrokken, heeft de herziene Product Liability Directive een heel ander lot gekend. Deze richtlijn werd succesvol goedgekeurd en aangenomen in EU-wetgeving in oktober 2024, wat een interessante contrasterende ontwikkeling vormt.

De herziene Product Liability Directive richt zich primair op consument AI-producten en introduceert belangrijke aanpassingen aan het traditionele productaansprakelijkheidsrecht om beter om te gaan met de specificiteiten van AI-enabled producten. De richtlijn erkent dat traditionele productaansprakelijkheid, die gebaseerd is op defecten in producten, aanpassing nodig heeft voor software-intensieve producten die kunnen veranderen na verkoop door software-updates en machine learning.

Echter, de scope van de Product Liability Directive is bewust beperkt en sluit belangrijke categorieƫn uit. Professionele toepassingen van AI, Business-to-Business transacties, en bepaalde vormen van schade zoals zuiver economische verliezen vallen grotendeels buiten de scope van deze richtlijn. Dit betekent dat de Product Liability Directive, hoewel succesvol aangenomen, slechts een gedeeltelijke oplossing biedt voor AI-aansprakelijkheidsvraagstukken.

Toekomstperspectieven en aanbevelingen

De zoektocht naar alternatieve benaderingen

De Europese Commissie heeft zich na de intrekking van de AILD het recht voorbehouden om te beoordelen of en hoe AI-aansprakelijkheid in de toekomst op EU-niveau moet worden aangepakt. Deze open houding suggereert dat de Commissie erkent dat de problemen die de AILD probeerde op te lossen niet zijn verdwenen met de intrekking van het voorstel.

Verschillende alternatieve benaderingen zijn denkbaar voor de toekomst. De Commissie zou kunnen kiezen voor een meer gefaseerde aanpak, waarbij eerst wordt gekeken naar specifieke sectoren of gebruik van AI waar aansprakelijkheidsproblemen het meest urgent zijn. Alternatielf zou de focus kunnen worden verlegd naar het versterken van bestaande instrumenten, zoals verdere aanpassingen aan de Product Liability Directive of het faciliteren van vrijwillige industriestandaarden voor AI-aansprakelijkheid.

Een andere mogelijkheid is dat de Commissie kiest voor een meer technische benadering, waarbij wordt gefocust op het verbeteren van AI-transparantie en verklaarbaarheid om bewijslastproblemen te verminderen, in plaats van het direct aanpassen van aansprakelijkheidsregels. Dit zou kunnen worden gerealiseerd door aanvullende technische standaarden onder de AI Act of door het stimuleren van onderzoek naar "explainable AI" technologieƫn.

Strategische aanbevelingen voor verschillende stakeholders

Voor bedrijven die AI-technologie ontwikkelen of implementeren wordt de situatie na de intrekking van de AILD aanzienlijk complexer. Deze organisaties moeten nu navigeren door een gefragmenteerd juridisch landschap dat verschillende risico's en compliance-vereisten met zich meebrengt in verschillende EU-lidstaten.

Bedrijven zouden moeten investeren in robuuste interne compliance-programma's die rekening houden met de juridische variaties tussen verschillende EU-markten. Dit vereist niet alleen juridische expertise in meerdere rechtsgebieden, maar ook een dynamische benadering die kan anticiperen op veranderende nationale wetgeving. Daarnaast is het investeren in transparante en uitlegbare AI-systemen niet alleen een ethische keuze, maar ook een praktische strategie om aansprakelijkheidsrisico's te verminderen door het gemakkelijker te maken om aan te tonen dat AI-systemen behoorlijk functioneren.

Voor juristen en compliance-specialisten ontstaat er een nieuwe specialisatie in het navigeren van cross-border AI-aansprakelijkheid. Deze professionals moeten nationale ontwikkelingen nauwlettend in de gaten houden en juridische strategieƫn ontwikkelen die rekening houden met potentieel jurisdictie-shopping door eisers. Het focussen op AI Act-compliance kan dienen als een fundamentele basis voor aansprakelijkheidsreductie, aangezien naleving van AI Act-vereisten waarschijnlijk een positieve factor zal zijn in nationale rechtszaken.

De intrekking van de AILD betekent dat organisaties die AI inzetten nu te maken krijgen met een lappendeken van nationale regelgevingen, wat de compliance-kosten en juridische risico's aanzienlijk kan verhogen.

Slotgedachten

De intrekking van de AI Liability Directive markeert een belangrijke terugslag in de Europese ambitie om een comprehensief juridisch kader voor AI te creƫren. Terwijl de AI Act technische standaarden en implementatie-eisen vastlegt, blijft de cruciale vraag van civielrechtelijke aansprakelijkheid grotendeels onbeantwoord op EU-niveau.

Dit creƫert een paradoxale situatie: Europa heeft strenge regels voor AI-ontwikkeling en -gebruik, maar geen geharmoniseerde regels voor wanneer deze systemen schade veroorzaken. Voor juristen, beleidsmakers en compliance-specialisten betekent dit een periode van verhoogde onzekerheid en de noodzaak om expertise te ontwikkelen in meerdere nationale juridische systemen.

De komende maanden zullen cruciaal zijn om te zien of de Commissie met een alternatief komt, of dat de lidstaten individueel hun eigen AI-aansprakelijkheidsregimes gaan ontwikkelen - met alle fragmentatie van dien.

Datum van intrekking: 11 februari 2025. Impact: Verhoogde juridische fragmentatie en onzekerheid voor AI-aansprakelijkheid binnen de EU.