Brief regering : Fiche: Richtlijn betreffende aanpassing civielrechtelijke aansprakelijkheidsregels voor kunstmatige intelligentie
22 112 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie
Nr. 3549
BRIEF VAN DE MINISTER VAN BUITENLANDSE ZAKEN
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 18 november 2022
Overeenkomstig de bestaande afspraken ontvangt u hierbij 3 fiches die werden opgesteld
door de werkgroep Beoordeling Nieuwe Commissie voorstellen (BNC).
Fiche: Herziening richtlijn productaansprakelijkheid (Kamerstuk 22 112, nr. 3548)
Fiche: Richtlijn betreffende aanpassing civielrechtelijke aansprakelijkheidsregels
voor kunstmatige intelligentie
Fiche: Mededeling handhaving EU-recht (Kamerstuk 22 112, nr. 3550)
De Minister van Buitenlandse Zaken,
W.B. Hoekstra
Fiche: Richtlijn betreffende aanpassing civielrechtelijke aansprakelijkheidsregels
voor kunstmatige intelligentie
1. Algemene gegevens
a) Titel voorstel
Voorstel voor een richtlijn van het Europees Parlement en de Raad betreffende het
aanpassen van niet-contractuele civielrechtelijke aansprakelijkheidsregels voor kunstmatige
intelligentie
b) Datum ontvangst Commissiedocument
28 september 2022
c) Nr. Commissiedocument
COM(2022) 496
d) EUR-Lex
EUR-Lex – 52022PC0496 – EN – EUR-Lex (europa.eu)
e) Nr. impact assessment Commissie en Opinie Raad voor Regelgevingstoetsing
SWD(2022) 319
f) Behandelingstraject Raad
Raad Justitie en Binnenlandse Zaken
g) Eerstverantwoordelijk ministerie
Ministerie van Justitie en Veiligheid in nauwe samenwerking met het Ministerie van
Economische Zaken en Klimaat en Ministerie van Binnenlandse Zaken en Koninkrijksrelaties
h) Rechtsbasis
Artikel 114 van het Verdrag betreffende de Werking van de Europese Unie (VWEU)
i) Besluitvormingsprocedure Raad
Gekwalificeerde meerderheid
j) Rol Europees Parlement
Medebeslissing
2. Essentie voorstel
a) Inhoud voorstel
Op 28 september 2022 presenteerde de Europese Commissie (hierna: de Commissie) een
voorstel betreffende het aanpassen van niet-contractuele civielrechtelijke aansprakelijkheidsregels
voor kunstmatige intelligentie (artificial intelligence, hierna: AI). Dit voorstel is tegelijkertijd gepubliceerd met een voorstel dat strekt
tot herziening van de richtlijn productaansprakelijkheid (85/374/EEG)1. Beide voorstellen staan in het teken van het creëren van rechtszekerheid en rechtsbescherming
in de digitale economie en het verzekeren van het adequate functioneren van de interne
markt en onverstoorde mededinging. Specifiek met betrekking tot AI, gaat het volgens
de Commissie om complementaire voorstellen. Het voorstel over de productaansprakelijkheid
regelt dat AI-systemen en op AI gebaseerde goederen «producten» zijn, en onder het
toepassingsbereik van het richtlijnvoorstel over productaansprakelijkheid vallen.
Het onderhavige voorstel over specifiek AI ziet niet op productaansprakelijkheid.
Het ziet op aansprakelijkheid uit onrechtmatige daad in andere gevallen, waarin de
inzet van AI-systemen de schade heeft veroorzaakt. Het doel van de Commissie met het
onderhavige richtlijnvoorstel is om ervoor te zorgen dat diegenen die schade hebben
geleden, veroorzaakt door de output van AI-systemen, eenzelfde niveau van rechtsbescherming
genieten als in gevallen waarin schade is veroorzaakt zonder gebruik van AI-systemen.
Hiermee moet het vertrouwen van consumenten en burgers in AI worden versterkt. Het
voorstel dient daarnaast ook rechtszekerheid te bieden aan de aanbieders en gebruikers
van AI-systemen. De Commissie geeft aan dat de specifieke eigenschappen van AI, zoals
complexiteit, autonomie en ondoorzichtigheid (het zogenaamde «black box» effect),
het voor eisers moeilijk maken om te bewijzen dat zij schade hebben geleden die is
veroorzaakt door het AI-systeem. In gevallen waarin AI-systemen worden gebruikt, hebben
benadeelden volgens de Commissie daardoor potentieel te maken met hoge kosten vooraf
om een inschatting te maken van hun juridische positie en met langdurige juridische
procedures. De richtlijn beoogt hen daarbij te helpen door specifiek hun informatie-
en bewijspositie te verbeteren als zij een vergoeding willen vorderen van door AI-systemen
veroorzaakte schade. Het voorstel introduceert daartoe ook weerlegbare bewijsvermoedens,
waardoor degene die schade heeft geleden de schuld van de aanbieder of de gebruiker
van de AI eenvoudiger kan aantonen.
Het richtlijnvoorstel moet worden bekeken in samenhang met het in onderhandeling zijnde
voorstel voor een AI-verordening2. Deze verordening geeft de definitie van AI-systemen en stelt eisen aan AI-systemen
die een risico meebrengen voor mensenrechten, veiligheid en gezondheid. Deze eisen
zien bijvoorbeeld op de kwaliteit van gebruikte datasets, de cyberveiligheid van het
systeem en menselijk toezicht. Daarnaast worden documentatie-, informatie- en registratieverplichtingen
opgelegd aan de aanbieders en gebruikers van deze AI-systemen. Eisers in een gerechtelijke
procedure of personen die overwegen om een procedure aan te spannen hebben op basis
van de AI-verordening geen toegang tot deze informatie. Het onderhavige voorstel vestigt
daarom het recht op toegang tot deze informatie als het gaat om hoog-risico AI-systemen
en versterkt dus hun informatiepositie. Zij kunnen deze informatie opvragen bij de
aanbieders of gebruikers van deze hoog-risico AI-systemen wanneer er het vermoeden
bestaat dat toepassing van deze systemen tot schade heeft geleid. De eiser moet hierbij
wel de aannemelijkheid van de claim kunnen aantonen. Wanneer, na proportionele inspanningen
van de eiser, een aanbieder of gebruiker de gevraagde informatie niet heeft overgelegd,
kan de eiser de rechter vragen hen dit alsnog te bevelen. De verweerder kan zich erop
beroepen dat sprake is van (bedrijfs)geheime informatie: de rechter moet dan zorgen
dat vertrouwelijkheid is gewaarborgd. Als de aanbieder of gebruiker overlegging ook
dan weigert, zal de rechter er in het vervolg van de procedure van uitgaan dat de
gebruiker of aanbieder niet heeft voldaan aan de zorgvuldigheidsplicht die voortvloeit
uit de voorgestelde AI-verordening. Ook moeten lidstaten de eiser de mogelijkheid
bieden om bewijsbeslag te laten leggen op de informatie, zodat die niet vernietigd
kan worden door degene die die informatie in zijn macht heeft.
Naast het bieden van toegang tot de informatie over hoog-risico AI-systemen, biedt
het voorstel een verlichting van de bewijslast, onder bepaalde voorwaarden, voor de
benadeelden in gevallen waar AI-systemen zijn gebruikt, ongeacht of dit hoog-risico
systemen zijn. Het voorstel introduceert een weerlegbaar bewijsvermoeden. De rechter
dient op grond van het voorstel uit te gaan van een causaal verband tussen de schuld
van de verweerder (aanbieder or gebruiker van een AI-systeem) en de door het AI-systeem
gegenereerde output of juist het verzuim van het AI-systeem om output te genereren,
als aan drie voorwaarden is voldaan.
• Ten eerste moet de benadeelde de schuld van de aansprakelijke partij aantonen, en
wel door aan te tonen dat de aansprakelijke partij een zorgvuldigheidsplicht heeft
geschonden. Hierbij geldt dat die zorgvuldigheidsplicht in het leven moet zijn geroepen
met het oog op het voorkomen van de veroorzaakte schade. Voor hoog-risico AI-systemen
wordt de beoordeling van het schenden deze zorgplicht gekoppeld aan bepaalde vereisten
die voortvloeien uit de voorgestelde AI-verordening.
• Ten tweede dient de benadeelde te bewijzen dat redelijkerwijs kan worden aangenomen,
dat die schuld de door het AI-systeem gegenereerde output of het verzuim door het
AI-systeem om output te genereren heeft beïnvloed, gelet op de omstandigheden van
het geval.
• Ten derde moet de benadeelde aantonen dat de door het AI-systeem gegenereerde output
of het verzuim door het AI-systeem om output te genereren, zijn schade heeft veroorzaakt.
Als aan deze voorwaarden is voldaan, geldt het bewijsvermoeden voor een causaal verband
tussen de schuld van verweerder en (het verzuim van) de output van het AI-systeem
niet altijd. In gevallen waarbij hoog-risico AI-systemen zijn gebruikt, dient de rechter
uit te gaan van het vermoeden dat een dergelijk causaal verband bestaat, als niet
is voldaan aan bepaalde eisen die voortvloeien uit de voorgestelde AI-verordening.
In gevallen waarbij niet hoog-risico AI-systemen zijn gebruikt, gaat de rechter niet
uit van het bewijsvermoeden, als de verweerder aantoont dat de eiser redelijkerwijs
over voldoende bewijsmateriaal en deskundigheid kan beschikken om het causaal verband
aan te tonen tussen de schuld van de verweerder en (het verzuim van) de door de AI
gegenereerde output. De rechter hanteert het bewijsvermoeden in het geval van niet
hoog risico-systemen bovendien alleen, als hij het voor de benadeelde buitensporig
moeilijk acht om het causaal verband tussen de fout en de AI-inzet aan te tonen.
In gevallen waarbij de verweerder een AI-systeem voor persoonlijke niet-professionele
doeleinden heeft gebruikt, geldt het bewijsvermoeden ten slotte alleen als de verweerder
met de werking van het AI-systeem heeft geïnterfereerd of niet goed geeft zorggedragen
voor de condities ervan.
De bewijsvermoedens zijn weerlegbaar. Dit betekent dat een verweerder in de gelegenheid
moet worden gesteld om te bewijzen dat het causaal verband tussen de fout en (het
verzuim van) de output van het AI-systeem ontbreekt.
b) Impact assessment Commissie
In de effectbeoordeling van de Commissie zijn verschillende beleidsopties beoordeeld.
Naast de in het voorstel gekozen voorkeursoptie voor verlichting van de bewijslast
en het evaluatiemechanisme, bevatten deze beleidsopties ook de harmonisering van risicoaansprakelijkheidsregels
voor gevallen van AI-gebruik met een specifiek risicoprofiel en een verplichte verzekering.
De voorliggende voorkeursoptie bleek uit het impact assessment het hoogst te scoren
op effectiviteit. Volgens de beoordeling is het gekozen instrument voldoende om de
rechtsbescherming van degenen die schade hebben geleden door AI-systemen te waarborgen
en om rechtszekerheid te bieden voor de aanbieders en gebruikers van deze systemen.
Het is de inschatting van de Commissie dat dit voorstel zal leiden tot grotere marktwaarde
voor AI binnen de Europese interne markt. De waarde van deze vergroting wordt door
de Commissie geschat op 500 miljoen euro tot 1,1 miljard euro in 2025.
3. Nederlandse positie ten aanzien van het voorstel
a) Essentie Nederlands beleid op dit terrein
Nederland zet in op de ontwikkeling en inzet van AI-systemen die de mens dienen, veilig
en betrouwbaar zijn, die publieke waarden borgen en waarbij een goede rechtsbescherming
verzekerd is.3 Het kabinet zet zich in de EU in voor geharmoniseerde regelgeving om te borgen dat
AI-systemen pas de Europese interne markt op komen als ze voldoen aan een aantal eisen.
Op die manier kunnen grensoverschrijdende risico’s voor gezondheid, veiligheid en
fundamentele rechten die AI-systemen met zich mee brengen voorkomen of gemitigeerd
worden. Het kabinet geeft het beschermen van grondrechten en publieke waarden een
centrale rol bij het reguleren van AI. Het kabinet zet daarom sterk in op transparantie
en rechtsbescherming bij de onderhandelingen over de voorgestelde AI-verordening van
de Europese Unie en over het voorgestelde AI-verdrag binnen de Raad van Europa.
De bewijspositie en het recht op inzage in stukken zijn in Nederland voor alle procedures
op dezelfde wijze geregeld als onderdeel van het bewijsrecht in het Wetboek van Burgerlijke
Rechtsvordering. Dit bewijsrecht wordt momenteel herzien door een wetsvoorstel dat
aanhangig is bij de Tweede Kamer (Kamerstukken 35 498, nrs. 1 t/m 3). Daarin wordt ook het reeds bestaande inzagerecht verduidelijkt en beter ingebed
in de wettelijke regeling van de bewijsmiddelen. Dit wetsvoorstel codificeert de reeds
bestaande praktijk die is gegroeid op basis van het huidige wettelijke inzagerecht.
Daarin staat voorop dat een partij zonder tussenkomst van de rechter aanspraak kan
maken op inzage. Inzagerecht kan worden afgedwongen bij de rechter indien de wederpartij
of de derde die over de informatie beschikt niet meewerkt of indien er sprake is van
discussie over de aanspraak op inzage.
Een vordering tot schadevergoeding wordt in de regel gebaseerd op wanprestatie of
onrechtmatige daad. Het voorstel ziet op aansprakelijkheid uit onrechtmatige daad.
Het richtlijnvoorstel voorziet in minimumharmonisatie door uit te gaan van harmonisatie
van enkele regels van bewijsrecht. Het nationale aansprakelijkheidsrecht blijft leidend.
Volgens de Commissie is in de meeste landen sprake van een schuldaansprakelijkheid,
wanneer het schade door de inzet van AI betreft. Ook in Nederland is dat het geval.
Een benadeelde die schade lijdt door een onrechtmatige daad zal naar Nederlands recht
moeten bewijzen dat er sprake is van een onrechtmatige daad die aan de verweerder
kan worden toegerekend (schuld) en van een oorzakelijk verband tussen die onrechtmatige
daad en de schade. De bewijslast rust op de benadeelde. Als de benadeelde niet in
dit bewijs slaagt, wordt de vordering tot schadevergoeding afgewezen. Het is naar
Nederlands recht wel mogelijk dat de rechter de bewijslast van een benadeelde verlicht
in een individuele zaak. Dat kan de rechter bijvoorbeeld doen door op voorhand bewezen
te achten dat er sprake is van een oorzakelijk verband tussen het onrechtmatig handelen
en de gestelde schade. De rechter gaat in dit geval uit van een zogenoemd bewijsvermoeden.
Het is dan aan de aansprakelijkgestelde partij om het tegendeel te bewijzen. Het bewijsvermoeden
is met andere woorden weerlegbaar.
b) Beoordeling + inzet ten aanzien van dit voorstel
Het kabinet verwelkomt het voorstel en staat positief tegenover de beschreven doelstellingen,
maar heeft nog wel een aantal vragen. Het kabinet is voorstander van het waarborgen
en versterken van de rechtsbescherming en rechtszekerheid bij het toepassen van AI-systemen.
Dit versterkt het vertrouwen van consumenten en burgers in AI. Het kabinet erkent
dat het bevorderlijk is voor de innovatie indien organisaties en bedrijven meer zekerheid
hebben over het risico dat zij lopen om aansprakelijk gesteld te worden vanwege schade
die hun systemen mogelijk veroorzaken. Het is tevens belangrijk dat burgers en consumenten
ervan op aan kunnen dat zij eenzelfde mate van bescherming krijgen in situaties waarin
AI-systemen worden toegepast als in situaties waar AI-systemen niet worden toegepast.
Dit neemt niet weg dat tijdens de onderhandelingen de gevolgen en effectiviteit van
de in dit voorstel opgenomen maatregelen nader moet worden verkend, mede gelet op
het impact assessment van de Commissie. Daarin wordt namelijk gesteld dat er binnen de EU nog geen ervaring
is met aansprakelijkstellingen waarbij AI-systemen een belemmering vormden om schade
te vorderen.
De doelstellingen van de voorgestelde richtlijn zijn in overeenstemming met de inzet
van het kabinet ten aanzien van de voorgestelde AI-verordening. Het kabinet pleit
in die context voor het versterken van transparantie en rechtsbescherming voor burgers
bij de inzet van AI-systemen. Het onderhavige voorstel biedt burgers en bedrijven
aanvullende mogelijkheden om hun rechten uit te oefenen en tracht daardoor bij te
dragen aan de bescherming van de veiligheid, gezondheid en de fundamentele rechten.
Tegelijkertijd is een voordeel van deze benadering dat het de naleving van de voorgestelde
AI-verordening bevordert. Aanbieders en gebruikers van AI-systemen worden immers gestimuleerd
om hun documentatie-, informatie- en registratieverplichtingen op orde te hebben.
Het kabinet maakt daarbij wel het voorbehoud dat nog over de voorgestelde AI-verordening
onderhandeld wordt en zodoende nog niet vast ligt. Op diverse plaatsen in het voorstel
wordt verwezen naar de aankomende AI-verordening. Voorbeelden hiervan zijn de definitie
van een AI-systeem en de specifieke vereisten voor aanbieders en gebruikers van AI-systemen.
Pas als de onderhandelingen over de voorgestelde AI-verordening afgerond zijn, kunnen
alle consequenties voor deze richtlijn worden bepaald.
Het kabinet heeft een aantal opmerkingen bij onderdelen van het voorstel. De inzet
bij de onderhandelingen is in eerste instantie erop gericht hierover duidelijkheid
te verkrijgen. Zo heeft het kabinet in het kader van het inzagerecht enige vragen
over de bedoeling en reikwijdte van het voorstel in relatie tot het bewijsbeslag dat
het inzagerecht moet zekerstellen. De gevolgen van een bewijsbeslag zoals het wordt
voorgesteld in het voorstel, sluiten niet aan op het Nederlandse bewijsbeslag.
Het kabinet heeft daarnaast vragen over (de werking van) het bewijsvermoeden, onder
meer met betrekking tot de toepassing van het bewijsvermoeden. In het voorstel staat
dat in een aansprakelijkheidsprocedure onder bepaalde omstandigheden dient te worden
uitgegaan van causaal verband tussen de schuld van de verweerder en (het verzuim van)
de output van het AI-systeem. Het lijkt de Commissie daarmee niet te gaan om een bewijsvermoeden
dat ziet op het causale verband tussen onrechtmatig handelen en schade, maar om een
bewijsvermoeden dat ziet op het toerekenbaar onrechtmatig handelen voor wat betreft
(het verzuim van) de output van het AI-systeem. Een nadere duiding van het bewijsvermoeden
tijdens de onderhandelingen is nodig om de meerwaarde van het bewijsvermoeden voor
de benadeelde te beoordelen en een standpunt te formuleren.
De inzet van het kabinet is er tevens op gericht te voorkomen dat de voorwaarden voor
toepassing van het bewijsvermoeden door hun complexiteit leiden tot nieuwe discussies.
De benadeelde heeft in dat geval mogelijk geen voordeel van een bewijsvermoeden. Lange
procedures zijn kostbaar en leiden tot onzekerheid. Dit is ook nadelig voor de aansprakelijk
gestelde partij. In dit licht valt onder meer op dat de voorwaarden voor de toepassing
van het bewijsvermoeden cumulatief zijn. Het kabinet zal aandacht vragen voor de vraag
of van een gemiddelde benadeelde verlangd kan worden om het bewijs van deze voorwaarden
te leveren en of de rechter zich hierover een oordeel kan vormen.
c) Eerste inschatting van krachtenveld
De meeste lidstaten zijn nog bezig een formeel standpunt over het voorstel te formuleren.
Uit de onderhandelingen over de voorgestelde AI-verordening blijkt dat alle lidstaten
in algemene zin het beschermen van fundamentele rechten, veiligheid en gezondheid
op Europees niveau willen verankeren.
Het Europees Parlement (EP) heeft eveneens nog geen formeel standpunt ingenomen ten
opzichte van het voorstel, maar zal naar verwachting positief zijn over het treffen
van maatregelen. Het EP heeft eerder voorgesteld in een resolutie op 20 oktober 20204 om te komen tot een verplichte verzekering voor alle operators van hoog-risico AI-systemen.
Het voorstel zal worden behandeld door het Comité Juridische Zaken binnen het EP.
4. Beoordeling bevoegdheid, subsidiariteit en proportionaliteit
a) Bevoegdheid
Het oordeel van het kabinet ten aanzien van de bevoegdheid is positief. Het voorstel
is gebaseerd op artikel 114 VWEU. Op grond van artikel 114 VWEU is de EU bevoegd om
maatregelen vast te stellen inzake de onderlinge aanpassing van de wettelijke en bestuursrechtelijke
bepalingen van de lidstaten die de instelling en de werking van de interne markt betreffen.
Het kabinet kan zich vinden in de keuze voor deze rechtsgrondslag. Op het terrein
van de interne markt is sprake van een gedeelde bevoegdheid tussen de EU en de lidstaten
(artikel 4, tweede lid, onder a, VWEU).
b) Subsidiariteit
Het oordeel van het kabinet ten aanzien van de subsidiariteit is positief. Het doel
van het voorstel is enerzijds om ervoor te zorgen dat diegenen die schade hebben geleden
door AI-systemen eenzelfde niveau van rechtsbescherming genieten als in gevallen waar
schade is veroorzaakt zonder gebruik van AI-systemen en anderzijds om rechtszekerheid
te bieden aan aanbieders en gebruikers van AI-systemen. Gezien het grensoverschrijdende
karakter van de markt voor AI kan dit onvoldoende door de lidstaten op centraal, regionaal
of lokaal niveau worden verwezenlijkt. Daarom is een EU-aanpak nodig. Door de richtlijn
kan het gelijke speelveld op het terrein van aansprakelijkheidsprocedures worden verbeterd
en kunnen belemmeringen op de interne markt voor AI-systemen worden weggenomen. Om
die redenen is optreden op het niveau van de EU gerechtvaardigd.
c) Proportionaliteit
Het oordeel van het kabinet ten aanzien van de proportionaliteit is positief, met
kanttekening. Het doel van het voorstel is enerzijds om ervoor te zorgen dat diegenen
die schade hebben geleden door AI-systemen eenzelfde niveau van rechtsbescherming
genieten als in gevallen waar schade is veroorzaakt zonder gebruik van AI-systemen
en anderzijds om rechtszekerheid te bieden aan aanbieders en gebruikers van AI-systemen.
Het optreden lijkt niet verder te gaan dan noodzakelijk, omdat het specifiek toeziet
op de informatie- en bewijspositie van benadeelden. Het kabinet merkt wel op dat de
vraag of de richtlijn daadwerkelijk geschikt is om het doel te bereiken, niet met
zekerheid is te beantwoorden, omdat zich tot op heden nog geen zaken hebben voorgedaan
waarin de toepassing van AI een probleem vormde in de aansprakelijkheidstelling. Nut,
noodzaak en effectiviteit van de verschillende onderdelen uit het voorstel dienen
in dit licht nog nader te worden verkend, in het bijzonder waar het betreft het voorgestelde
bewijsvermoeden. Het kabinet wil graag extra uitleg zien waarom de gekozen maatregelen,
in het bijzonder het bewijsvermoeden, geschikt zijn om de doelstelling van het optreden
te bereiken. Het kabinet zal hier in de onderhandelingen naar vragen. Het kabinet
is positief over het gekozen instrument van een richtlijn die uitgaat van minimumharmonisatie,
omdat hiermee rekening wordt gehouden met de verschillende nationale rechtstradities.
5. Financiële consequenties, gevolgen voor regeldruk, concurrentiekracht en geopolitieke
aspecten
a) Consequenties EU-begroting
Volgens de Commissie heeft het voorstel geen gevolgen voor de EU-begroting. Nederland
is van mening dat de eventueel benodigde middelen gevonden dienen te worden binnen
de in de Raad afgesproken financiële kaders van de EU-begroting 2021–2027 en dat deze
moeten passen bij een prudente ontwikkeling van de jaarbegroting.
b) Financiële consequenties (incl. personele) voor rijksoverheid en/ of medeoverheden
Het voorstel heeft geen significante financiële consequenties voor nationale overheden.
Eventuele budgettaire gevolgen voor de nationale begroting worden ingepast op de begroting
van de beleidsverantwoordelijke departementen, conform de regels van de budgetdiscipline.
c) Financiële consequenties en gevolgen voor regeldruk voor bedrijfsleven en burger
De richtlijn bevat inhoudelijk een tweetal procesrechtelijke bepalingen die gevolgen
hebben voor de wijze waarop partijen de procedure voor de civiele rechter dienen te
voeren. Het civiele procesrecht biedt waarborgen voor een eerlijke en efficiënte procesvoering.
De eisen die aan partijen worden gesteld aan de informatie-uitwisseling met de rechter
of de wederpartij, hangen direct samen met deze waarborgfunctie. Daarom worden de
lasten die met deze informatieverplichtingen gepaard gaan, vanwege het bijzondere
karakter ervan, niet onverkort als regeldruk voor burgers en bedrijven aangemerkt
en heeft de richtlijn voor hen geen gevolgen.
d) Gevolgen voor concurrentiekracht en geopolitieke aspecten
Het voorstel zorgt volgens de Commissie voor meer zekerheid voor aanbieders en gebruikers
van AI-systemen over hun aansprakelijkheid. Daarnaast stelt de Commissie dat geharmoniseerde
maatregelen ten aanzien van aansprakelijkheidsprocedures de voorwaarden voor uitrol
van AI-technologieën aanzienlijk verbeteren. Hierdoor wordt ook het vertrouwen van
de consument in op AI gebaseerde producten en diensten bevorderd, wat bijdraagt aan
een stabielere en groeiende markt.
Ook bouwt de EU met het voorstel voor de richtlijn verder aan haar rol als globale
pionier op het gebied van digitale regelgeving. De richtlijn draag bij aan het versterken
van het wereldwijde normstellend vermogen van de EU. Dit vermogen is een van de belangrijkste
troeven om geopolitieke en geo-economische doelstellingen te realiseren. Cruciale
voorwaarde daarbij is dat de EU ambitieuze eigen regelgeving vormgeeft omtrent digitale
technologieën zoals AI.
6. Implicaties juridisch
a) Consequenties voor nationale en decentrale regelgeving en/of sanctionering beleid
(inclusief toepassing van de lex silencio positivo)
Implementatie van de richtlijn zal mogelijk leiden tot aanpassing van het inzagerecht
in het Wetboek van Burgerlijke Rechtsvordering, voor zover het gaat om de gevolgtrekkingen
die de rechter moet maken bij de weigering van de gedaagde om informatie over te leggen.
De weerlegbare vermoedens van causaal verband zullen leiden tot nationale wetgeving.
De lex silencio positivo is niet van toepassing omdat de maatregelen in deze richtlijn
niet zien op beschikkingen van bestuursorganen.
b) Gedelegeerde en/of uitvoeringshandelingen, incl. NL-beoordeling daarvan
Het richtlijnvoorstel bevat geen gedelegeerde of uitvoeringshandelingen.
c) Voorgestelde implementatietermijn (bij richtlijnen), dan wel voorgestelde datum
inwerkingtreding (bij verordeningen en besluiten) met commentaar t.a.v. haalbaarheid
Het richtlijnvoorstel bevat een implementatietermijn van twee jaar. Dit is volgens
het kabinet een realistische termijn.
d) Wenselijkheid evaluatie-/horizonbepaling
Volgens de evaluatiebepaling moet de Commissie de richtlijn vijf jaar na de omzetting
evalueren. Daarbij moet, volgens de commissie, met name worden onderzocht of er behoefte
is aan het creëren van risicoaansprakelijkheidsregels voor vorderingen tegen de exploitant,
voor zover deze niet reeds onder andere aansprakelijkheidsregels van de Unie vallen,
en of er behoefte is aan een verplichte schadeverzekering. Het kabinet is positief
over de evaluatie van wet- en regelgeving en dus ook voor deze richtlijn.
e) Constitutionele toets
Het aansprakelijkheidsrecht biedt burgers die schade ondervinden de mogelijkheid tot
schadevergoeding. Door het voorstel om de bewijsregels voor aansprakelijkheidsprocedures
aan te passen aan de risico’s zoals ze zich volgens de Commissie bij AI manifesteren,
kan dit voorstel bijdragen aan de uitoefening van een effectief rechtsmiddel, zoals
neergelegd in artikel 47 van het Handvest voor de EU-grondrechten.
Daarnaast biedt dit voorstel aanvullende mogelijkheden om de bescherming van andere
fundamentele rechten te handhaven die door de toepassing van AI worden geschonden
en tot schade leiden. Daarbij kan worden gedacht aan het recht op leven (artikel 2
van het EU Handvest), bezit (artikel 17 van het EU-Handvest) en in het bijzonder op
de bescherming tegen discriminatie (artikel 1 Grondwet, artikel 21 EU-Handvest).
7. Implicaties voor uitvoering en/of handhaving
De bepalingen in de richtlijn zullen moeten worden toegepast door de civiele rechter,
indien bij hem een procedure aanhangig wordt gemaakt over de niet-contractuele schuldaansprakelijkheid
voor schade die veroorzaakt is door een AI-systeem. De richtlijn bevat geen regels
die anderszins gehandhaafd dienen te worden, zodat de handhaafbaarheid buiten beschouwing
gelaten kan worden.
8. Implicaties voor ontwikkelingslanden
Geen implicaties voor ontwikkelingslanden.
Ondertekenaars
-
Eerste ondertekenaar
W.B. Hoekstra, minister van Buitenlandse Zaken