Aansprakelijkheidsrecht

Inleidend

De Europese Unie ziet nieuwe technologieën en de daaruit voorvloeiende innovaties als een kans die gegrepen moet worden. Nieuwe uitvindingen en de implementatie ervan, zoals het gebruik van kunstmatige intelligentie (hierna: AI), creëren kansen en voordelen voor de samenleving. Kijk bijvoorbeeld naar het recente nieuws rondom chatbot ChatGPT. Een AI-gegeneerde chatbot welke schrijf- en e-mailwerkzaamheden zelfstandig op een zeer hoog niveau uitvoert. De ontwikkelingen gaan heel snel en hebben maatschappelijke impact. Het relevante rechtskader moet duidelijk en voorspelbaar zijn om voor deze vernieuwingen voldoende maatschappelijk draagvlak te creëren. Alleen dan wordt het vertrouwen van de gebruiker in deze innovaties vergroot, waarmee acceptatie van technologie groeit en ondernemingen uitgenodigd worden deze te gebruiken en verder te innoveren naar een misschien wel nóg betere variant op ChatGPT.

De Europese Commissie is echter vastbesloten om technologische innovatie nooit ten koste te laten gaan van waarborgen voor de burger. Juist het huidige rechtskader biedt hierbij nog de nodige uitdagingen. Zeker als het gaat om ingewikkelde technologie zoals AI. In deze blog zal ik kort uitleggen hoe het huidige kader de Europese burger moet beschermen tegen schade door AI, wat de problemen van dit kader zijn en hoe de recente richtlijnvoorstellen hieraan tegemoetkomen.

Huidige bescherming

Bij schade door AI bestaan verschillende routes om schade te verhalen. Als je schade lijdt door een product is de (bejaarde) Productaansprakelijkheidsrichtlijn uit 1985 (!) en de daaruit voortvloeiende nationale wetgeving op het gebied van productaansprakelijkheid de aangewezen route. Je kunt je voorstellen dat dit voor technische nieuwigheden misschien niet helemaal meer up-to-date is. Toch moet dit rechtskader ook op dit moment de Europese consument beschermen tegen gebrekkige of ‘foute’ producten. De richtlijn heeft dan ook moeite met de nieuwe, technische en niet direct tastbare producten. Wanneer het gaat om op zichzelf staande software of andere digitale innovaties zoals AI, kent de richtlijn in haar huidige vorm wat problemen. Je bent dan al snel aangewezen op de tweede route van de schuldaansprakelijkheidsregels. Bij schuldaansprakelijkheid moet dan weer veel bewezen worden, waaronder een oorzakelijk verband en een geschonden norm. Dit is voor de benadeelde bij technische software en AI moeilijk klaar te spelen.

Wanneer is een producent aansprakelijk als het gaat om schade door AI?

Bij productaansprakelijkheid is het van belang dat degene die schade heeft geleden kan aantonen dat sprake is van een gebrek in een product en dat dit product de schade heeft veroorzaakt. In dat geval is de producent van het product aansprakelijk, tenzij het aannemelijk is dat het gebrek niet bestond op het moment dat het product in het verkeer werd gebracht. Er is sprake van een gebrekkig product als het niet de veiligheid biedt die men daarvan mag verwachten, waarbij alle omstandigheden in aanmerking genomen moeten worden. Hierbij moet de benadeelde bewijzen dat het voldoende waarschijnlijk is dat het product daadwerkelijk gebrekkig was en dat hierdoor de schade is veroorzaakt. Dan is sprake van productaansprakelijkheid. Bij schuldaansprakelijkheid moeten ook het oorzakelijk verband, normoverschrijding en toerekenbaarheid worden aangetoond. Pas als dat allemaal gelukt is, is de verweerder aansprakelijk voor de opgelopen schade.

Bewijsprobleem met AI

Dit systeem van regels werkt misschien bij ‘normale’ tastbare producten die niet te ingewikkeld zijn. Maar dit systeem is niet voldoende toereikend om schadegevallen te behandelen wanneer de schade is veroorzaakt door producten die niet tastbaar zijn, zoals software, en producten die gebruik maken van AI. Op de eerste plaats voorziet de huidige productaansprakelijkheidsrichtlijn nog niet direct in die categorie producten. Op de tweede plaats vereist het diepe technologische kennis en inzicht om het systeem te begrijpen en de schade door AI aan te tonen. Dit bewijzen is door de complexiteit en het zelflerende karakter van AI voor de gemiddelde Europese burger dan ook nagenoeg onmogelijk. Als het bewijzen van een oorzakelijk verband niet lukt, blijft de benadeelde zitten met de schade. Dit zal met AI dan ook vaker dan niet het geval zijn bij zowel productaansprakelijkheid als schuldaansprakelijkheid.

De Europese Commissie zit daarom niet stil. Eerder al schreven wij een blog over de nieuwe AI-act (Verordening). Naast de Verordening zijn er op 28 september 2022 nieuwe voorstellen voor richtlijnen op het gebied van AI-aansprakelijkheid (Europese Commissie, COM(2022) 496, final)  (hierna: RAAI) en productaansprakelijkheid (Europese Commissie, COM(2022) 495) (hierna: VRPA) uitgevaardigd. Het is de bedoeling dat al deze wetgeving nauw gaat samenwerken. Het samenspel moet de risico’s beperken en ervoor zorgen dat schade gemakkelijker te verhalen is.

Nieuwe voorstellen vanuit de Europese Commissie

Nieuwe productaansprakelijkheidsrichtlijn (VRPA)

De VRPA probeert de regels op het gebied van productaansprakelijkheid te vernieuwen om benadeelden ook bij schade door producten met AI te beschermen. Er worden een paar belangrijke veranderingen geïntroduceerd. Zo vallen nu ook niet-tastbare producten zoals software of AI onder de noemer ‘product’. Hierdoor kan een producent ook voor schade van software of AI (of andere gelijksoortige producten) op grond van de richtlijn aansprakelijk gesteld worden. Daarnaast wordt het begrip ‘gebrekkigheid’ verruimd. Zo moet het ‘zelflerend vermogen’ van een product ook in beoordeling van gebrekkigheid meegenomen worden. Hierdoor kan een product ook ná het op de markt brengen gebrekkig worden, waardoor een schadeclaim kan ontstaan. De bewoordingen zeggen het al: ook (zelflerende) AI krijgt in de productaansprakelijkheid een grotere rol.

Daarnaast wordt geïntroduceerd dat productaansprakelijkheid kan ontstaan als de schade duidelijk is veroorzaakt door het kennelijk gebrekkig functioneren van een product bij normaal gebruik onder normale omstandigheden. Het oorzakelijk verband wordt daarmee eerder aangenomen dan voorheen. De bewijsdrempel wordt hiermee verlaagd om een eerlijke verdeling te creëren tussen de benadeelde en de producent. Dit is een logische stap omdat het bewijzen van een oorzakelijk verband tussen producten zoals AI en software en opgelopen schade zoals gezegd voor de gewone burger eigenlijk ondoenlijk is. De benadeelde wordt ook geholpen met het verzamelen van bewijs. De rechtbank is volgens de richtlijn bevoegd op verzoek van de benadeelde de verweerder relevant bewijsmateriaal te laten openbaren. Doet hij dit niet, dan ontstaat het bewijsvermoeden van een gebrekkig product.

Zonder deze eerlijke(re) verdeling bestaat een grotere kans dat een benadeelde met schade blijft zitten en dat hierdoor ook de gewilde maatschappelijke acceptatie voor AI-technologie zal stokken.

Nieuwe richtlijn aansprakelijkheid AI (RAAI)

Ook de RAAI probeert aan de oneerlijke bewijslast bij AI-producten tegemoet te komen. De RAAI ziet rechtstreeks op nationale schuldaansprakelijkheid bij het gebruik van AI. Door deze richtlijn wordt het makkelijker schadevergoeding op grond van een onrechtmatige daad te vorderen voor schade die is ontstaan door AI. Ook bij een schadeclaim op grond van een onrechtmatige daad moet namelijk een oorzakelijk verband worden aangetoond. Met de regels uit de richtlijn wordt de benadeelde, net als bij de VRPA, geholpen in zijn bewijsvergaring doordat de rechtbanken de mogelijkheid krijgen de verweerder te verplichten de relevante technologische kennis en informatie over het systeem over te dragen (dit geldt overigens alleen bij AI-systemen met een hoog risico). Weigert de verweerder deze informatie te geven, dan ontstaat het (weerlegbare) vermoeden dat hij zijn systeem niet op een rijtje heeft en onvoldoende zorgvuldig is geweest, hetgeen een schadevergoeding kan rechtvaardigen.

Met deze regels wordt een vermoeden van een oorzakelijk verband in het leven geroepen. Dit houdt in dat een rechter in bepaalde gevallen veronderstelt dat een verband bestaat tussen de geleden schade, de schuld van de gedaagde en het AI-systeem. Zo hoeft een benadeelde niet het technisch ontwaren van een AI-systeem voor zijn rekening te nemen. Hierbij moet wel aangetoond worden dat iemand een bepaalde (zorg)verplichting niet is nagekomen, dat het aannemelijk is dat deze fout het AI-systeem heeft beïnvloed en dat het AI-systeem heeft geleid tot de schade. Dit doet zich voor wanneer, bijvoorbeeld, conformiteitsbeoordelingen of andere verplichtingen uit de AI-Act niet worden nageleefd. Anders gezegd: het vereenvoudigt de aanwezigheid van het oorzakelijk verband dat iemands schuld tot schade heeft geleid.

Wat betekent dit allemaal voor de toekomstige praktijk?

In ieder geval een stap in de goede richting! De beoogde richtlijnen VRPA en RAAI moeten in samenhang worden gezien. De VRPA regelt risicoaansprakelijkheid van producenten voor schade die wordt veroorzaakt door het in het verkeer brengen van producten met gebreken. Op de eerste plaats vallen onder de term ‘product’ nu ook software en AI en op de tweede plaats wordt bij de behandeling van de vraag of een product gebrekkig is ook de omstandigheid meegenomen dat AI zelflerend is, en dat gebrekkigheid dus ook ná het op de markt brengen kan ontstaan. Hierdoor wordt het gemakkelijker voor benadeelden om schade te verhalen omdat aan het bewijzen minder eisen worden gesteld en dat eerder vermoedens ontstaan. Een lagere bewijsdrempel correspondeert ook met het ingewikkelde technische karakter van AI. De benadeelde zal minder snel in bewijsnood verkeren en de producent zal zich minder snel achter een later ontstaan gebrek kunnen verschuilen.

Bij schade kan een benadeelde daarnaast ook een andere route kiezen, namelijk via de RAAI. Dit is dan op het gebied van schuldaansprakelijkheid. Hierbij kan via de onrechtmatige daad een vordering worden ingesteld in het geval van schade gerelateerd aan AI. Wanneer de schade te maken heeft met AI, kan de nieuwe richtlijn de benadeelde ook helpen in zijn vordering door middel van een vergemakkelijkte bewijsvergaring. Hierbij moet de verweerder bewijs overdragen en ontstaat een bewijsvermoeden van schuld mocht de verweerder hier niet aan willen meewerken.

Het idee achter de nieuwe AI-regels is dat AI-technologieën in Europa een doorslaggevend succes worden waarbij voortdurend verder wordt geïnnoveerd. Ook de Europese Commissie ziet in dat hiervoor vertrouwen in (digitale) innovaties van groot belang is. Onder de nieuwe regels moet een consument of benadeelde voldoende instrumenten hebben om verhaal te halen wanneer zij schade ondervinden door AI-systemen, aldus dat is het idee. Er valt namelijk nog genoeg aan te tonen en te bewijzen. Iets wat een uitdaging blijft als het gaat om AI.

Hidde Spaan
Volg Hidde Spaan: