Blijf op de hoogte van het laatste Gevers-nieuws door je aan te melden voor onze nieuwsbrief.
Kunstmatige intelligentie & Aansprakelijkheid – Whodunit?
Kunstmatige intelligentie (“AI”) wordt vaak geassocieerd met vooruitgang, groei en technologische verbeteringen. Het heeft het potentieel om bedrijven te transformeren, maar wat als er iets misgaat? Wie is aansprakelijk als er iets misgaat met een AI-systeem? Moet het AI-systeem zelf aansprakelijk worden gesteld voor zijn output? Of moeten we kijken naar de producent van het systeem, of zelfs naar de gebruiker?
In dit artikel gaan we in op (i) het huidige kader voor AI-aansprakelijkheid in de EU, (ii) het nieuwe voorstel voor een EU-verordening inzake AI, en (iii) het belang van overeenkomsten.
1.Huidig juridisch kader in de EU
Zoals bij veel technologieën het geval is, is het contrast tussen de snelle ontwikkeling van AI-systemen en het vrij trage proces van een juridisch kader dat AI reguleert, groot.
Momenteel bestaat er in de EU geen specifieke aansprakelijkheidsregeling met betrekking tot AI. In de meeste EU-lidstaten wordt de aansprakelijkheid voor AI dan ook geregeld door het recht inzake onrechtmatige daad. Het recht inzake onrechtmatige daad is echter grotendeels niet-geharmoniseerd, met uitzondering van de aansprakelijkheid van productfabrikanten voor producten met gebreken, die geregeld is bij Richtlijn 85/374/EG inzake de aansprakelijkheid voor producten met gebreken.*
Hoewel de meeste aansprakelijkheidsregelingen in de EU-lidstaten een basisbescherming bieden voor benadeelde of benadeelde personen wier schade is veroorzaakt door de werking van AI, kan de toewijzing van aansprakelijkheid ontoereikend of inefficiënt zijn.
2. Nieuw EU-voorstel voor een verordening tot vaststelling van geharmoniseerde regels voor AI
De EU-wetgever heeft deze tekortkomingen erkend en heeft sinds 2017 een reeks initiatieven genomen**. Als onderdeel van dit proces hebben het Europees Parlement en de Europese Raad op april21 een voorstel voor een verordening tot vaststelling van geharmoniseerde voorschriften inzake AI (de “kunstmatige-intelligentiewet” of “AIA”) 2021.
Deze verordening strekt ertoe het gebruik van AI te reguleren overeenkomstig het risiconiveau dat het AI-systeem inhoudt voor de fundamentele mensenrechten en de veiligheid. De AIA introduceert een verfijnde “productveiligheidsregeling” die is opgebouwd rond een reeks van vier risicocategorieën:
(i) een “onaanvaardbaar risico”, zoals live biometrische identificatiesystemen op afstand in voor het publiek toegankelijke ruimten voor rechtshandhavingsdoeleinden, zoals gezichtsherkenning;(ii) een “hoog risico”, zoals systemen voor aanwerving of medische doeleinden;
(iii) een “beperkt of laag risico”, zoals chatbots die bepaalde manipulatierisico’s inhouden;
(iv) een “minimaal of geen risico”, zoals videospelletjes met AI of spamfilters.
Voor elk risiconiveau gelden specifieke regels:
(i) AI-systemen die een “onaanvaardbaar risico” inhouden, worden uit de EU geweerd, omdat ze worden beschouwd als een schending van de grondrechten en ernstige schade kunnen toebrengen;
(ii) Voor AI-systemen die een “hoog risico” inhouden, gelden strenge eisen, zoals:
de invoering van een risicobeheerssysteem dat bestaat uit een continu iteratief proces dat gedurende de gehele levenscyclus van het AI-systeem wordt doorlopen; en
de integratie van de mogelijkheden tot het bijhouden van registers in het AI-systeem.
(iii) AI-systemen die een “beperkt of laag risico” inhouden, zijn ofwel onderworpen aan transparantievoorschriften, zoals bepaalde informatieverplichtingen aan natuurlijke personen die met een AI-systeem interageren, ofwel helemaal niet gereguleerd.
(iv) AI-systemen die een “minimaal of geen risico” inhouden, zijn zonder beperkingen toegestaan. De Europese Commissie moedigt belanghebbenden echter aan gedragscodes op te stellen voor dergelijke AI-systemen met een laag risico.
Bijgevolg introduceert het nieuwe voorstel een geheel nieuw corpus van wettelijke verplichtingen voor aanbieders, gebruikers, fabrikanten, importeurs en distributeurs van AI-systemen. Belanghebbenden op AI-systemen zullen daarom nalevingsinstrumenten moeten ontwikkelen om ervoor te zorgen dat hun systemen voldoen aan de wettelijke vereisten, die in zekere zin vergelijkbaar zijn met de vereisten die door de Algemene verordening gegevensbescherming (GDPR) worden opgelegd.
De AIA is een eerste wetgevingsstap om een beter kader voor AI tot stand te brengen. Zij streeft een tweeledig doel na: i) het aanpakken van de risico’s die zijn verbonden aan specifieke AI-systemen en ii) het bevorderen van de acceptatie van AI. Het is er dus vooral op gericht ervoor te zorgen dat AI-systemen veilig zijn en de bestaande wetgeving inzake grondrechten en waarden van de Unie eerbiedigen. Het biedt echter geen oplossing voor onze basisvraag: wie is aansprakelijk als er iets misgaat met een AI-systeem?
Het antwoord op deze vraag wordt binnenkort verwacht: in haar “Gecoördineerd plan inzake AI” van 2021 zal de Europese Commissie verdere EU-maatregelen voorstellen om het aansprakelijkheidskader aan te passen aan de uitdagingen van nieuwe technologieën, waaronder AI, in de loop van 2022*.
De groep van deskundigen die door de EG is aangesteld om de AIA voor te bereiden, heeft reeds enkele interessante richtsnoeren gegeven over de verdeling van de verantwoordelijkheden**:
Een fabrikant van een AI-systeem moet aansprakelijk zijn voor schade als gevolg van gebreken in zijn producten, zelfs indien het gebrek is veroorzaakt door wijzigingen die onder controle van de producent in het product zijn aangebracht nadat het in de handel was gebracht.
Een exploitant van een AI-systeem dat een verhoogd risico van schade voor anderen inhoudt, bijvoorbeeld AI-gestuurde robots in openbare ruimten, moet risicoaansprakelijk zijn voor schade als gevolg van de werking ervan.
Een dienstverlener die voor het technische kader zorgt, heeft een hogere mate van zeggenschap dan de eigenaar of gebruiker van een daadwerkelijk met AI uitgerust product of dienst. Hiermee moet rekening worden gehouden bij het bepalen wie de technologie in de eerste plaats exploiteert.
Een persoon die gebruik maakt van een technologie die geen verhoogd risico van schade voor anderen inhoudt, moet nog steeds worden verplicht zich te houden aan de verplichtingen om de gebruikte technologie naar behoren te selecteren, te bedienen, te controleren en te onderhouden. Wanneer hij deze plichten niet nakomt, moet hij aansprakelijk zijn voor het niet nakomen van deze plichten indien hij een fout heeft begaan. Bovendien mag een persoon die gebruik maakt van een technologie met een zekere mate van autonomie, niet minder aansprakelijk zijn voor de daaruit voortvloeiende schade dan wanneer die schade zou zijn veroorzaakt door een menselijke helper.
Bovendien heeft de EC in haar verslag over de aansprakelijkheid voor kunstmatige intelligentie en andere opkomende digitale technologieën*** reeds verduidelijkt dat het momenteel niet nodig is AI een rechtspersoonlijkheid te geven om het aansprakelijk te stellen.
3. Belang van duidelijke afspraken
Dit is waar contracten uitkomst kunnen bieden. Zolang er geen duidelijk wettelijk kader of jurisprudentie is, is het voor partijen bij AI-projecten van cruciaal belang om hun wederzijdse aansprakelijkheden naar behoren in een overeenkomst vast te leggen, teneinde discussies over aansprakelijkheid te vermijden.
Het GEVERS AI-team zal u graag bijstaan bij het opstellen van dergelijke overeenkomsten en bij al uw vragen. Neem contact met ons op via mailbox.contracts@gevers.eu of neem rechtstreeks contact op met een van onze experten.