top of page

Ansvar ved fejl begået af kunstig intelligens – en retlig gråzone

Udviklingen og implementeringen af kunstig intelligens (AI) har på få år ændret måden, hvorpå virksomheder, myndigheder og privatpersoner træffer beslutninger. AI-systemer anvendes i dag i alt fra kreditvurdering og medicinsk diagnostik til automatiseret sagsbehandling og selvkørende teknologi. Denne udvikling rejser imidlertid et centralt juridisk spørgsmål: Hvem bærer ansvaret, når AI begår fejl?


Artiklen analyserer de gældende retlige rammer og diskuterer, hvordan ansvar kan placeres i situationer, hvor AI-systemer forårsager skade eller træffer forkerte beslutninger.


AI som værktøj – det klassiske udgangspunkt

Efter gældende ret betragtes AI ikke som et selvstændigt retssubjekt. Det betyder, at AI ikke kan ifalde ansvar i sig selv. I stedet anses AI for et værktøj, der anvendes af mennesker eller organisationer. Dette udgangspunkt medfører, at ansvaret som hovedregel placeres hos den aktør, der har udviklet, implementeret eller anvendt systemet.


I juridisk teori og praksis vil dette ofte føre til, at ansvar vurderes efter eksisterende regler om erstatningsansvar, herunder culpa (uagtsomhed). Hvis en virksomhed anvender et AI-system, der træffer fejlbehæftede afgørelser, vil spørgsmålet være, om virksomheden har handlet ansvarspådragende ved at tage systemet i brug eller ved ikke at føre tilstrækkeligt tilsyn.


Dette rejser dog udfordringer, da AI-systemer ofte er komplekse og ikke fuldt gennemsigtige – det såkaldte “black box”-problem.


Produktansvar og software

Et centralt spørgsmål er, om fejl i AI kan udløse produktansvar. Efter klassiske produktansvarsregler kan en producent ifalde ansvar for defekte produkter, der forårsager skade.


Traditionelt har produktansvar været knyttet til fysiske produkter. Imidlertid er der en stigende tendens til at betragte software – herunder AI – som et produkt i juridisk forstand. Hvis et AI-system indeholder fejl i design, data eller algoritme, kan det argumenteres, at der foreligger en defekt.


Problemet opstår imidlertid i forhold til, hvad der udgør en “fejl”. AI-systemer er ofte probabilistiske og lærer løbende, hvilket betyder, at fejl ikke nødvendigvis skyldes en konkret defekt, men kan være et resultat af statistisk usikkerhed eller bias i træningsdata.


Dette udfordrer den klassiske produktansvarsmodel, som forudsætter en mere statisk forståelse af fejl.


Ansvar for udviklere vs. brugere

En væsentlig problemstilling er fordelingen af ansvar mellem udvikleren af AI-systemet og den, der anvender det.

Udvikleren kan potentielt ifalde ansvar, hvis systemet er mangelfuldt designet, utilstrækkeligt testet eller ikke lever op til rimelige sikkerhedsstandarder. Dette gælder særligt, hvis udvikleren har undladt at informere om kendte risici eller begrænsninger.

Brugeren – eksempelvis en virksomhed – kan imidlertid også ifalde ansvar, hvis systemet anvendes på en uforsvarlig måde. Dette kan være tilfældet, hvis virksomheden:

  • anvender AI uden tilstrækkelig menneskelig kontrol

  • anvender systemet til formål, det ikke er designet til

  • ignorerer kendte fejl eller bias


I praksis vil ansvaret ofte afhænge af en konkret vurdering af, hvem der havde bedst mulighed for at forebygge skaden.


Selvstændige beslutninger og autonomi

En særlig udfordring opstår i takt med, at AI-systemer bliver mere autonome. Når et system træffer beslutninger uden direkte menneskelig indgriben, bliver det vanskeligere at identificere en ansvarlig aktør.


Dette ses eksempelvis i forbindelse med selvkørende biler eller automatiserede beslutningssystemer i den offentlige sektor. Hvis en AI træffer en forkert beslutning, som ingen direkte har instrueret den i, opstår spørgsmålet: Er det udvikleren, ejeren, brugeren – eller ingen?


Den gældende ret har endnu ikke et klart svar på dette spørgsmål. I stedet anvendes eksisterende principper analogt, hvilket kan føre til usikkerhed og uensartet praksis.


Regulering og fremtidige perspektiver

På europæisk plan er der stigende fokus på regulering af AI, herunder gennem forslag til fælles regelsæt, der skal sikre ansvarlig anvendelse af teknologien. Disse regler lægger blandt andet op til:

  • øgede krav til dokumentation og transparens

  • risikobaseret regulering af AI-systemer

  • skærpede krav til højrisiko-applikationer


Formålet er blandt andet at gøre det lettere at placere ansvar, når noget går galt.


Der er også diskussioner om at indføre særlige ansvarsregler for AI, eksempelvis en form for objektivt ansvar, hvor det ikke er nødvendigt at bevise skyld. Dette kunne være relevant i situationer, hvor det er vanskeligt at påvise uagtsomhed på grund af systemets kompleksitet.


Konklusion

Ansvar for fejl begået af AI befinder sig i dag i et juridisk spændingsfelt mellem eksisterende regler og nye teknologiske realiteter. Udgangspunktet er klart: AI kan ikke selv ifalde ansvar, og ansvaret må derfor placeres hos mennesker eller organisationer.


I praksis er dette imidlertid langt fra enkelt. Kompleksiteten i AI-systemer, deres manglende gennemsigtighed og stigende autonomi gør det vanskeligt at anvende traditionelle ansvarsregler.


Fremtidig regulering vil sandsynligvis søge at skabe større klarhed, men indtil da må ansvarsspørgsmålet afgøres gennem konkrete vurderinger baseret på eksisterende retlige principper.


For virksomheder og myndigheder betyder dette, at anvendelse af AI ikke blot er et teknologisk spørgsmål, men i høj grad også et juridisk ansvar, der kræver grundig risikovurdering og løbende kontrol.

 
 
 

Kommentarer


Advokatfirmaet Engelbrecht

CVR - 37325481

Adresser: 

Hestehavevej 84, 4720 Præstø (mødefaciliteter på Hotel Frederiksminde)

Herningvej 36A,1, 4800 Nykøbing Falster

Toldbodgade 8, 4700 Næstved

Galoche Alle 6, 4600 Køge

Haderslevvej 36, 6000 Kolding

Email: post@aelaw.dk
Tel:  54 70 58 00

  • X
  • Instagram
  • Facebook
  • LinkedIn
bottom of page