Ansvarsplassering når en kunstig intelligens feiler
Abstract
I denne bacheloroppgaven skal vi undersøke temaene moralsk ansvar og
kunstig intelligens. Forskningsoppgaven kaster lys over de ulike aktørene,
rollene og deres ansvar. Hensikten med oppgaven er å bringe mer klarhet i
problemstillingen:
Hvor plasseres ansvar når en AI gjør feil?
Vi har utført en kvantitativ undersøkelse med 158 respondenter, hvorav 121 av
disse gjennomførte hele eksperimentet. Respondentene ble innledningsvis
informert gjennom en randomisert vignett, der radiolog Sigurd enten hadde et
valg om å utføre oppgaven selv eller ikke. Det kom tydelig frem at den
kunstige roboten var 300 ganger sikrere enn Sigurd, og det riktige var derfor å
la roboten utføre jobben. I undersøkelsen ble det kartlagt holdninger rundt
kritikkverdighet, moralsk ansvar, straff, sinne og erstatningsansvar.
Oppgaven tar for seg eksisterende litteratur om kunstig intelligens og moralsk
ansvar, i tillegg til relevant forskning. På bakgrunn av relevant teori utarbeidet
vi syv hypoteser.
Vi konkluderte med at både sykehuset og produsenten er tjent med å ha på en
manual mode knapp som kan overstyre roboten. Resultatene forteller at så
lenge knappen eksisterer, endrer dette folks oppfatning av hvor ansvarlig
produsenten fremstår overfor eventuelle feil. Det er viktig å poengtere at en
lege ikke står fullstendig ansvarlig når vedkommende ikke er informert om
ansvaret som medfølger av valget. Oppgavens konklusjon beskriver
viktigheten av å informere ansatte, samt å opprettholde konkrete ruter
vedrørende delansvaret ved bruk av kunstig intelligens. Samtidig forklarer
resultatene hvorfor det eksisterer en manual mode knapp; produsent og
sykehus er tjent med det.
Description
Bacheloroppgave i Økonomi og administrasjon fra Handelshøyskolen BI, 2020