Bachelor 2019
Abstract
Hensikten med vår oppgave er å undersøke hvordan moralsk ansvar oppfattes i en
situasjon der kunstig intelligens blir benyttet.
Vi vil først ta for oss relevante teorier og forskning rundt temaene kunstig
intelligens og moralsk ansvar. Disse fører til vår problemstilling “hvordan
oppfattes moralsk ansvar når en kunstig intelligens gjør feil i kirurgi”. Deretter
presenteres hypotesene vi vil bruke for å belyse problemstillingen. Hypotesene tar
for seg moralsk ansvar, kritikkverdighet, straff, sinne og erstatningsansvar.
Vi har benyttet kvantitativ metode, og utført et eksperiment for å vise forskjellen
mellom våre to grupper. Alle respondentene leste om en kirurgirobot som kunne
utføre operasjoner med mindre risiko enn en menneskelig kirurg. Begge grupper
leser deretter at roboten utfører en fatal feil på pasienten. Respondentene ble så
randomisert i to grupper og presentert med forskjellige situasjoner. Den ene
gruppen fikk lese om en kirurg som kunne velge mellom å utføre inngrepet selv,
men valgte roboten. Den andre gruppen fikk lese om at kirurgen ikke kunne velge,
da sykehuset krevde at roboten skulle utføre det. Deretter ble det stilt en rekke
spørsmål om situasjonen. Fra våre analyser kommer det frem at kirurgen får tildelt
mer moralsk ansvar i gruppen der han kunne velge å utføre operasjonen selv.
Svarene fra undersøkelsen blir analysert for å gi oss større innsikt i dataene. Dette
brukes videre i diskusjonen der vi går dypere inn i hvordan resultatene reelt kan
påvirke samfunnet og arbeidsplasser i fremtiden.
Description
Bacheloroppgave i Human Resource Management fra Handelshøyskolen BI, 2019