Ansvarsfordeling når en aksjehandelsrobot feiler
Abstract
Denne bacheloroppgaven tar for seg temaene aksjehandel, kunstig intelligens og
moralsk ansvar. Vi ser på de ulike aktørene, rollene og deres ansvar. Vi har
gjennomført et eksperiment med 138 respondenter for å undersøke menneskers
holdning til ansvarsfordeling når roboter gjør feil. Hensikten med oppgaven har
vært å besvare vårt overordnede forskningsspørsmål:
«Hvor plasseres ansvaret når aksjehandelsroboter gjør feil?»
På bakgrunn av vårt overordnede forskningsspørsmål og teori har vi formulert
seks hypoteser. Forskningsmateriale vi har studert viser at en liten andel
menneskelige investorer er gode nok til å dekke sine kostnader ved aksjehandel,
men at aksjehandel av og til er opp til tilfeldigheter. Kunstig intelligens benytter
derimot algoritmer og tidligere datasett for å gi presise prognoser og baseres ikke
på tilfeldigheter. Menneskelig investor har et valg mellom å benytte seg av
aksjehandelsrobot eller egne ferdigheter. Med dekning i teorien finner vi ut at ved
å ha et valg følger ansvar.
Vi konkludere med at menneskelig investor hadde et valg og får derfor i større
grad et ansvar. Det er viktig å poengtere at en menneskelig investor ikke skal stå
fullstendig ansvarlig når han ikke er informert om ansvaret som medfølger av
valget. En leder tok et valg ved ansettelse av en menneskelig investor, og bør
derfor stå delansvarlig for utfallet. Våre funn tyder på at når menneskelig investor
er juridisk forpliktet tildeles han mindre ansvar. Utvikleren av den kunstige
intelligensen bør alltid utvikle roboter med «manual mode» for å kunne fraskrive
seg ansvar.
Description
Bacheloroppgave i Økonomi og administrasjon fra Handelshøyskolen BI, 2019