• norsk
    • English
  • English 
    • norsk
    • English
  • Login
View Item 
  •   Home
  • Handelshøyskolen BI
  • Student papers
  • Bachelor
  • View Item
  •   Home
  • Handelshøyskolen BI
  • Student papers
  • Bachelor
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Ansvarsfordeling når kunstig intelligent militær-drone gjør fatal feil

Berntsen, Tobias
Bachelor thesis
Thumbnail
View/Open
2573994.pdf (2.500Mb)
URI
https://hdl.handle.net/11250/2684822
Date
2020
Metadata
Show full item record
Collections
  • Bachelor [572]
Abstract
Hovedformålet med denne studien var å besvare det overordnede

forskningsspørsmålet:

«Hvor plasseres ansvaret når kunstig intelligent militær-drone gjør fatal feil?»

Syv hypoteser ble utviklet i tro på at tilstedeværelse av valgmuligheter, i vesentlig

grad spiller en rolle for menneskers ansvarsplassering, slik det fremgikk i studiene

til Cappelen et al., (2016) og Savani & Rattan (2012).

Gjennom et eksperiment, som hadde et mellomgruppe-design, ble to uavhengige

grupper sammenlignet. Den ene gruppen ble forespeilet en situasjon hvor den

menneskelige aktøren kunne velge å la det kunstig intelligente systemet ta

beslutninger, eller, ta beslutninger selv. Den andre gruppen ble forespeilet en

situasjon hvor dronen tok full-autonome beslutninger, og aktøren kunne derfor

ikke påvirke dronens avgjørelser. Resultatene i studien viste at tilstedeværelse av

valgmuligheter ikke medførte signifikante forskjeller i ansvarsfordelingen. Til

tross for at deltakerne stilte seg mer kritisk til den menneskelige aktøren ved

tilstedeværelse av valgmuligheter, var det ikke signifikante

mellomgruppeforskjeller som impliserte at deltakerne i de to utvalgene hadde

vesentlig forskjellige oppfatninger og holdninger til aktøren sin fremferd.

Funnene i studien viste at den norske stat i vesentlig grad pålegges et

erstatningsansvar for den fatale feilen. I bredere sammenheng impliserer dette at

stater/organisasjoner/selskaper bør være klar over at implementering av kunstig

intelligent og autonom beslutningsteknologi, som kan volde sivil skade, kan

medføre en betydelig ansvarliggjøring når disse gjør fatale feil – kanskje i enda

større grad enn ved tradisjonell beslutningstaking, som i stor grad beror på den

menneskelige aktøren sine evner.
Description
Bacheloroppgave i Økonomi og administrasjon fra Handelshøyskolen BI, 2020
Publisher
Handelshøyskolen BI

Contact Us | Send Feedback

Privacy policy
DSpace software copyright © 2002-2019  DuraSpace

Service from  Unit
 

 

Browse

ArchiveCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsDocument TypesJournalsThis CollectionBy Issue DateAuthorsTitlesSubjectsDocument TypesJournals

My Account

Login

Statistics

View Usage Statistics

Contact Us | Send Feedback

Privacy policy
DSpace software copyright © 2002-2019  DuraSpace

Service from  Unit