Dødelig autonomt våpen - Lethal autonomous weapon

Dødelige autonome våpen ( LAWs ) er en type autonomt militært system som uavhengig kan søke etter og engasjere mål basert på programmerte begrensninger og beskrivelser. LOWs er også kjent som dødelige autonome våpensystemer (LAWS), autonome våpensystemer (AWS), robotvåpen , drepende roboter eller slaktboter . LOV kan operere i luften, på land, på vann, under vann eller i verdensrommet. Autonomien til nåværende systemer fra 2018 var begrenset i den forstand at et menneske gir den siste kommandoen til å angripe - selv om det er unntak med visse "defensive" systemer.

Å være autonom som et våpen

Å være "autonom" har forskjellige betydninger på forskjellige studieretninger. I konstruksjonen kan det referere til maskinens evne til å operere uten menneskelig involvering. I filosofi kan det referere til at et individ er moralsk uavhengig. I statsvitenskap kan det referere til et områdes evne til selvstyre . Når det gjelder utvikling av militære våpen, er identifikasjonen av et våpen som autonom ikke like tydelig som på andre områder. Den spesifikke standarden i begrepet å være autonom kan variere enormt mellom forskjellige forskere, nasjoner og organisasjoner.

Ulike mennesker har mange definisjoner på hva som utgjør et dødelig autonomt våpen. Heather Roff, forfatter for Case Western Reserve University School of Law , beskriver autonome våpensystemer som "væpnede våpensystemer, i stand til å lære og tilpasse deres 'funksjon som svar på endrede omstendigheter i miljøet [de] er utplassert i, som så vel som i stand til å ta avgjørelser på egen hånd. " Denne definisjonen av autonome våpensystemer er en ganske høy terskel sammenlignet med definisjonene av lærde som Peter Asaro og Mark Gubruds definisjoner sett nedenfor.

Lærde som Peter Asaro og Mark Gubrud prøver å sette terskelen lavere og bedømme flere våpensystemer som autonome. De tror at ethvert våpensystem som er i stand til å frigjøre en dødelig kraft uten operasjon, avgjørelse eller bekreftelse fra en menneskelig veileder, kan anses som autonom. I følge Gubrud anses et våpensystem som opererer delvis eller helt uten menneskelig inngrep som autonomt. Han argumenterer for at et våpensystem ikke trenger å være i stand til å ta beslutninger helt av seg selv for å bli kalt autonom. I stedet bør den behandles som autonom så lenge den aktivt involverer i en eller flere deler av "forberedelsesprosessen", fra å finne målet til til slutt skyte.

Andre organisasjoner setter imidlertid standarden på det autonome våpensystemet i en høyere posisjon. Den Forsvarsdepartementet (Storbritannia) definerer autonome våpensystemer som "systemer som er i stand til å forstå høyere hensikt og retning. Fra denne forståelsen og sin oppfatning av omgivelsene, slik systemet er i stand til å iverksette nødvendige tiltak for å få til en ønsket Det er i stand til å bestemme et handlingsforløp, fra en rekke alternativer, uten å være avhengig av menneskelig tilsyn og kontroll - et slikt menneskelig engasjement med systemet kan imidlertid fortsatt være til stede. Mens den overordnede aktiviteten til et autonomt ubemannet fly vil være forutsigbare, kan det være at individuelle handlinger ikke er det. "

Som et resultat krever sammensetningen av en traktat mellom stater en allment akseptert merking av hva som egentlig utgjør et autonomt våpen.

Automatiske forsvarssystemer

Det eldste, automatisk utløste, dødelige våpenet er landgruven , som ble brukt siden minst 1600 -tallet, og marineminer , brukt siden minst 1700 -tallet. Antipersonellgruver er forbudt i mange land av Ottawa-traktaten fra 1997 , ikke inkludert USA, Russland og store deler av Asia og Midtøsten.

Noen nåværende eksempler på LOWs er automatiserte "hardkill" aktive beskyttelsessystemer , for eksempel et radarstyrte CIWS- systemer som brukes til å forsvare skip som har vært i bruk siden 1970-tallet (f.eks. Det amerikanske Phalanx CIWS ). Slike systemer kan autonomt identifisere og angripe møtende missiler, raketter, artilleribrann, fly og overflatefartøy i henhold til kriterier satt av den menneskelige operatøren. Lignende systemer eksisterer for tanker, for eksempel Russian Arena , Israeli Trophy og tyske AMAP-ADS . Flere typer stasjonære vaktpistoler , som kan skyte mot mennesker og kjøretøyer, brukes i Sør -Korea og Israel. Mange missilforsvarssystemer , for eksempel Iron Dome , har også autonome målrettingsfunksjoner. Automatiske tårn installert på militære kjøretøyer kalles eksterne våpenstasjoner .

Hovedårsaken til ikke å ha et "menneske i løkken" i disse systemene er behovet for rask respons. De har generelt blitt brukt til å beskytte personell og installasjoner mot innkommende prosjektiler.

Autonome offensive systemer

Systemer med en høyere grad av autonomi vil omfatte droner eller ubemannede kampfly , for eksempel: "Den ubevæpnede BAE Systems Taranis jetdrevne kampdrone -prototypen kan føre til et Future Combat Air System som autonomt kan søke, identifisere og lokalisere fiender, men kan bare engasjere seg med et mål når det er autorisert av misjonskommandoen. Det kan også forsvare seg mot fiendtlige fly "(Heyns 2013, §45). Den Northrop Grumman X-47B drone kan ta av og lande på hangarskip (vist i 2014); det er satt til å bli utviklet til et Unmanned Carrier-Launched Airborne Surveillance and Strike (UCLASS) system.

Serbisk Land Rover Defender slepehenger med "Miloš" sporet kamprobot

I følge The Economist , etter hvert som teknologien utvikler seg, kan fremtidige bruksområder for ubemannede undervannsbiler omfatte gruveklaring, gruvedrift, anti-ubåt-sensornettverk i omstridte farvann, patruljering med aktiv ekkolodd, forsendelse av bemannede ubåter og bli lavpris-missilplattformer. I 2018 påsto US Nuclear Posture Review at Russland utviklet en "ny interkontinentalt, atomvåpenbasert, atomdrevet, undersjøisk autonom torpedo" med navnet " Status 6 ".

Den russiske føderasjonen utvikler aktivt kunstig intelligente missiler , droner , ubemannede kjøretøyer , militære roboter og medisinsk roboter.

Den israelske ministeren Ayoob Kara uttalte i 2017 at Israel utvikler militære roboter, inkludert så små som fluer.

I oktober 2018 holdt Zeng Yi, en toppsjef i det kinesiske forsvarsfirmaet Norinco , en tale der han sa at "I fremtidige slagmarker vil det ikke være folk som kjemper", og at bruk av dødelige autonome våpen i krigføring er " uunngåelig ". I 2019 slo USAs forsvarssekretær Mark Esper ut mot Kina for å ha solgt droner som er i stand til å ta liv uten menneskelig tilsyn.

Den britiske hæren satte inn nye ubemannede kjøretøyer og militære roboter i 2019.

Den amerikanske marinen utvikler "spøkelses" flåter av ubemannede skip .

I 2020 en Kargu 2 drone jaktet ned og angrepet et menneske mål i Libya , ifølge en rapport fra FNs sikkerhetsråd 's ekspertpanel om Libya, lagt fram i mars 2021. Dette kan ha vært første gang en autonom drapsmann robot bevæpnet med dødelig våpen angrepet mennesker.

Etiske og juridiske spørsmål

Standard brukt i amerikansk politikk

Gjeldende amerikansk politikk sier: "Autonome ... våpensystemer skal være utformet slik at sjefer og operatører kan utøve passende nivåer av menneskelig dømmekraft over bruk av makt." Politikken krever imidlertid at autonome våpensystemer som dreper mennesker eller bruker kinetisk kraft, velger og engasjerer mål uten ytterligere menneskelig inngrep, skal sertifiseres som i samsvar med "passende nivåer" og andre standarder, ikke at slike våpensystemer ikke kan oppfylle disse standardene og er derfor forbudt. "Semi-autonome" jegermordere som autonomt identifiserer og angriper mål, krever ikke engang sertifisering. Viseforsvarsminister Robert Work sa i 2016 at forsvarsdepartementet "ikke ville delegere dødelig myndighet til en maskin for å ta en avgjørelse", men kan trenge å revurdere dette siden "autoritære regimer" kan gjøre det. I oktober 2016 uttalte president Barack Obama at han tidlig i karrieren var skeptisk til en fremtid der en amerikansk president som bruker dronekrig kunne "føre evige kriger over hele verden, og mange av dem skjult, uten ansvar eller demokratisk debatt ". I USA har sikkerhetsrelatert AI falt under National Security Commission on Artificial Intelligence siden 2018. 31. oktober 2019 publiserte USAs forsvarsdepartement Defence Innovation Board utkastet til en rapport som beskriver fem prinsipper for våpen AI og komme med 12 anbefalinger for etisk bruk av kunstig intelligens av forsvarsdepartementet som ville sikre at en menneskelig operatør alltid ville være i stand til å se inn i den "svarte boksen" og forstå prosessen med å drepe kjeden. En stor bekymring er hvordan rapporten skal implementeres.

Mulige brudd på etikk og internasjonale handlinger

Stuart Russell , professor i informatikk fra University of California, Berkeley uttalte at bekymringen han har for LAWS er ​​at hans syn er at det er uetisk og umenneskelig. Hovedproblemet med dette systemet er at det er vanskelig å skille mellom stridende og ikke-stridende.

Det er bekymring fra noen (f.eks. Noel Sharkey 2012) om LOVs vil bryte internasjonal humanitær lov , spesielt distinksjonsprinsippet, som krever evne til å diskriminere stridende fra ikke-stridende, og proporsjonalitetsprinsippet , som krever at skade på sivile er proporsjonal med det militære målet. Denne bekymringen blir ofte påberopt som en grunn til å forby "morderroboter" helt - men det er tvilsomt at denne bekymringen kan være et argument mot LOV som ikke bryter internasjonal humanitær lov.

En rapport fra 2021 av American Congressional Research Service sier at "det ikke er noen nasjonale eller internasjonale lovlige forbud mot utvikling av bruk av LOWs", selv om den anerkjenner pågående samtaler ved FNs konvensjon om visse konvensjonelle våpen (CCW).

LOV sies av noen å sløre grensene for hvem som er ansvarlig for et bestemt drap. Filosofen Robert Sparrow hevder at autonome våpen er årsakssammenheng, men ikke moralsk ansvarlige, i likhet med barnesoldater. I hvert tilfelle argumenterer han for at det er fare for at grusomheter oppstår uten at et passende emne kan holdes ansvarlig, noe som bryter med jus in bello . Thomas Simpson og Vincent Müller hevder at de kan gjøre det lettere å registrere hvem som ga hvilken kommando. På samme måte hevder Steven Umbrello , Phil Torres og Angelo F. De Bellis at hvis den tekniske kapasiteten til lovene er minst like nøyaktige som menneskelige soldater, så gitt de psykologiske manglene til menneskelige soldater i krigstiltak, at bare denne typen etiske lover bør være brukt. På samme måte foreslår de å bruke den verdifølsomme designtilnærmingen som et potensielt rammeverk for å utforme disse lovene for å stemme overens med menneskelige verdier og internasjonal humanitær lov . Videre er potensielle IHL -brudd fra LOV - per definisjon - bare gjeldende i konfliktinnstillinger som innebærer behovet for å skille mellom stridende og sivile. Som sådan ville ethvert konfliktscenario uten sivile tilstedeværelse - dvs. i verdensrommet eller på dype hav - ikke støte på hindringene som IHL utgjør.

Kampanjer for å forby LOV

Muligheten for LOV har skapt betydelig debatt, spesielt om risikoen for at "dreperroboter" streifer jorden rundt - i nær eller fjern fremtid. Gruppen Campaign to Stop Killer Robots ble dannet i 2013. I juli 2015 signerte over 1000 eksperter på kunstig intelligens et brev som advarte om trusselen om et kunstig intelligens våpenkappløp og ba om et forbud mot autonome våpen. Brevet ble presentert i Buenos Aires på den 24. internasjonale felles konferansen om kunstig intelligens (IJCAI-15) og ble undertegnet av Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , Skype -grunnlegger Jaan Tallinn og Google DeepMind co- grunnlegger Demis Hassabis , blant andre.

I følge PAX For Peace (en av de grunnleggende organisasjonene av The Campaign to Stop Killer Robots), vil fullt automatiserte våpen (FAW) senke terskelen for å gå i krig ettersom soldater blir fjernet fra slagmarken og publikum blir distansert fra å oppleve krig, å gi politikere og andre beslutningstakere mer plass til å bestemme når og hvordan de skal gå til krig. De advarer om at FAW -er når de er implementert, vil gjøre demokratisk kontroll med krig vanskeligere - noe forfatteren av Kill Decision - en roman om temaet - og IT -spesialist Daniel Suarez også advarte om: ifølge ham kan det sentralisere makten i svært få hender av som krever at svært få mennesker går i krig.

Det er nettsteder som protesterer mot utviklingen av LOV ved å presentere uønskede konsekvenser hvis forskning på apparatet for kunstig intelligens til betegnelse på våpen fortsetter. På disse nettstedene oppdateres stadig nyheter om etiske og juridiske spørsmål slik at besøkende kan komme tilbake med siste nytt om internasjonale møter og forskningsartikler om LOV.

Den hellige stol har oppfordret det internasjonale samfunnet til å forby bruk av LOV ved flere anledninger. I november 2018 uttalte erkebiskop Ivan Jurkovic , den faste observatøren av Den hellige stol til De forente nasjoner, at "For å forhindre et våpenkappløp og økning av ulikheter og ustabilitet, er det en tvingende plikt å handle raskt: nå er tid for å forhindre at LOV blir virkeligheten i morgendagens krigføring. ” Kirken er bekymret for at disse våpensystemene har evnen til å irreversibelt endre karakteren til krigføring, skape løsrivelse fra menneskelig handlefrihet og sette spørsmål ved menneskeligheten i samfunn.

29. mars 2019 favoriserte et flertall av regjeringer på et FN -møte for å diskutere saken et forbud mot LOV. Et mindretall av regjeringer, inkludert Australia, Israel, Russland, Storbritannia og USA, motsatte seg et forbud.

Ingen forbud, men regulering

En tredje tilnærming fokuserer på å regulere bruken av autonome våpensystemer i stedet for et forbud. Militær AI -våpenkontroll vil trolig kreve institusjonalisering av nye internasjonale normer som er innebygd i effektive tekniske spesifikasjoner kombinert med aktiv overvåking og uformell ('Spor II') diplomati av ekspertsamfunn, sammen med en juridisk og politisk verifiseringsprosess.

Se også

Referanser

Videre lesning

  • Heyns, Christof (2013), 'Rapport fra spesialrapportøren om utenrettslige, summariske eller vilkårlige henrettelser', FNs generalforsamling, Menneskerettighetsråd, 23 (3), A/HRC/23/47.
  • Krishnan, Armin (2009), Killer robots: Lovlighet og etikk for autonome våpen (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), 'Autonome dreperoboter er sannsynligvis gode nyheter' , i Ezio Di Nucci og Filippo Santoni de Sio (red.), Droner og ansvar: Juridiske, filosofiske og sosio-tekniske perspektiver på bruk av eksternt kontrollerte våpen, 67-81 (London: Ashgate).
  • Stuart Russells kampanje mot LOV
  • Sharkey, Noel E (2012), 'Automating Warfare: erfaringer fra dronene', Journal of Law, Information & Science , 21 (2).
  • Simpson, Thomas W og Müller, Vincent C. (2016), 'Just war and robots' killings ' , The Philosophical Quarterly 66 (263), 302–22.
  • Singer, Peter (2009), Wired for war: The robotics revolution and conflict in the 21st Century (New York: Penguin)
  • US Department of Defense (2012), 'Direktiv 3000.09, autonomi i våpensystemer'. <2014 Killer Robots Policy Paper Final.docx>.
  • US Department of Defense (2013), 'Unmanned Systems Integrated Road Map FY2013-2038'. < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • Ethics of Autonomous Weapons Systems (2014) Seminar på UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >