Så kan AI förändra framtidens krigföring

Människorättsorganisationen Human Rights Watch anklagar Ryssland för att använda sig av personminor i kriget i Ukraina. Enligt tidskriften New Scientist har det förekommit påståenden om att minorna är utrustade med artificiell intelligens som kan skilja på rörelsemönstret hos en soldat och en civilperson, men vapenexperter som tidskriften har talat med menar att det inte är möjligt.

Det kan finnas många användningsområden för robotteknik och artificiell intelligens i krig och väpnade konflikter, som små självkörande robotfordon och drönare som söker av minfält för att hitta och desarmera landminor. Men AI i krig kan också leda till etiska dilemman.

– Att rensa minfält är det perfekta jobbet för en robot. Men jag och mina kollegor är mycket oroade över att vi lämnar över beslut om vem som ska få leva och vem som ska dö till maskiner. Det vore en katastrofal utveckling för mänskligheten, säger Toby Walsh, professor i artificiell intelligens vid University of New South Wales i Sydney i Australien.

En bosnisk minröjare i Mine Action Group letar minor i en skog utanför Sarajevo, bild från 2019.

Foto: Jonas Ekströmer/TT

Toby Walsh var en av talarna vid ett seminarium om förbud mot så kallade mördarrobotar vid en konferens för den amerikanska vetenskapsorganisationen American Association for the Advancement of Sciences, AAAS, i Washington DC. Han är också en av initiativtagarna till ett öppet brev om ett globalt förbud mot mördarrobotar, riktat till FN:s konvention om vissa konventionella vapen, som Teslas vd Elon Musk och fler än 100 andra it-entreprenörer skrivit under.

”Dödliga autonoma vapen hotar att bli den tredje revolutionen i krigföring”, står det i brevet. ”När de väl har utvecklats kommer de att medföra att väpnade konflikter kan utkämpas på en större skala än någonsin, och på tidsskalor som är snabbare än vad människor kan begripa. De kan bli terrorvapen, vapen som despoter och terrorister använder mot oskyldiga befolkningar och vapen som hackas för att bete sig på oönskade sätt. Vi har inte lång tid på oss att agera. När denna Pandoras ask väl har öppnats kommer den att vara svår att stänga”, skriver entreprenörerna.

Det är inte Terminator vi ska se framför oss när vi diskuterar autonoma vapen, mördarrobotar eller vapen med artificiell intelligens, poängterar Toby Walsh.

– Vi pratar om mycket enklare teknik som i bästa fall ligger några år framåt i tiden. Mycket av det är under utveckling i dag, för varje typ av krigsskådeplats. Det gäller självkörande drönare i luften, självkörande fartyg och ubåtar i havet och självkörande fordon och stridsvagnar på land, säger han.

Militär drönare.

Foto: Mariusz Burcz/Alamy

Argument som att autonoma vapen är humanare än att skicka ut unga soldater på slagfältet, eller att de minskar riskerna för civilbefolkningen håller inte för en närmare granskning, menar Toby Walsh.

– Autonoma vapen kommer att förändra sättet vi krigar på. De kommer att sänka tröskeln för konflikt. Men den grundläggande etiska frågan är att de kommer att passera en gräns, eftersom maskiner inte har moralisk förmåga, inte nu och inte någonsin, att ta den här typen av beslut, säger han.

Den grundläggande frågan är om det är skillnad på att bli dödad av en självstyrande robot eller av en människa i krig.

– Det är en intressant etisk fråga. Man kan konstatera att människor upplever det som högst ovärdigt att bli dödad av en automat. Och mänsklig värdighet är en egenskap som även sträcker sig bortom döden, säger Martin Hagström, forskningsledare vid enheten för autonomi och robotteknik på Totalförsvarets forskningsinstitut FOI.

Vår grundinställning till etiska principer när vi bedömer en handling – är det handlingen i sig som är ond eller god, oavsett vilka konsekvenser den får, eller är det konsekvenserna som avgör? – kan också påverka hur vi ser på autonoma vapen, enligt en rapport från det internationella forskarnätverket Ipraw, International Panel on the Regulation of Autonomous Weapons.

– De som har ett konsekvensbaserat etiskt system tycker oftare att det kan vara okej att en algoritm eller ett autonomt system kan välja att skjuta på stridsvagn A istället för B om A verkar farligare. De som har ett principbaserat system tycker inte att man kan låta en maskin göra det valet. Det är en intressant observation, för vår etiska uppfattning är något personligt som verkligen går på djupet, säger Martin Hagström.

Martin Hagström, forskningsledare vid enheten för autonomi och robotteknik på Totalförsvarets forskningsinstitut FOI.

Foto: FOI

Debatten om autonoma vapen är komplicerad eftersom den berör vitt skilda och komplexa områden: avancerad teknik, folkrätt och militär verksamhet.

– Vetenskapare och ingenjörer förstår tekniken, folkrättsexperter förstår folkrätt och ibland en del militära saker. Men det är få som förstår alla tre perspektiven, säger Martin Hagström.

Ett problem som han ser är att ordval och språkbruk kan leda till missförstånd.

– Man säger ofta att tekniken ”tar beslut” eller ”tänker”. Det kan vara praktiskt att beskriva komplicerad teknik med mänskliga termer, men det gör också att det uppstår feltolkningar och missförstånd. När diplomater ska försöka förstå vad artificiell intelligens är tillskriver de den ofta egenskaper den inte har, säger han.

På samma sätt kan ingenjörer sakna förståelse för militär verksamhet.

– De har inte alltid kunskap om att militära operationer följer i förväg utarbetade metoder, att det finns planer och att man inte gör saker hur som helst, säger Martin Hagström.

Det gäller även frågan om ansvar.

– I en militär konflikt är det alltid kristallklart vem som är ansvarig. Det finns alltid en ansvarig befälhavare som har gett order om våldsanvändning, säger Martin Hagström.

Själva ordet autonom kan också leda till förvirring.

– I filosofi och statsvetenskap betyder autonom självbestämmande. Men i tekniska sammanhang är autonom och automatisk i princip samma sak.

En serbisk drönare och helikopter under en militärövning norr om Belgrad, januari 2022.

Foto: Darko Vojinovic/AP

Debatten handlar om system som kan komma i framtiden. Men sådana är svåra att förbjuda.

– Om vi ska kunna förbjuda något eller reglera något så måste vi ha en definition för det. Jag menar att det inte går att hitta en teknisk definition, eftersom det inte går att skilja autonom från automatisk. Definitionen måste i stället bli implicit: Vad är det man får göra? Vilka resultat vill vi inte ha?

Automatiska system har funnits länge.

– Vi har haft målsökande robotar i 70 år, och sjöminor har funnits i över 100 år. Och i någon mening är de helt autonoma, säger Martin Hagström.

Internationell rätt och de regelverk som redan finns kan även innefatta autonoma vapen, menar Martin Hagström.

– Ett generellt förbud mot autonoma vapen blir antingen helt meningslöst, därför att det förbjuder det som redan är förbjudet, nämligen illegal användning av vapen eller meningslöst därför att ingen kommer att bry sig om det.

Läs mer:

Så fungerar kemiska och biologiska vapen

”Vi måste tänka tanken att kärnvapen kan användas”

Read More

Maria Gunther