
Israel och USA Började sina attacker mot Iran den 26 februari 2026.
Bild: Majid Saeedi / Getty images
AI-bråket inför Iran-attackerna utmanar principen om etisk militär AI
För bara några år sedan formulerades principer för ansvarsfull militär AI. Nu skiftar spelreglerna snabbt. Forskaren Bianca Baggiarini visar hur bråket mellan Pentagon, Anthropic och Trump väcker frågan: Vad händer med idén om ”etisk AI” i krig?
Inför helgens amerikanska och israeliska attacker mot Iran var USA:s försvarsdepartement Pentagon involverat i spända förhandlingar med AI-bolaget Anthropic om exakt hur Pentagon får använda företagets teknik.
Anthropic ville ha garantier för att deras Claude-system inte skulle användas till ändamål som inhemsk övervakning i USA eller autonoma vapen utan mänsklig kontroll.
Som svar beordrade USA:s president Donald Trump på fredagen den 27 februari alla federala myndigheter att sluta använda Anthropics teknik. Han skrev att han aldrig skulle tillåta ”ett radikalt vänster-, woke-företag att diktera hur vår storslagna militär utkämpar och vinner krig!”
Några timmar senare meddelade rivalen Open AI, som står bakom Chat GPT, att bolaget hade tecknat ett eget avtal med försvarsdepartementet. Den avgörande skillnaden tycks vara att Open AI tillåter ”all laglig användning” av sina verktyg, utan att ange några etiska gränser som Open AI inte tänker passera.
Vad innebär detta för militär AI? Är det slutet för idén om ”etisk AI” i krig?
AI-bolagen och Trumps linje mot reglering
Förra veckans händelser kom vid en tidpunkt som redan var oroande för AI-etiken. Trumpadministrationen förbjöd i fjol delstater att reglera AI, med motiveringen att det hotar innovationen.
Samtidigt har många AI-bolag närmat sig administrationen och chefer, däribland Open AI:s vd Sam Altman, har skänkt miljonbelopp i dollar till Trumps fond för sin installationsceremoni. (Altman påpekade då att han även har donerat till demokratiska politiker.)
Anthropic har varit mindre inställsamt, och har arbetat med nationell säkerhet samtidigt som man varnat för att AI ibland kan underminera demokratin – och att dagens system inte är tillräckligt pålitliga för att styra helt autonoma vapen.
Principer för militär AI
Mycket av oron kring militära AI-tillämpningar har handlat om dödliga autonoma vapensystem. Det är enheter och programvara som kan välja ut mål och angripa dem utan mänskligt ingripande.
För bara några år sedan tycktes en internationell samsyn om riskerna med sådana vapen växa fram, både bland regeringar och teknikbolag.
I februari 2020 presenterade USA:s försvarsdepartement principer för användningen av AI i hela organisationen: Den skulle vara ansvarsfull, rättvis, spårbar, pålitlig och styrbar.
Även Nato formulerade 2021 liknande principer, och Storbritannien gjorde detsamma 2022.
USA har en unik ledarroll bland sina internationella allierade när det gäller att forma globala normer för militärt uppträdande. Principerna signalerade till länder som Ryssland, Kina, Brasilien och Indien hur USA och dess allierade ansåg att militär användning av AI borde styras.
Militär AI och privata techbolag
Militär AI har i stor utsträckning byggt på partnerskap med näringslivet, eftersom den mest avancerade tekniken har utvecklats av privata bolag.
Projekt Maven, som startade 2017 för att öka användningen av maskininlärning och dataintegrering i USA:s militära underrättelseverksamhet, var starkt beroende av kommersiella techbolag.
USA:s försvarsinnovationsråd konstaterade 2019 att när det gäller AI finns den avgörande datan, kunskapen och personalen inom den privata sektorn.
Så är det än i dag. Men normerna kring hur AI bör användas skiftar snabbt – både inom det offentliga och inom stora delar av näringslivet.
Trump och Silicon Valley
När Trump återvaldes 2024 välkomnade många i Silicon Valley möjligheterna till avreglering. Miljardären och riskkapitalisten Marc Andreessen, som skrivit The techno-optimist manifesto, hävdade att Trumps seger ”kändes som att få en stövel bort från halsen”.
Joe Lonsdale, medgrundare till det AI-drivna dataanalysbolaget Palantir, har varit en annan högljudd Trumpanhängare. Open AI:s medgrundare Greg Brockman gav i fjol personligen 25 miljoner dollar till en organisation som stödjer Trump.
Vi befinner oss långt ifrån 2019 och 2020.
Etisk AI kräver demokratiska spelregler
Frågan om ett AI-baserat system är etiskt eller ej ses ofta som en fråga om tekniken i sig – snarare än om hur den används.
Ur den synvinkeln kan man, med rätt design, skapa ett i grunden etiskt AI-system. Detta brukar omfatta ”algoritmisk transparens” – att vara tydlig och ärlig med vilka regler systemet utgår ifrån för att fatta beslut. Tanken är att etiken kan ”bakas in” i dessa regler.
Idén om etisk militär AI förutsätter också att den verkar under demokratiska principer. Poängen med algoritmisk transparens är att ”folket” ska veta hur systemen fungerar, eftersom ”folket” ytterst har makten i en demokrati.
Men i en autokratisk regim spelar det ingen roll hur transparenta algoritmerna är. Det finns ingen känsla av att allmänheten har något att säga till om – eller förtjänar att veta vad regeringen gör, eller att verksamheten följer lagen.
Fri och offentlig debatt ses ofta som ett kännetecken för liberala demokratier. Även om det kan vara värdefullt att uppnå en samsyn i slutändan, kan konstruktiv oenighet och till och med konflikt vara tecken på en levande demokrati.
Beslut och konsekvenser för militär AI
I det ljuset är Anthropics vilja att ha verkliga diskussioner med staten om etiska röda linjer ett exempel på demokratiskt utövande. Företaget signalerade både en önskan om resonerande samtal och värdet av konstruktiv oenighet.
Som svar stämplade Trumpadministrationen på fredagen Anthropic som en ”leveranskedjerisk” – en ovanlig beteckning som tidigare i princip bara använts för utländska bolag. Försvarsminister Pete Hegseth skrev att ”med omedelbar verkan får ingen upphandlad leverantör eller partner som gör affärer med USA:s militär bedriva någon kommersiell verksamhet med Anthropic”.
Anthropic planerar att utmana beslutet i domstol, eftersom det kan få djupa ekonomiska och anseendemässiga konsekvenser för företaget.
Samtidigt har Open AI i stort sett accepterat att bolaget inte kommer att ha några etiska begränsningar – bara juridiska. Följaktligen är man öppen för affärer med USA:s regering, men möter egna konsekvenser för sitt anseende när konsumenternas motreaktioner växer.
AI i en värld utan demokratiska normer
Vad betyder allt detta för etisk AI i militären? En svårundviklig slutsats är att om vi vill att militär AI ska användas på ett etiskt sätt – i enlighet med transparenta lagar och regler – så behöver vi starka demokratiska normer. Men de blir alltmer hotade i takt med att den regelbaserade världsordningen krackelerar.
Hittills har föga förändrats i praktiken. Bara några timmar efter Trumps fördömande av Anthropic genomförde USA attacker mot Iran – som uppges ha planerats med hjälp av företagets programvara.
Den här artikeln är återpublicerad från The Conversation under creative commons-licens. Här kan du läsa den engelska originalartikeln.
Bianca Baggiarini
- Bianca Baggiarini är lektor i internationella relationer vid Deakin University i Australien.