Pentagon närmar sig otestad AI för målutpekning

AI
Pentagon Nears Untested AI in Targeting
Pentagon rör sig mot att använda generativ AI för att rangordna och rekommendera mål – system som forskare varnar är otestade och benägna att göra tvärsäkra fel. Experter kräver rigorösa stresstester, juridisk granskning och starkare mänsklig tillsyn före varje driftsättning där liv står på spel.

Denna vecka avslöjade rapportering att Pentagon närmar sig användningen av otestad AI för beslut om målutpekning på liv och död. Detta innebär en övergång från demonstrationer till operativa piloter där generativa modeller kan rangordna listor över potentiella mål och generera rekommendationer som mänskliga operatörer sedan granskar. Planen, som beskrivs i briefinger och aktuell rapportering, föreslår inte helt autonoma dödliga system; istället förbereder USA:s försvarsdepartement sig för att integrera stora språkmodeller och generativa modeller i arbetsflöden för målutpekning som beslutsstöd. Detta förestående steg har väckt larm bland forskare och etiker, som pekar på tydliga, mätbara fellägen i nuvarande system och på nyligen genomförd medicinsk AI-forskning som visar hur tvärsäkra men felaktiga rekommendationer kan spridas inom operativa processer.

Pentagon närmar sig användning av otestad AI vid målutpekning: ett operativt skifte

Dokument och rapportering tyder på att Pentagon accelererar experiment där data från slagfältet matas in i generativa AI-system för att producera rangordnade mållistor och rekommenderade handlingsalternativ, medan det slutgiltiga beslutet lämnas till människor. Den föreslagna arkitekturen behandlar AI:n som en assistent snarare än en utförare: modeller ska sammanställa bildmaterial, signaler och andra flöden till prioriterade alternativ och stödjande motiveringar. Förespråkare hävdar att detta skulle kunna komprimera en långdragen underrättelsecykel och hjälpa befälhavare att bearbeta floder av sensordata under snabba scenarier.

Men att kalla ett system för ”assistent” tar inte bort den operativa risken. När otestade modeller inkluderas i en beslutskedja kan fel framstå, inte som exotiska misslyckanden, utan som till synes rimliga påståenden – korta, välformulerade rekommendationer som ser auktoritativa ut. Frasen ”Pentagon närmar sig användning av otestad AI” fångar den spänningen: maskinerna förbereds för uppgifter med dödliga konsekvenser innan sektorn har etablerat transparenta, standardiserade metoder för att mäta tillförlitlighet under adversariella förhållanden och vid gränsfall.

Pentagon närmar sig användning av otestad AI vid målutpekning: fellägen och medicinska paralleller

Nyligen utfört akademiskt arbete inom medicin ger en konkret analogi för de risker Pentagon står inför. En omfattande studie från forskare vid Icahn School of Medicine at Mount Sinai testade ledande språkmodeller på kliniska anteckningar och fann att modellerna ofta upprepade fabricerade rekommendationer om dessa falska påståenden var inbäddade i realistisk text. Författarna ramade in problemet som ”kan detta system vidarebefordra en lögn?” och uppmanade till storskaliga stresstester och kontroller mot externa bevis innan modeller används i klinisk vård.

Om man överför den insikten till målutpekning kan en generativ modell acceptera eller förstärka felaktiga signaler – felaktigt märkt bildmaterial, inaktuell platsmetadata eller vilseledande taktik från en motståndare – och presentera en kortfattad, säker rekommendation som en mänsklig granskare kan uppfatta som trovärdig. Motståndare kan medvetet manipulera indata, och rutinmässig operativ tvetydighet (dålig belysning, skymd sikt eller harmlös civil aktivitet) kan skapa exakt de förhållanden där en modells ytliga språkliga flyt maskerar en djup osäkerhet. Mount Sinai-studiens krav på mätbara, systematiska tester är direkt tillämpbart: militär AI måste prövas med adversariella, tvetydiga och medvetet vilseledande fall för att uppskatta hur ofta den kommer att ”vidarebefordra” en dålig rekommendation.

Mänsklig tillsyn, lagstiftning och skyddsmekanismer

Företrädare betonar att människor kommer att förbli ”i loopen” och måste validera AI-rekommendationer innan någon kinetisk stridshandling genomförs. Arkitekturer med mänsklig tillsyn, juridiska granskningar och etablerade insatsregler (rules of engagement) anförs som primära skyddsmekanismer. I praktiken kan dock den mänskliga tillsynen ansträngas av tempot: när sensorströmmar översvämmer operatörer med dussintals AI-prioriterade alternativ per timme kan granskningen bli ytlig. Den dynamiken förvandlar en säkerhetsmekanism till en kryssruta för regelefterlevnad och gör det möjligt för fel som genererats av AI att slinka förbi omdömesnivåerna.

Internationell rätt och krigets lagar kräver distinktion, proportionalitet och försiktighet vid anfall. Juridiska rådgivare kan granska doktriner och omtvistade fall, men de är beroende av kvaliteten på den information som presenteras. För att tillsynen ska vara meningsfull måste skyddsmekanismerna inkludera granskningskedjor som visar vilken data som påverkade modellen, konfidensmått som är kalibrerade och begripliga för mänskliga granskare, samt obligatorisk verifiering via en sekundär kanal för rekommendationer med stora konsekvenser. Flera forskare och tekniker hävdar att dessa skydd bör formaliseras i bindande protokoll snarare än i ad hoc-baserade interna riktlinjer.

Tekniska, etiska och ansvarsmässiga luckor

Ansvarsfrågan är också oklar. Om en AI ger en rangordnad lista och en mänsklig operatör accepterar den under tidspress, vem bär då det juridiska och moraliska ansvaret när civila skadas? Normer kring befälskedjan och interna granskningsnämnder kan spåra skulden uppåt, men överlevande och allmänheten kommer att kräva transparenta, oberoende undersökningsmekanismer. Det innebär robust loggning, bevarande av rå sensordata och modellutdata, samt procedurer som tillåter extern forensisk analys – inget av detta är standard i nuvarande prototyper.

Konsekvenser för framtida krigföring och politik

Att introducera generativ AI i arbetsflöden för målutpekning nu kommer att forma praxis på slagfältet för år framöver. Om tidiga driftsättningar accepterar en högre felmarginal för att de levererar snabbhet, kommer doktrin och utbildning att anpassas till den avvägningen – och motståndare kommer att lära sig att utnyttja det. Omvänt skulle ett strikt, evidensdrivet tillvägagångssätt som kräver extern validering, ”red teaming” och lagstadgad verifiering fördröja införandet, men det skulle kunna producera modeller som faktiskt minskar riskerna över tid.

Beslutsfattare står inför ett val mellan snabba operativa fördelar och det långsammare arbetet med att bygga verifierbar säkerhet. Vissa analytiker efterlyser formella testramverk, oberoende granskningar och utskottsförhör i kongressen för att väga strategiska fördelar mot etiska och juridiska kostnader. Andra yrkar på internationella normer eller fördrag för att begränsa omfattningen av AI-stöd i dödliga beslut, med argumentet att den tekniska oförutsägbarheten hos otestade generativa modeller är ett dåligt underlag för beslut om liv och död.

För närvarande illustrerar Pentagons drag ett bredare mönster: organisationer inom hälsovård, finans och försvar skyndar sig att bädda in kapabla men ofullkomliga modeller i kritiska arbetsflöden. Den medicinska studien från Mount Sinai är en påminnelse om att språkligt flyt inte är detsamma som sanning, och att rigorös, domänspecifik utvärdering är icke förhandlingsbar när människoliv står på spel. Om frasen ”Pentagon närmar sig användning av otestad AI” beskriver en operativ verklighet denna vecka, kvarstår den viktiga frågan om hur försvarsdepartementet och tillsynsinstitutioner ska mäta, begränsa och styra dessa system innan misstag blir till tragedier.

Tills robusta, transparenta testregimer och juridiska garantier finns på plats, varnar experter för att den enda ansvarsfulla vägen är försiktighet: sänk tempot i driftsättningen, kräv adversariella stresstester modell för modell och insistera på loggar av forensisk kvalitet och oberoende granskning. Dessa steg kommer inte att eliminera risken, men de är det minsta som krävs för att gå från en otestad assisterande förmåga till ett tillförlitligt verktyg i krigföring.

Källor

  • Icahn School of Medicine at Mount Sinai (studie som kartlägger stora språkmodellers sårbarhet för medicinsk desinformation)
  • The Lancet Digital Health (fackgranskad tidskrift för Mount Sinai-studien)
  • U.S. Department of Defense (policybriefinger och planering kring AI-integrering vid målutpekning)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vad planerar Pentagon att använda AI till i beslut gällande målutpekning?
A Pentagon planerar att använda AI för stridsledning, beslutsstöd och genomförande av målgångsprocesser (kill chains) genom projekt som Agent Network och Swarm Forge. Dessa initiativ syftar till att påskynda målutpekning och stridsförmåga genom att integrera AI i kampanjplanering och operativa beslut. Strategin betonar en ”AI-först”-strategi för att öka militär dödlighet och effektivitet.
Q Vad innebär ”oprövad AI” i militära tillämpningar och varför är det kontroversiellt?
A ”Oprövad AI” syftar på AI-modeller och system som distribueras snabbt utan uttömmande förhandstester i verkliga militära scenarier, vilket märks i Pentagons strävan efter snabb implementering inom 30 dagar efter offentliggörande. Det är kontroversiellt på grund av risker för funktionsfel under stress, antagonistiska attacker eller oförutsägbart beteende i strid, vilket kan leda till felaktiga beslut. Bristen på bevisad tillförlitlighet i liv-och-död-situationer väcker oro kring säkerhet och effektivitet.
Q Vilka säkerhetsmässiga och etiska orosmoment uppstår vid användning av AI för livsavgörande beslut om målutpekning?
A Säkerhetsproblemen inkluderar AI-fel i kaotiska miljöer, nätverksförsämring eller antagonistisk manipulation, vilket skulle kunna resultera i felaktig målutpekning och civila offer. Etiska frågor fokuserar på att delegera liv-och-död-beslut till maskiner som saknar mänskligt omdöme, ansvarsutkrävande och moraliskt resonemang. Snabb driftsättning utan fullständiga tester förstärker riskerna för oavsiktliga dödliga utfall.
Q Vilka skyddsåtgärder finns för att förhindra att AI gör dödliga misstag vid målutpekning?
A Skyddsåtgärderna omfattar utveckling av utvärderingsinfrastruktur för att testa AI-modeller mot uppdragsmål, prestanda i människa-AI-team och operativ stress före driftsättning. Defense Innovation Unit söker system för automatiserad ”red-teaming” mot antagonistiska attacker och tydliga poängmätvärden för beslutsfattare. Månatlig framstegsrapportering för ”Pace-Setting Projects” säkerställer tillsyn, även om fullständigt förebyggande av dödliga misstag fortfarande är obevisat.
Q Hur nära är Pentagon att använda AI för målutpekning i krig och vilka är konsekvenserna?
A Pentagon är mycket nära att använda AI för målutpekning i krig, med en strategi från januari 2026 som föreskriver ”AI-först”-operationer, pågående ”Pace-Setting Projects” och mål om att driftsätta modeller inom 30 dagar under 2026. Konsekvenserna inkluderar ökad militär dominans men också ökade risker för fel, etiska överträdelser och eskalering av konflikter på grund av snabbare, autonoma beslut. Kritiker understryker otillräckliga tester, vilket potentiellt kan leda till oavsiktliga konsekvenser i aktiv krigföring.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!