Tidigt under kriget läckte information om att Israel använde en AI vid namn “Gospel”, detta rapporterades i flera större medier. Systemet skulle hantera massiva databaser och ge rekommendationer till det israeliska flygvapnet om vilka byggnader som skulle kunna vara taktiska mål att bomba.
I dagarna kom ytterligare ett avslöjande. De israeliska tidningarna +972 Magazine och Local Call har genom grävande journalistik och intervjuer med flera insatta israeliska officerare kunnat visa att Israel använder ytterligare två system – “Lavender” och “Where's Daddy?”.
Bombas hemma hos familjen
Dessa skiljer sig från “Gospel” då systemen inte handlar om byggnader utan om människor. Genom att kategorisera och prioritera data inhämtad genom Israels gigantiska övervakning av den palestinska befolkningen ska de två systemen berätta vem som ska dödas och när det ska ske. Genom drönare, satelliter, avlyssning och signalspaning kan “Lavender” göra uppskattningar om vem som är ett mål. Den producerar också ett värde kopplat till hur pass högprioriterat mål personen är. Värdet baseras på när personen sågs i en uniform, vilka byggnader den rört sig mellan, vilka Whatsapp-grupper den skriver i, och vilka andra telefoner personens telefon är nära.
Har man ett tillräckligt högt värde blir man ett så kallat high-value target (HVT) och ett high-pay-off target (HPT), man blir någon som är värd att offra en bomb på.
När det gäller att hitta de personer som utgör målen används istället “Where´s Daddy?” som följer målen och hittar den lämpligaste tidpunkten att beordra en bombning. Av flera olika skäl bedömer systemet att det helst görs när målen är hemma med sina familjer.
Kraven sänktes efter 7 oktober
I +972 Magazines intervjuer framgår det att tidigare var det endast just sådana mål som fick komma med en civil kostnad. Innan 7 oktober bedömde IDF att 20 civila fick dödas för att döda ett HVT. Detta kom dock att förändras. Vad som krävdes för att vara ett legitimt mål och samtidigt rättfärdiga civila dödsfall kunde motiveras enligt krigets lagar. Efter 7 oktober kunde vanliga soldater eller lägre befäl inom Hamas enligt IDF motivera 20 civila dödsfall. Däremot kunde HVT eller HPT istället motivera upp till 100 döda civila.
Det ska tilläggas att Israel velat hushålla med sina mer avancerade precisionsvapen och inte velat ödsla dem på lågt prioriterade mål. Istället har de förlitat sig på icke-styrda bomber, bomber som med sin lägre träffsäkerhet också skördar större förstörelse och dödsfall.
I databasen: 37 000 mål
Israel själva är fullt medvetna om att AI-systemen inte på något sätt är perfekta och räknar själva med att den AI-producerade informationen är korrekt till 90 procent. Enligt +972 Magazine sker ingen riktig granskning av de föreslagna målen. Under ett par sekunder söker en människa igenom informationen för att kunna försäkra sig om att målet är en man. När det är fastställt godkänns i de flesta fall informationen och skickas sedan vidare till de som förväntas utföra dödandet.
Ett hem som antagligen är fyllt med både barn och icke-stridande kvinnor.
Trots detta bygger datan på information som kan visa sig vara felaktig, inte minst på information som blivit utdaterad. En mobiltelefon kan byta ägare, en Hamas-kombattant kan ha lämnat organisationen och en person kan hinna lämna sitt hem under tiden som ett Israeliskt F-16 lyfter från sin flygbas. Ett hem som antagligen är fyllt med både barn och icke-stridande kvinnor.
I databasen finns runt 37 000 mål, det finns alltid nya mål att bomba.
Detta stramades åt, inte av humanitära skäl utan för att spara på ammunitionen.
Flera av de israeliska soldaterna som +972 Magazine pratat med uppger att målprioriteringen under krigets första veckor var mer frikostig och att det i princip inte fanns några begränsningar alls. Detta stramades åt, inte av humanitära skäl utan för att spara på ammunitionen. Senare kom ytterligare åtstramningar för att blidka USA som allt mer börjat opponera sig mot det stora antalet döda civila.
Krigets framtid skapar mål
Det mytomspunna förband inom IDF:s underättelsetjänst som ligger bakom dessa avancerade datasystem – Enhet 8200 – är en plantskola för visionära datanördar som under sin korta tjänstgöring förväntas ligga i framkant vad gäller cyberkrigföring, övervakning och dataintrång. Tidigare tjänstgörande inom Enhet 8200 ligger bakom den världskända trojanen ”Pegasus” medan andra har toppositioner i Silicon Valley. Deras förmågor är eftertraktade och hungern efter dem kommer bara att öka.
“Gospel”, “Lavender” och “Where's Daddy?” visar framtiden för krigföring, inte för att de lyckas göra de mest korrekta bedömningarna än annan form av underrättelse, utan för att de ger nationer med starkt flygvapen vad de velat ha i alla krig – någon att bomba.
Under Vietnamkriget frågade en journalist ett högt uppsatt befäl inom amerikanska flygvapnet vad de saknade för att kunna knäcka Nordvietnams stridsvilja. Behövde de mer flygplan, bomber eller piloter? Befälet skakade på huvudet och svarade: Vi behöver mål, mål och mål. Samma historia upprepade sig i både Afghanistan och Irak. Bomber för miljoner släpptes på tomma byggnader utan värde.
AI erbjuder en genväg
För västs försvarsmakter står flygvapnet i fokus. Då duger det inte att bomba tomma byggnader. I två viktiga verk inom den moderna militärteorin, ”The kill chain: Defending America in the future of high-tech warfare” och ”Next war: Reimagining how we fight”, lyfts behovet av AI för att hjälpa befälen att ta snabba beslut. Analysen blir en flaskhals och AI:n erbjuder en genväg.
Samtidigt har det riktats kritik och krav på reglering av vapenifierad artificiell intelligens. Kritiken är allt som oftast att AI:n saknar moral och etik. Att den kommer göra kriget omänskligt. Tvärtom så tycks AI:n istället blottlägga det omänskliga i krig genom de parametrar maskinen förväntas arbeta utifrån. Vilket antal döda barn som är acceptabla går inte längre att skylla på någon annan än den som beordrat just den parametern att föras in i systemet. Topparna kan inte längre svära sig fria från ansvar.