Häromdagen skrev 116 specialister på artificiell intelligens och robotteknik från 26 länder, ledda av Elon Musk och Mustafa Suleyman, ett brev till FN. I det uppmanade de ett förbud mot utveckling av autonoma vapen, alltså vapen som inte kräver någon mänsklig inblandning för att välja ut och attackera mål. Gruppen av specialister varnar i brevet för en kapprustning av autonoma vapen som kan leda till en ”tredje revolution” inom krigsvapen – efter krutet och atombomben.
De varnar också för att autonoma vapen kan göra militärmakten säkrare i krig och just därför öka antalet människoliv som spills. Gruppen skriver till FN: ”Dödliga, autonoma vapen kan tillåta strider att utkämpas i större skala än någonsin, och inom snabbare tidsram än människor kan förstå. De kan användas av terrorister och diktatorer mot oskyldiga människor och hackade vapen kan bete sig på oönskade sätt.”
BRA JOURNALISTIK ÄR INTE GRATIS
Gillar du det vi gör?
Swisha en peng till: 123 401 876 8
Jag är själv inte expert på vare sig artificiell intelligens eller krig, men jag måste nog ändå säga att jag står på samma sida som de som INTE vill bygga självtänkande mördarrobotar. Det låter helt enkelt inte som en bra idé.
Ni har säkert hört talas om Turingtestet – namngett efter Alan Turing som kom på det. För att en dator ska klara testet ska den ha samtal (digitalt, givetvis) med testpersoner utan att dessa förstår att det inte är en annan människa de pratar med. Hittills har ingen dator enligt de flesta experter klarat ett giltigt test, även om det finns de som hävdar motsatsen.
Även en dator än så länge inte kan bete sig oskiljbart från en människa, så finns det många anledningar att fundera på utvecklingen av AI. En sådan anledning är det så kallade Spårvagnsproblemet. Kort förklarat innebär det att ett tåg kommer skenande mot fem personer som arbetar på spåret. Om du drar i en spak kommer tåget istället växla in på ett sidospår där en arbetare står. De flesta som får frågan om de skulle dra i spaken och rädda fem liv istället för ett svarar ja. Men när de istället får frågan om de skulle knuffa ned en man på spåret om de visste att det skulle få det att stanna – notera att det alltså blir samma resultat i antal liv som räddas respektive offras – svarar de flesta nej. Även åldern på personerna på spåret kan ha inverkan på svaren.
Den här typen av moraliska dilemman är grundläggande mänskliga och därför intressanta när man diskuterar artificiell intelligens. Ta till exempel självkörande bilar. Självkörande bilar kan ha flera fördelar gentemot människor – de pratar inte i telefon när de kör, till exempel – men det finns fortfarande saker man inte kan lära en maskin. Moraliska dilemman som kan uppstå. Sådant som vi kan behöva fundera på.
”Minst orolig verkar militären vara. Kanske de inte har sett Terminator 2.”
Artificiell intelligens är en viktig del av vår framtid. Jag förstår precis som alla andra värdet med utveckling inom detta område. Nästa steg skulle kunna vara att få en dator att med egna ord sammanfatta vad som står i en textmassa. AI skulle kunna revolutionera utvecklingen inom allt från funktionsnedsättningar till klimatet.
Många har i kölvattnet av expertgruppens brev till FN deklarerat att man absolut inte behöver oroa sig över utvecklingen av autonoma vapen. Minst orolig verkar militären vara. Kanske de inte har sett Terminator 2.
Men att teknikens utveckling är något vi bör debattera, inte avfärda som science fiction, är helt uppenbart. Bara för att det är komplicerat – både tekniskt och moraliskt – betyder det inte att samhällsdebatten bör utebli.
Och ju förr desto bättre. Författaren och futuristen Ray Kurzweil har förutspått att maskiner kommer nå samma intelligensnivå som människan år 2029 och att den teknologiska singulariteten – brytpunkten när artificiell intelligens överstiger människans och leder till ständigt mer intelligenta maskiner – kommer inträda år 2045.
FN:s samtal om autonoma vapen – vilket bland annat inkluderar drönare och obemannade pansarvagnar – kommer inledas i november 2017.