Den som minns Stanley Kubricks 52 år gamla rymdodyssé ”År 2001” minns också den iskyla med vilken AI-systemet HAL 9000 avfärdar doktor David Bowman när han försöker öppna luftslussen in till rymdskeppet Discovery One, efter att ha hämtat kvarlevorna av kollegan Frank Poole vars syretillförsel under en rymdpromenad strypts av HAL.
Beslutet att mörda Poole och att lämna doktor Bowman att dö är för HAL fullständigt logiskt. Människor är ofullkomliga och denna ofullkomlighet riskerar besättningens uppdrag, att ta sig till Jupiter. Därför måste människorna dö.
Lång väg dit
Kampen mellan doktor Bowman och HAL symboliserar ett återkommande tema i dystopiska, populärkulturella skildringar av artificiell intelligens. Där ett AI-system någon gång i framtiden får en egen vilja och börjar betrakta sig själv som högre stående än vi. Och antingen, som i Jack Williamsons novell ”With folded hands” från 1947, låser in oss i madrasserade rum och beskyddar oss till döds, eller, som i Terminatorfilmerna – bestämmer sig för att jorden klarar sig bättre utan oss.
Vägen dit är dock lång. Än så länge handlar AI om exempelvis maskininlärning, självkörande bilar och tolkning av naturligt språk, så kallad snäv AI, det vill säga algoritmer inriktade på att lösa välavgränsade uppgifter.
– I flera avseenden har maskiner varit överlägsna oss sedan länge. Men det gäller saker som huvudräkning, rättstavning och spela spel, alltså specifika problem, säger Fredrik Heintz, biträdande professor i datavetenskap, Linköpings universitet.
Det svåra inom AI är i stället generalitet och robusthet, att kunna lösa samma slags problem under olika situationer, inklusive nya och för systemet okända.
– Man har kommit ganska långt med självkörande bilar, som klarar av att köra utan problem i kanske 80 procent av alla situationer. Men sedan finns ju allt det oväntade, som snö eller en plastpåse som flyger över vägen eller annat den inte är beredd på. I dag klarar inte systemen sådana situationer, säger han.
Varken ont eller gott
Att de en dag kommer att göra det behöver enligt Fredrik Heintz inte vara omöjligt. För om intelligens i grund och botten är en form av beräkning – ett inte ovanligt sätt att se på saken – så kan allt som kan beräknas också lösas av en dator. AI skulle i så fall bli till AGI, artificiell generell intelligens, en maskin med intellektuell förmåga som människans.
Därifrån är dock steget långt till att ett AI-system skulle utveckla en egen vilja och bli ”ondskefullt”.
– Det är ett meningslöst begrepp. Jag tror inte att maskiner i dag kan vara onda. De kan göra saker som är bra eller dåliga för individer och grupper, men det gör dem varken goda eller onda. HAL gör helt rätt, den uppfyller specifikationen, men det blir ändå fel, för att de som satte upp uppdraget inte var tillräckligt tydliga.
Inte heller Karim Jebari, doktor i filosofi och forskare vid Institutet för framtidsstudier, ser några principiella hinder för att en maskin någon gång utvecklar en generell intelligens.
– Även om intelligens är en emergent egenskap, något som uppstår ur våra hjärncellers funktion, vilket det finns goda skäl att tro, så skulle en maskin mycket väl kunna emulera det. Min gissning är att om vi får en maskin med vårt slags intelligens så kommer den att vara mer lik vår hjärna än nuvarande maskiner, säger han.
Emulera moral
Och om intelligens kan emuleras torde steget inte vara långt till att göra detsamma med moral.
– Det är ju tankar och känslor och resonemang och vår uppfattning om rätt och fel. Inget av detta finns utanför vårt nervsystem. Det är en produkt av hur vi fungerar. Om en maskin kan återskapa andra funktioner av vårt tänkande finns det inget som säger att det ska vara svårare att göra en moralisk bedömning. Det går i alla fall inte att utesluta.
Att en ”ond” superintelligens skulle uppstå ser han däremot som mindre sannolikt. Dessutom ifrågasätter han hur farlig den egentligen skulle bli – av praktiska anledningar. Som exempel nämner han AI-företaget DeepMinds neurala nätverk AlphaGo som utklassar människor i både schack och japanska spelet Go, men först efter att ha tränat sig igenom miljoner matcher med sig själv.
– Om en maskin uppnår AGI kommer den förmodligen också att ha några av våra begränsningar och det är inte säkert att den kommer att ha samma fördelar som en AI. Robotar kan inte tränas att orientera sig tredimensionellt i en modell. De måste göra det i rummet. Om man ska träna dem att plocka ur en diskmaskin krävs det miljoner försök och det kommer inte att gå särskilt snabbt.
Ett varnande finger
Olle Häggström, professor i matematiska vetenskaper vid Chalmers i Göteborg, är betydligt mer oroad över utvecklingen av AI. I en essä i Fysikaktuellt varnar han för att optimismen inför den enorma potential som AI bär på kan leda till ett ”vårdslöst framåtskridande i blindo”.
I artikeln tecknar han flera faror att hålla utkik efter, bland annat så kallade autonoma vapen, det vill säga vapen som själva kan välja och bekämpa mål utan mänsklig inblandning. Men framför allt pekar han på behovet av att hitta en lösning på det som kallas ”AI alignment”, att se till att den första superintelligenta maskinen har värderingar och mål som prioriterar mänsklig välfärd och är i samklang med goda, mänskliga värderingar – ”vad som nu menas med sådana”.
Olle Häggström påminner också om svårigheterna med detta.
”När vi programmerar tenderar vi att göra fel, och när en diskrepans föreligger mellan vad vi programmerat och vad vi egentligen menade så blir det förstnämnda styrande” och dessutom finns också faran för en ”grundläggande instabilitet, där till synes små avvikelser från de mål vi avser kan ha katastrofala konsekvenser.”