Anledningen var den ökande nationalismen, spänningar mellan kärnvapenmakterna och det långsamma klimatarbetet. Inom forskarprogrammet ”Existential risk to humanity” försöker en grupp forskare ta ett helhetsgrepp runt stora arthotande frågor.
BRA JOURNALISTIK ÄR INTE GRATIS
Gillar du det vi gör?
Swisha en peng till: 123 401 876 8
– Det är ett dussin forskare på plats från olika länder, som företräder väldigt olika ämnesområden, bland annat filosofi, matematik, datavetenskap, nationalekonomi, juridik och fysik. Vi jobbar väldigt förutsättningslöst, berättar Olle Häggström.
Bland de existentiella hot som nämns finns syntetisk biologi och biologisk krigföring, pandemier, supervulkanutbrott, asteroidnedslag och urspårad artificiell intelligens.
Är det rimligt att förbereda oss på allt detta? Kan vi ens? När det gäller exempelvis supervulkaner.
– Det ingår i det vi vill undersöka. När det gäller supervulkaner så är det ett hot från naturen och inte från oss själva. Den allmänna tendensen är att de naturliga hoten, som supervulkanutbrott och asteroidnedslag, visserligen är allvarliga, men som läget ser ut i innevarande århundrade så är de mycket större hoten de som kommer från oss själva.
– Många av teknologierna är väldigt bra, men kan i fel händer bli en väldigt destruktiv kraft.
Det är ju ett gammalt dilemma. Har det hotet på något sätt blivit större?
– Ja, här tycker jag att det är intressant att jämföra med kärnvapenhotet. Det var med atombomben som vi fick den tekniska kapaciteten att begå civilisationssjälvmord. Teknologin för att ta fram kärnvapen är svår att genomföra för den som inte har väldigt stora resurser. Så även efter 70 år är det bara ett tiotal stater som har kärnvapen. När det gäller AI, bioteknologi och nanoteknologi, kan de sakerna leda till en förstörelsekraft som är lika stor som kärnvapen, utan att kräva storindustriella resurser.
Är något av de här hoten större än andra?
– Det beror på tidsskalan. Om något skulle hända som slår mot mänskligheten de närmsta åren så är det allra mest sannolika en kärnvapenapokalyps. Att vi har sådana ledare som Donald Trump, Kim Jong-Un och Vladimir Putin kan också nämnas, enskilda personer som inte har den mentala robusthet och stabilitet som krävs, utgör en stor risk. Men vi har levt med kärnvapen i 70 år, och hotet har varierat.
– Vi behöver inte blicka så hemskt långt framåt för att bioterrorism kan komma att segla upp och bli ännu farligare. Och på ytterligare lite längre sikt. Vad händer när ett verkligt AI-genombrott nås?
Vad behöver göras politiskt för att riskminimera?
– Hur man löser de här sakerna samhälleligt, hur koordinerar vi världens nationer, där har vi inte kommit så långt. Vi har inte ännu så många svar där. Men vi jobbar på det, och människans stora kraft som problemlösare är hoppingivande.
PRENUMERERA PÅ ETC HELG
Den här artikeln kommer från veckans ETC Helg.
Vill du prenumerera för under 16 kronor numret?
Här kan du teckna en prenumeration.