Hoppa till innehållet

Opinion

Debatt: Tar vi artificiell intelligens på tillräckligt stort allvar?

Transcendence går upp på svenska biografer på midsommardagen. Johnny Depp spelar forskaren som försöker ta fram en maskin med mänskliga känslor.
Transcendence går upp på svenska biografer på midsommardagen. Johnny Depp spelar forskaren som försöker ta fram en maskin med mänskliga känslor.

Dagens ETC

Att lyckas skapa artificiell intelligens skulle vara den största händelsen i människans historia. Dessvärre kan det också vara den sista, om vi inte lär oss undvika riskerna, skriver en grupp ledande forskare.
Det här är en debattartikel.
Det är skribenten och inte Dagens ETC som står för åsikten.

Att lyckas skapa artificiell intelligens skulle vara den största händelsen i människans historia. Dessvärre kan det också vara den sista, om vi inte lär oss undvika riskerna, skriver en grupp ledande forskare.

Med Hollywoodblockbustern Transcendence på biograferna, med Johnny Depp och Morgan Freeman som visar upp motstridiga visioner av mänsklighetens framtid, är det frestande att avfärda idén om intelligenta maskiner som enbart science fiction. Men det vore ett misstag, och kanske det värsta misstaget i historien.

Forskningen om artificiell intelligens, AI, rör sig snabbt framåt. De senaste landvinningarna, som självkörande bilar, en dator som vinner ”Jeopardy!” och de digitala personliga sekreterarna Siri, Google Now och Cortana är blott symtom på en IT-kapprustning som är laddad med tidigare oöverträffade investeringar och som bygger på en alltmer mogen teoretisk grund. Men dessa framsteg kommer troligen att blekna jämfört med vad de kommande decennierna kommer att bjuda på.

De potentiella fördelarna med AI är enorma. Allt som civilisationen har att erbjuda är en produkt av mänsklig intelligens, och vi kan knappast förutse vad som kan uppnås när denna intelligens förstärks av de hjälpmedel som AI kan erbjuda. Men att utplåna krig, sjukdom och fattigdom skulle stå högt upp på de flestas lista. Att lyckas skapa AI skulle vara den största händelsen i mänsklighetens historia.

Dessvärre kan det också bli den sista – om vi inte lär oss undvika riskerna. På kort sikt planerar världens militärer autonoma vapensystem som själva kan välja och eliminera mål. FN och Human Rights Watch har förespråkat ett fördrag där sådana vapen förbjuds. På lite längre sikt, som Erik Brynjolfsson och Andrew McAfee pekar på i boken The Second Machine Age, kan AI förvandla vår ekonomi till att skapa både stor rikedom och stora förskjutningar.

”Man kan föreställa sig sådan teknologi överlista finansmarknader, överträffa mänskliga forskare, utmanipulera mänskliga ledare och utveckla vapen som vi inte ens kan förstå.”


På ännu längre sikt finns det inga gränser för vad som kan uppnås; det finns ingen fysisk lag som hindrar partiklar från att organiseras så att de gör ännu mer avancerade beräkningar än partiklarna som är arrangerade i människohjärnor. En explosiv övergång är möjlig, även om den kanske kommer utspela sig annorlunda än i filmen: som Irving Good konstaterade 1965 kan maskiner med övermänsklig intelligens regelbundet förbättra sin design alltmer, och trigga vad Vernor Vinge kallade ”singulariteten” och Johnny Depps filmkaraktär kallar ”transcendens”.

Man kan föreställa sig sådan teknologi överlista finansmarknader, överträffa mänskliga forskare, utmanipulera mänskliga ledare och utveckla vapen som vi inte ens kan förstå. Medan den kortsiktiga effekten av AI beror på vem som kontrollerar den så är den långsiktiga effekten beroende av om den alls kan kontrolleras.

Så när vi står inför möjliga framtider av oräkneliga möjligheter och risker så gör experterna allt för att försäkra sig om utgången, eller hur? Fel. Om en överlägsen utomjordisk civilisation skickade oss ett meddelande som löd ”Vi kommer om några årtionden”, skulle vi bara svara ”Okej, ring oss när ni är här, vi lämnar ljuset tänt”? Troligen inte – men det här är mer eller mindre vad som händer med AI. Även om vi står inför det bästa eller det värsta som kan hända mänskligheten i historien så ägnas lite forskning åt dessa frågor utanför ickekommersiella institutioner som Cambridge Centre for the Study of Existential Risk, the Future of Humanity Institute, the Machine Intelligence Research Institute, och the Future of Life Institute.

Vi borde alla fråga oss själva vad vi kan göra nu för att öka sannolikheten för att skörda fördelarna av och förebygga riskerna med AI.

Stephen Hawking är forskningschef på Department of Applied Mathematics and Theoretical Physics på Cambridge och 2012 år mottagare av Fundamental Physics Prize för sitt arbete med kvantgravitation.

Stuart Russell är professor i datavetenskap på University of California i Berkeley och medförfattare till boken Artificial Intelligence: A Modern Approach.

Max Tegmark är fysikprofessor vid Massachusetts Institute of Technology (MIT) och författare till Our Mathematical Universe.

Frank Wilczek är fysikprofessor vid MIT och 2004 års nobelpristagare i fysik.

Text: Stephen Hawking, Stuart Russell, Max Tegmark, Frank Wilczek

Ursprungligen publicerad i The Independent 2014-05-01.

Översättning: Martin Halldin