Inom gruppen ”forskare som varnar för AI” märks en tilltagande polarisering. Ena lägret talar om ”säkerhet”, andra lägret om ”etik”. Det ena hajpar AI-industrin, det andra vill punktera dess myter. Så när säkerhets-gänget testar ChatGPT-4 finner de åtminstone ett embryo till superintelligens, ett steg på vägen till en framtida självförbättrande AI. Medan etik-gänget ser en i grunden korkad språkmodell som identifierat matematiska sannolikheter – förvisso ur ett enormt källmaterial – för att sedan reproducera alla dess missförstånd och fördomar. Riskerna med artificiell intelligens förläggs alltså till framtiden av det läger som pratar ”AI safety”, medan de som pratar ”AI ethics” utgår från hur AI redan idag används för att befästa ojämlikhet och koncentrera makt.
Jag säger inte att man måste välja sida. Men det finns heller ingen neutral mittenposition.
Uppdelningen i två läger är både filosofiskt och politiskt relevant. Särskilt med tanke på att det första lägret inte bara består av forskare, utan även samlar många ledande figurer i själva AI-industrin. Elon Musk, Max Tegmark, Yuval Noah Harari... En i stort sett enkönad samling. Härom veckan författade de ett öppet brev som manade till ”en sex månaders paus i träningen av AI-system som är kraftfullare än GPT-4”.
Brevets författare vill tala i namn av hela gruppen ”forskare som varnar för AI”. Prydsamt låter de den första fotnoten hänvisa till en artikel som sammanfattar motståndarnas argument: ”On the Dangers of Stochastic Parrots”. Dess fyra författare Emily M. Bender, Timnit Gebru, Angelina McMillan-Major och Margaret Mitchell är ledande inom forskningsfältet ”AI ethics”. Två av dem jobbade tidigare på Googles forskningsavdelning men tvingades sluta då deras slutsatser drog i en alltför kritisk riktning. Fotnoten fick dem att hugga tillbaka. Att stora språkmodeller som GPT-4 kan vara farliga är inte för att de skulle vara intelligenta, skriver Timnit Gebru på Mastodon. Faran ligger tvärtom i vår tendens att tillskriva språkmodellerna en ofelbar intelligens.