Att mediehus använder sig av robotar för att skriva enklare nyheter är inte nytt. Bland dem som använder sådana robotar återfinns Aftonbladet, NTM, VK Media och Mittmedia. Det frigör tid för journalister som slipper bevaka ämnen som läsare efterfrågar men som är för tidsödande att lägga resurser på. Och även om till exempel Microsoft i maj uppmärksammades för att de sparkat ett dussintal journalister för att ersätta dem med robotar har de senare hittills stått sig slätt när det kommer till mer avancerade texter.
Risk för missbruk
Det vill säga fram till i somras. Då meddelade AI-laboratoriet Openai att de uppgraderat sin autoregressiva språkmodell till GPT-3. Redan vid släppet av GPT-2 ett år tidigare varnade Openai för ”missbruk” och risken för ”illvillig användning” på grund av modellens förmåga att producera text som vore den skriven av en människa.
– En typisk text från GPT-3 kan mycket riktigt till en början vara ganska övertygande, men efter en stunds läsning kommer man oftast till en punkt där texten utmynnar i något slags rappakalja, säger Olle Häggström, matematikprofessor vid Chalmers i Göteborg.
Förklaringen är att GPT-3 inte är en självständigt tänkande, generell AI. Den fungerar snarare som autocomplete-funktionen i din mobil. Mata in ett ord och GPT-3 kommer att gissa sig till vilket ord som är mest sannolikt att följa.
Lär sig från internet
Att modellen producerar avancerad text beror på att den programmerats med 175 miljarder parametrar – statiska samband och mönster i mänskligt språk. Urvalet ord den väljer mellan kommer från text från internet från åren 2016–2019 – hela engelska Wikipedia, digitaliserade böcker, matrecept, reseguider om Lissabon, nyheter, litteratur, poesi, handböcker, manualer.
Det mesta du kan tänka dig har sugits upp av GPT-3 som underlag till textproduktion, även det ”dåliga”, som pseudovetenskap, konspirationsteorier och manifest från massmördare.
Resultatet är stilistiskt oantastligt, men ju längre text, desto större risk för att den spårar ur. Men inte alltid. Experter ska i enstaka fall ha fått kämpa för att sålla maskinellt från mänskligt. Särskilt med texter från GPT-3.
– Det som skiljer GPT-2 från GPT-3 är storleken på det neurala nätverket och mängden data den tränats på. Vilket öppnar för spekulationer om var vi hamnar med ännu större datorkraft, med ännu större neuralt nätverk och ännu större datamängder, säger Olle Häggström.
Saknar mening
Möjligheten att utöka robotjournalistiken från de väderrapporter och börsnotiser den idag är satt att producera är ännu fjärran. Texter från GPT-3 har jämförts med dem från en smart student som skitsnackar sig igenom en examen. De ser bra ut tack vare snygga formuleringar, men saknar egentlig mening. GPT-3 har till exempel spottat ur sig texter med referenser till OECD-rapporter som inte finns. En ”riktig” robotjournalist kräver således en generell AI.
Å andra sidan behöver inte korrekthet vara det som en användare nödvändigtvis är ute efter. Vilket är vad Openai varnat för.
Problemen med filterbubblor, polarisering och ”fake news” är välkända. Hypotetiskt skulle en trollfabrik med tillgång till GPT-3 kunna förstärka dessa genom massproducerade texter förklädda till journalistik – det räcker med att modellen tränas med ”rätt” data – och i ett katastrofscenario översvämma internet med desinformation. Hotet mot demokratin bör enligt Olle Häggström inte förringas.
– Vi bör förbereda oss på det värsta, så att vi inte hamnar i situation där internet drunknar i AI-genererade fake news och vi till slut inte förmår att hitta fram till pålitliga källor, säger han och påminner om att GPT-3 må vara ett än så länge trubbigt instrument, men för den skull inte ofarligt. Redan i dag har dåliga texter påverkan på nätklimatet.
– Det borde vara en högt prioriterad fråga för både makthavare och AI-utvecklare att hitta motmedel, programvara som klarar av att skilja datorgenererade texter från ”riktiga”. För oss nyhetskonsumenter kommer det bara att bli svårare och svårare.
Prislappen astronomisk
Ariel Ekgren, forskare vid Rise, tror också han att GPT-3 skulle kunna användas för fake news. Mata systemet med den data du vill att den ska utgå ifrån och du kommer att få det resultat du vill. Det är förmodligen också en tidsfråga innan problemet med semantiskt nonsens kan lösas.
– Men det går ju att datorgenerera text redan i dag. Det är inget unikt för GPT-3 i sig. Och output kan redigeras av en människa och så kanske du kan producera texter dubbelt så snabbt som i dag, säger han.
Problemet är i praktiken ett annat. Priset. De 1 000 mikroprocessorer som systemet använder sig av kostar var och en runt 80 000 kronor. Dessutom tillkommer en massa andra kostnader. Prislappen för ett datacenter för produktion av desinformation kan enligt Ariel Ekgren landa på 500 miljoner kronor. Och även om man går den billigare vägen och hyr nödvändig beräkningskraft via till exempel molntjänster kommer priset att ligga runt 40–80 miljoner kronor.
– Men för statsaktörer finns nog möjligheten att göra det redan i dag. Titta på Kina och på Ryssland, som bägge mycket väl redan kan ha infrastrukturen för att träna en sån här modell.