Potential och risker
Men här finns också en begynnande bransch som växer fram i och med utvecklingen. Det är inte otroligt att det i nära framtid finns en Netflix-serie där du spelar huvudpersonen, eller ett digitalt rum där du får prata med en avliden närstående igen. Branschens potential matchas av riskerna. I mörkare världar skapas och sprids pornografi eller våldsskildringar med personer som inte samtyckt till sin ”medverkan”.
En annan grupp som snabbt anammat StyleGan är konstnärer, och det finns redan flera exempel på AI-genererad konst.
Framsteg för övervakning
StyleGan gör det betydligt lättare för artificiell intelligens att lära sig hur människor ser ut, rör sig och kommunicerar. Den största risken kan vara övervakning, och hur StyleGan kan användas för att snabbt identifiera eller kartlägga mänskliga ansikten på ett sätt som tidigare inte har varit tekniskt möjligt i samma omfattning.
Det finns också en aktuell moralisk och etisk fråga om huruvida forskare ska ta hänsyn till samhälleliga effekter av sin forskning och väga fördelarna mot eventuella nackdelar. Om fördelarna är genererad media och ”snygga” bilder på människor som inte finns, men nackdelarna är omfattande framsteg för övervakning — är det värt det?
Tre globala faser
2018 förutspådde datalagringsföretaget Western Digital och konsultbyrån Accenture att kameraövervakning skulle utvecklas i tre mer eller mindre globala faser. Fas ett innebär att polis använder sig av kameraövervakning för att undersöka och utreda brott efter att de skett. Fas två, uppskattad att starta runt år 2025, innehåller en förvandling av samhällen till “smarta städer” där skolor, myndigheter, vård/omsorg och andra samhällsfunktioner kopplar samman sina datasystem med polisens för centraliserad AI-baserad analys. Fas tre, runt år 2035, innebär en infrastruktur där privatpersoner mer eller mindre frivilligt kopplar upp egna övervakningssystem och datasystem till det centrala nätverket för “allmän säkerhet” och där databaser slår samman information som kan hämtas från källor som individers sociala medier.
Flera frågetecken
Företag som Google, Facebook och Twitter arbetar på olika sätt med att implementera funktioner för att tagga eller identifiera AI-genererad media, men det finns flera frågetecken kring huruvida den tekniken faktiskt är effektiv, eller om det är ett sätt att försök tona ner uppenbara risker och lugna användare.
När information rör sig i snabba hastigheter och i komplexa och fragmenterade digitala ekosystem är det en rejäl utmaning att bygga motståndskraft mot desinformation. En av de bättre metoderna för att bygga upp motstånd och för att sprida kunskap är att öva.
På hemsidan ThisPersonDoesNotExist.com kan du enkelt hitta bilder genererade med StyleGan.
Svårt med realistiskt hår
Om du misstänker att en bild är genererad med StyleGan finns det några tecken som du kan kika efter (se faktaruta). Idag har StyleGan flera begränsningar med vad som kan genereras på ett realistiskt sätt. StyleGan har till exempel svårt att generera hår, hårda gränser, kläder och bakgrunder. Det innebär att genererade bilder ofta kan ha vad som ser ut som luftbubblor i bakgrunden. Idag genereras också en bild per falsk person, det kommer inte att finnas fler bilder på samma falska person.
Tänk på att mer tekniskt kunniga bedragare enkelt kan rätta till brister i bildredigeringsprogram, så tipsen är inte att se som uttömmande. StyleGan utvecklas också fortfarande, och tekniken blir bättre och bättre varje vecka. Det som gäller i skrivande stund kanske redan är inaktuellt när du läser.