Inlägg med bilderna blev så pass virala att Twitter/X stoppade alla användare från att kunna söka på megastjärnans namn, en panikåtgärd för att snabbt stoppa spridningen.
Men även om bilderna tydligt föreställer Taylor Swift är de helt och hållet skapade av en AI-modell. Det handlar om digitalt genererad porr utan samtycke. Så kallas och kategoriseras AI-skapade bilder och filmer på kända, okända, riktiga och ibland även fiktiva kvinnor.
Från partytrick till brottsverktyg
I samband med den snabba AI-utvecklingen har fler verktyg blivit tillgängliga för en bredare publik. Det har inneburit en fullkomplig explosion av AI-genererade bilder och filmer, och idag är det enkelt att skapa roliga eller uppseendeväckande bilder med inbyggda verktyg i webbläsare som Microsofts Bing.
I hängivna hörn och kanter på internet, som i grupper på Telegram och i trådar på forumet 4chan, samlas användare för att producera så realistiska pornografiska bilder som möjligt. Dagens ETC har tagit del av inlägg som visar hur man ger varandra tips och tagit fram guider för att finputsa verktygen. Förutom Taylor Swift är flera andra kända kvinnor särskilt utsatta, som Emma Watson, Olivia Rodrigo, Sydney Sweeney och Ariana Grande.
Resultat som tidigare krävde avancerade modeller, särskild mjukvara eller kunskaper inom retuschering och bildredigering går nu att få med enkla webbformulär och AI-verktyg från företag som Microsoft. Och till skillnad från tidiga ”deepfake”-bilder, där ett ansikte i en pornografisk bild eller film byts ut mot någon annans, så görs de nya bilderna helt och hållet av AI-modeller.
Skillnaden kan innebära att det är svårare att identifiera falska bilder, och gör det möjligt för den som tar fram bilden att anpassa innehållet. Med några slag på tangentbordet kan kvinnor placeras i utsatta situationer, olika kläder eller miljöer.
Enligt tekniktidningen 404media kommer åtminstone en del av de virala bilderna på Taylor Swift från 4chan innan de letade sig vidare till Twitter. Tidningens utredning visar hur användare har använt sig av Microsoftverktyget Designer för att enkelt producera explicit material, i strid med verktygets egna regler. Genom att ändra på nyckelorden och ordningen på de ord som matas in i verktyget var det enkelt att runda spärrar och förbud för att få fram annars förbjudet innehåll.
Efter publiceringen i 404 har Microsoft stängt de vanligaste kryphålen som användes för att ta fram bilder på kända kvinnor som Taylor Swift. I en intervju med NBC säger Microsofts vd Satya Nadella att det är företagets ansvar att sätta upp fler ”skyddsräcken” för att förhindra att verktygen används för att ta fram skadligt innehåll.
Taylor Swift har inte kommenterat affären men Twitter/X skriver i ett uttalande att det råder nolltolerans för publicering av porr utan samtycke. Efter vågen av AI-porr på plattformen har man meddelat att man ska anställa 100 innehållsmoderatorer. När Elon Musk tog över plattformen sparkade han hela avdelningen tidigare ansvarig för det arbetet.