Sociala medieplattformar förlitar sig allt mer på algoritmer för att ta fram innehåll till användare. Enligt mediejätten Youtube ligger plattformens algoritm bakom så mycket som 70 procent av de videor som visas. Något som innebär att användare i många fall får upp det innehåll som Youtube tror att de vill se, snarare än innehåll som de själva sökt fram.
Från Youtubes sida hävdar man att en mängd olika faktorer spelar in i vilka rekommendationer en användare kommer att få, däribland tidigare sök- och visningshistorik.
Men en studie genomförd av brittiska Institute for strategic dialogue visar nu att plattformens algoritm gynnar högerfrågor och kristet innehåll, oavsett de ämnen som användare tidigare visat intresse för.
Tillvägagångssättet: fiktiva profiler
För att testa Youtubes rekommendationsfunktion skapade forskarna bakom studien olika profiler med specifika intressen, såsom gaming, manliga lifestyle-förebilder och moderskap.
Efter att ha sökt och tittat på videor som matchade dessa intressen noterades sedan vilka rekommendationer som de fiktiva profilerna fick.
Resultaten visar på ett antal oroväckande tendenser.
Favoriserar högerpolitik
För de profiler som uppgav sig vara intresserad av ”manliga lifestyle-förebilder” var den mest rekommenderade nyhetskanalen konservativa Fox News, trots att inget konto hade tittade på just denna under provfasen.
Även fiktiva profiler som utgav sig för att vara intresserade av frågor relaterade till moderskap blev rekommenderade Fox News, fast de själva tittat på mer vänsterorienterat innehåll.
Enligt forskarna bakom studien tyder det här på att Youtubes algoritm mer frekvent rekommenderar innehåll med högerbudskap än innehåll med vänsterbudskap.
Rekommenderar kristet innehåll trots ointresse
Undersökningen visar också att Youtubes algoritm rekommenderar innehåll som användare inte alls visat intresse för.
Ingen av testprofilerna visade genom sin sök- eller visningshistorik ett intresse för religion. Ändå rekommenderade kanalen religiöst innehåll till samtliga. Mer specifikt så verkar algoritmen ha en förkärlek just för kristna budskap.
Exempelvis rekommenderades videor med kristna bibelverser till de profiler som sökt på ämnen kopplade till moderskap.
Forskarna: ”Skyddar inte barn”
Studien är inte ensam om att framföra kritik mot Youtubes algoritm. Undersökningar har vid upprepade tillfällen visat att plattformen rekommenderar extremistiskt innehåll till användare, däribland konspirationsteorier.
Forskarna vid Institute for strategic dialogue lyfter särskilt ett varningens finger för att Youtube inte gör tillräckligt för att kontrollera att barn och unga inte nås av skadligt material.
Tvärtom.
Med hjälp av testprofilerna upptäckte man nämligen att barn och unga fick direkta rekommendationer på sexuellt explicit och misogynt innehåll.
Youtube: ”Kan inte dra slutsatser av fiktiva profiler”
Från Youtubes sida hävdar man att man välkomnar granskningar av rekommendationssystemet, men att det är svårt att dra några slutsatser baserat på fiktiva profiler.
– Vi kommer fortsatt att investera i riktlinjer, produkter och tillvägagångssätt för att skydda människor från skadligt innehåll, speciellt unga tittare, säger Youtubes talesperson Elena Hernandez i ett uttalande till NBC News.