Först lät man deltagarna lyssna på podcast i totalt 16 timmar medan man läste man av deras hjärnaktivitet med en magnetkamera för att träna upp en avkodare.
Därefter fick avkodaren försöka läsa av vad försökspersonerna tänkte när de tänkte på en berättelse eller tittade på en kortare film, och översätta detta till språk.
Fokus låg inte på att uppfatta enstaka ord, utan istället på att förstå innebörden av det som personerna tänkte. Avkodaren tolkade till exempel ”jag har inte fått mitt körkort än” som ”hon har inte ens börjat lära sig att köra än”. Vissa ord blev alltså fel, men innebörden av det som tänktes kunde ändå stämma.
När man tidigare gjort liknande experiment har det alltid krävts någon typ av kirurgiskt ingrepp, men här behövdes inte det.
– Det är en väldigt imponerande studie, säger Foteini Liwicki, som forskar på maskininlärning vid Luleå universitet, men inte har varit delaktig i den aktuella studien.
Perfekt system om tio år
Men avkodaren läste också av fel ibland, och man är fortfarande långt ifrån att kunna läsa människors tankar helt och hållet.
Foteini Liwicki ser dock ljust på framtiden för tankeläsning.
– Jag tror att vi kommer att ha ett system som kan läsa av inre tal perfekt om kanske tio år, säger hon.
Förhoppningen är att man då ska kunna hjälpa människor som inte kan kommunicera på andra sätt. Det kan vara personer som lider av locked-in-syndrome, ett tillstånd där man är helt förlamad men hjärnan fungerar som vanligt, eller långt gången ALS.
– Det kan bli ett sätt för dem att kommunicera. Annars är de instängda i sina själar. Det är hemskt, säger Foteini Liwicki.
Används för gott eller ont
Men ett system som perfekt kan läsa av vad människor tänker väcker vissa etiska frågor. När och hur ska man få läsa av tankar? Vem ska få göra det? Och vad händer om tekniken hamnar i fel händer?
– Felaktigt användande av AI kan hända med alla system. Det är helt upp till personen som använder det. Om människan som använder det här är god kommer tekniken att användas för det goda. Men om den är ond, för att använda extrema termer, så kan han eller hon använda denna teknologi för negativa saker, säger Foteini Liwicki.
Det finns ju gott om exempel från filmer och böcker där ”onda” använder tankeläsning för att kontrollera människor. Kan det alltså hända?
– Ja. Teknologin utvecklas och jag tror att vi kommer ha ett perfekt system för att läsa av inre tal. Så det kan hända.
Men lösningen, menar hon, är inte att sluta utveckla den här tekniken. Istället behöver vi lära varandra att vara goda.
– Det är upp till oss att bygga ett samhälle med människor som vill göra gott. Vi måste försöka uppfostra våra barn till att vara goda. På det sättet kan vi ha AI-system som jobbar för det goda, inte för det onda.
Räcker det?
– Nej, det kommer inte att räcka. Det är preventivt. Men ett annat sätt att begränsa det är att den här tekniken inte kommer att vara tillgänglig för alla. Det måste finnas ett regelverk för vem som får använda den och hur.
Generellt ser Foteini Liwicki fram emot hur AI kan komma att användas allt mer.
– Jag tycker om när tekniken utvecklas, för jag tror att den kan hjälpa mänskligheten.