Kas mõtteid on võimalik lugeda?
Kujutlege masinat, mis suudab lugeda mõtteid. Ühendad selle inimesega, lülitad sisse ning mõistad kohe, mida ta sel hetkel mõtleb. Kui mõelda veel kaugemale, võiks see masin anda meile võimaluse jäädvustada, mida inimesed unes näevad.
Kas selline masin on olemas, kas mõtteid on võimalik lugeda ja kuidas selline ''mõtetelugemismasin'' siis töötab, küsib Tartu ülikooli psühholoogiamagister Annika Kask ajakirjas Horisont.
Peamine idee seisneb selles, et inimese aju aktiivsust mõõdetakse fMRI (funktsionaalne magnetiline resonantsi kuvamine) või mõne teise ajukuvamise meetodiga (elektroentsefalograaf (EEG), magnetentsefalograaf (MEG)) sellal, kui ta mõtleb millelegi kindlale või vaatab midagi. Seejärel edastatakse saadud andmestik arvutiprogrammi, mis püüab olla võimalikult täpne saadud sõnumi lahtimuukimisel, kasutades selleks spetsiaalseid masinõppe algoritme. Kuid, nagu me teame, algoritmid ei mõtle asju lihtsalt ise välja – neid tuleb õpetada. Selleks viiakse läbi mitmekümneid (isegi sadu) õppesessioone, kus säärane mõtetelugemisalgoritm õpib, missugune näeb ajuaktiivsus välja teatud asjale mõeldes.
Näiteks näidatakse katseisikule mitmeid pilte kassidest ja koertest ning öeldakse algoritmile iga pildi juures, kas tegu on kassi või koeraga. Selle abil õpib algoritm ajuaktiivsuses kaht erinevat kategooriat eristama. Siis, eksperimendi tingimustes, näidatakse katseisikule uut pilti, näiteks kassist, ning eelnevalt õpetatud algoritm püüab nüüd otsustada, kumma kategooria esindajat katseisik tõenäolisemalt näeb. Lisades juurde aina rohkem tunnuseid, saab sellevõrra teha ka täpsemaid ennustusi.
Eelmainitut illustreerivad kenasti uuringud, mis keskenduvad vaimse sisu väljalugemisele aju nägemissüsteemist. Neis palutakse katseisikutel midagi vaadata ning algoritm püüab tuvastada, mida katseisik parasjagu näeb. Mitmed uuringud on näidanud, et mõtetelugemisalgoritmid on võimelised eristama eri kategooriaid aju visuaalsest piirkonnast (täpsemalt kuklaosas paiknevast nägemisalast) mõõdetud aktiivsuse põhjal – näiteks inimesi, loomi ning puuvilju.
Säärane eristamine muutub keerulisemaks, kui omavahel võrreldavad kategooriad on sarnasemad, näiteks kaks naise nägu, kel on sarnased juuksed ning nahavärv. See on aga õpetamise detailsusastme küsimus. Praeguseks on juba loodud algoritme, mis suudavad arvestatava täpsusega ära tunda, missugust nägu me parasjagu vaatame. Lisaks eelnevale on arvutiprogrammid nüüd võimelised lausa kuvama ähmaselt sarnase, kuid siiski üpris märkimisväärse kujutluse sellest, missugust stseeni inimene videot vaadates näeb.
Kas mõttejõuga on võimalik robotkätt liigutada? Sellest saab lähemalt lugeda sügiseses Horisondis ilmunud artiklist ''Kas mõtteid on võimalik lugeda?''
Toimetaja: Jaan-Juhan Oidermaa