Tehisintellekt ilmutab inimeste eelarvamusi
Inimühiskondi iseloomustavad soo-, rahvuse- ja rassipõhised eelarvamused kanduvad masinõpet rakendades üle ka treenitavale tehisintellektile, nendivad USA teadlased.
Google'i, Apple'i ja paljude teiste tehisintellektide edu saladus peitub suurte andmehulkade analüüsis. Sarnaselt alles maailmaga tutvust tegevate lastega hakkavad need treenides seostama omavahel erinevaid nähtusi ja mõisteid ning nägema andmemassiivides mustreid. Muu hulgas suudab see nõnda piltidelt ära tunda kasse ja koeri.
Analoogselt leiavad need seoseid inimkultuurist läbi imbunud infos, sealhulgas tekstimassiivides ja kõnes. Näiteks paikneb tekstides sõna "lill" lähistel sagedamini omadussõna "meeldiv" kui "ebameeldiv", mil sõnu "koer" ja "kass" kohtab sageli sarnastes lausekonstruktsioonides. Nii õpib masin, et lilled on meeldivad ning koerad kasside sarnased.
Päris maailmas kohatavate tekstikorpuste kasutamine aitab reeglina tehisintellektil inimeste mõtteid paremini mõista ja teenida seega paremini ka nende vajadusi. Princetoni ülikooli ja Massachusettsi tehnoloogiainstituudi teadlaste sõnul kätkeb populaarses lähenemisviisis aga ka teatav oht.
Aylin Caliskan lasi kolleegidega masinõppe algoritmil analüüsida ligikaudu laialt kasutatava tekstikorpuse 2,2 miljoni sõnalist teksti ja sõnade vahelisi seoseid. Muu hulgas leidsid nad, et algoritm seostas sagedamini naissugu humanitaarteaduste ja koduga, mehi seevastu sagedamini reaalteaduste ja tööga.
Sarnaselt seostusid euroopa nimed tehisintellekti jaoks sagedamini meeldivate sõnadega nagu "kingitus" või "õnnelik". Afroameerika nimed aga sagedamini ebameeldivustega nagu "õnnetus" või "vähk".
Lisaks sai nais- ja meesoo ning konkreetsete ametite vaheliste seoste tugevuste põhjal 90-protsendilise täpsusega ennustada meeste- ja naiste osakaalu vastaval erialal. Teatavat kallutatust võib märgata juba igapäevases kasutuses olevate algoritmide puhul. Näiteks asendab GoogleTranslate soo suhtes neutraalsete asesõnade tõlkimisel need mõnikord mehe või naisega. Eelnevalt leitud seoste põhjal on arstid on mehed, õed aga naised.
Töörühma sõnul ei tohiks võtta ilmsiks tulevat kallutatust võtta ilmtingimata millegi halvana. Pigem annab see ülevaate ühiskonnas parasjagu valitsevatest meeleoludest. Ühe rakendusvõimalusena saaks erinevate ajastute kirjandust analüüsides objektiivselt uurida hoiakute muutumist ajas. Samuti näitab uurimus, et juba keele õppimine iseeneses võib tekitada teatavaid eelarvamusi.
Autorite hinnangul peaks vähemal või rohkemal määral tehisintellekti analüüsile toetuvate otsuste puhul peaks lisama mõnikord täiendava otsustuskihi, mis hindaks kallutatuse mõju olulisust. Muu hulgas on eelnevad uuringud näidanud, et euroopa nimega kandidaate kutsutakse identse CV korral töövestlustele 50 protsenti sagedamini kui afroameerika nimega tööotsijaid. Inimeste eeskujul kandidaate sõeluvad algoritmid süvendaksid seega ühiskonna kihistumist.
Uurimus ilmus ajakirjas Science.
Toimetaja: Jaan-Juhan Oidermaa