Enamik juturoboteid kalduvad ilmavaatelt vasakpoolsusesse
Inimesed küsivad üha sagedamini nõu ja abi juturobotitelt, hoolimata masinate soolisest ja rassilisest kallutatusest. Nüüd leidis Uus-Meremaa arvutiteadlane David Rozado kinnitust, et juturobotid on suuresti ka poliitiliselt kallutatud ja selgelt vasakpoolsete vaadetega. Kaudselt võib robotite kallutatus hakata mõjutama omakorda ühiskondlikke väärtusi ja tõekspidamisi.
Üha enam inimesi pöördub nõu saamiseks mõne juturoboti poole. Sestap tekkis Otago Polütehnikumi arvutiteadlasel David Rozadol küsimus, millised on robotite poliitilised vaated. Samuti on tema sõnul mõttekoht, kuidas võib robotite ilmavaade mõjutada inimeste endi maailmapilti, vahendab ScienceAlert.
Juturobotid nagu ChatGPT põhinevad suurtel keelemudelitel ehk LLM-idel. Suured keelemudelid põhinevad ise tohutul hulgal tekstiandmetel, millega õpetatakse närvivõrkudele keeles esinevaid mustreid, et genereerida inimlikule kõnele sarnast teksti. Niimoodi tekkivate seoste tugevust saab hiljem muuta, et vältida näiteks solvava või pornograafilise sisu loomist.
Rozado võttis oma töös luubi alla 24 sellist mudelit, sealhulgas ChatGPT mitu versiooni ja Google'i loodud Gemini. Ta lasi robotitel täita 11 standardset poliitilise meelsuse testi.
Tuli välja, et keskmiselt on robotite vaade kõike muud kui neutraalne. Rozado sõnul ilmutab enamik keelemudeleid vasakpoolseid poliitilisi vaateid. Need tulid välja mitmete erinevate küsimustikega. Ehkki kalle vasakpoolsusesse polnud majandusteljel tugev, oli see siiski märkimisväärne. Samas eelistasid need selgelt ka liberaalseid väärtusi.
Rozado tegi jätkukatseid kohandatavate mudelitega, mille puhul saavad kasutajad ise paika panna, millise materjaliga mudelit treenitakse. Katsetest nähtus, et kohandatava roboti vaateid saab muuta, söötes sellele ette vasak- või parempoolseid tekste.
Lisaks vaatas Rozado oma töös alusmudeleid nagu GPT-3.5, millel kasutajatele tuttavad juturobotid põhinevad. Alusmudelites ta poliitilist kallutatust ei täheldanud. Samas oli ilma juturoboti kasutajaliidese osata keeruline alusmudelite vastuseid omavahel sisuliselt võrrelda. Mudelite treenimiseks kasutatav alusmaterjal on kõigil suurematel keelemudelitel suuresti sama. Seetõttu tulevad selged erisused selgelt välja just n-ö viimase arendajate poolse kihi lisamisel, mis mudeli tehtavaid valikuid kõige rohkem mõjutavad.
Praegu annab Google'i otsingumootor päringute tulemuseks üha enam tehisaru koostatud vastuseid. Inimesed ise pöörduvad veebipäringute ja muude infoallikate asemel samuti pigem mõne roboti poole. Nii tekib Rozado sõnul mure, et tehisaru vastused võivad hakata mõjutama inimeste mõtlemist. Ta kirjutab, et LLM-ide poliitiline kallutatus võib kaasa tuua olulisi tagajärgi ühiskonnale laiemalt.
Kuidas täpselt see kallutatus mudelisse jõuab, pole veel selge. Samuti pole tõendeid, et mudelite arendajad tahtlikult roboteid vasakpoolseks muudaksid. Mudeleid treenitakse suure hulga veebitekstide põhjal, ent võib juhtuda, et tekstivalimis on vasakpoolseid tekste parempoolsetest rohkem. Rozado sõnul võib robotite meelsust mõjutada seegi, et paljude veebis kohatavate robotite aluseks on ChatGPT. Varem on aga näidatud, et ChatGPT on poliitilistelt vaadetelt vasakpoolne ehk vaated kanduvad üle ka selle järglastele.
Suurtel keelemudelitel põhinevad robotid püüavad põhimõtteliselt ennustada, milline sõna peaks nende vastuses järgnema eelmisele. See tähendab, et need võivad oma vastustes eksida isegi vastuse kallutatusega arvestamata.
Ehkki tehnikahiiud nagu Google, Microsoft, Apple ja Meta suruvad tehisarul põhinevaid juturoboteid inimestele innukalt peale, võiks Rozado sõnul olla mõistlik ümber hinnata, kuidas neid kasutama peaks. Ta soovitab välja valida valdkonnad, kus tehisarust on päriselt kasu. Niisamuti tuleks tema sõnul täpsemalt hinnata keelemudelite võimalikku poliitilist kallutatust, et tagada inimeste päringutele tasakaalustatud ja tõesed vastused.
Teadustöö ilmus ajakirjas PLOS ONE.
Toimetaja: Airika Harrik