Informaatikaprofessor: USA inforuum täitub valimiste eel küborgide valedega
Ameerika Ühendriikide valimiste eel on kasvanud hüppeliselt veebis levivate valede hulk, mida võimendavad sotsiaalmeedia automaatkontodega tihedat koostööd tegevad pahalased. Piiranguteta sõnavabadus on uute tehnoloogiliste lahenduste tõttu oma aja ära elanud, järeldab sotsrobotite uurimisele keskenduv Indiana Ülikooli informaatikaprofessori Filippo Menczer.
Sattusin Brexiti refrendumit ja eelmiste USA presidendivalimiste järel lugema mitmeid arvamusartikleid, milles süüdistati üllatavates tulemustes sotsiaalmeedias tegutsevaid roboteid, kellel on õnnestunud meie armastatud demokraatia kaaperdada. Kui palju on sellises vaates tõtt?
Minevikus on meie uurimistöö näidanud, et sotsrobotid mängisid valeinfo levitamises tähtsat rolli. Teised on leidnud, et valeinfo kujundab inimeste arvamusi ning see omakorda mõjutab valijakäitumist ja demokraatiat. Näeme nüüdki, kuidas paljude praegu veebis levivate valenarratiivide ja vandenõuteooriate eesmärk on mõjutada USA valimistulemusi. Meie sotsiaalmeediaobservatooriumi küsitlustulemuste põhjal usub neid suur osa USA elanikkonnast.
Sel vaatenurgal on aga ka omad nõrgad küljed. Kõik on ajas muutuv – 2016. või 2018. aastal nähtu ei pruugi korduda 2020. aastal. Eriti sotsrobotite mõttes on maastik teistsugune. Näeme praegu väga harva roboteid, mis üritavad veebi ühe väite kordamisega lihtsalt üle ujutada, kuigi neid oleks väga lihtne üles leida. Kasutatavad strateegiad on muutunud keerukamaks.
Miks me viimasel ajal sellist muutust näeme?
Sotsiaalmeediaplatvormid blokeerivad sotsroboteid varasemast jõulisemalt. Nad ei teinud seda varem kuigi altilt, kuid avalik arvamus on sundinud neid meelt muutma. Oleme märganud näiteks Twitteri liiklusel silma peal hoides valeinfokampaania algust, kuid juba minutite pärast olid selles osalevad kontod kadunud. Mõned poliitilised parteid on hakanud seetõttu platvorme kritiseerima, et nad piiravad sellist tegevust liiga jõuliselt.
Lihtsad lahendused ei tööta lihtsalt enam sedavõrd hästi. Minu kolleegide ja teiste kolleegide töö on aga näidanud, et valeinfokampaaniad on muutnud keerulisemaks ja neid on raskem avastada. Nendesse kaasatakse inimesi. Isegi kui nad kasutavad paljude kontode haldamiseks tarkvara, järgivad kasutatavad kontod oma tegevuses inimeste otseseid käske. Inimesed otsustavad, millal postitada, mida postitada jne. Lausautomatiseerimist näeb vähem.
Sõltuvalt sellest, kuidas sa roboteid enda jaoks lahti mõtestad, võid nimetada neid küborgideks. Inimesteks, kes kasutavad oma tegevuse võimendamiseks robotlikku tarkvara ja tehnoloogiat. Minu jaoks on oluline, et nad pole oma käitumises siirad, vaid üritavad jätta muljet maailmast, mida pole olemas. Hoolimata mõistest on pahategijatel rahva arvamuse mõjutamiseks endiselt mitmeid võimalusi.
Mainisite äsja, et kui tahtmine on olemas, leiab plaani ellu viimiseks võimaluse varem või hiljem. Kus see võidurelvastumine lõpeb?
(Selle takistamine) muutub üha raskemaks. Mõned nimetavad seda võidurelvastumiseks, teised võrdlevad seda muti urgu nüpeldamise mänguga (whack'a'mole). Võid ühest grupeeringust vabaneda, kuid teine tuleb kohe asemele.
Samuti on antud rünnakutele kaubanduslik mõõde. Kuigi kampaaniatesse kaastakse inimesi, on mõnel pool maailmas on tööjõud sedavõrd odav, nii et see tasub end ära isegi laialdasemal skaalal. Sattusime isegi USA-s juhtumite otsa, kus maksti teismelistele valijate teesklemiseks väga vähe raha. Neil lasti postitada poliitilist sisu ning levitada isegi Covidi-pandeemiat või valimisi puudutavat valeinfot.
Sellel on teinegi mõõde. Inimese kaasamisel on tal võimalus alati sotsiaalmeediaplatvormile kaevata, kuidas teda ebaõiglaselt koheldakse, kuigi ta ei teinud midagi valesti. Nad saavad süüdistada platvormi poliitilises kallutatuses. Üha raskem on seetõttu luua kasutustingimusi, mis eristavad orgaanilist ja lubatavat käitumist platvormi ära kasutamisest.
Ühtlasi on pahategijatel üha lihtsam platvormide vastu võidelda. Poliitikutele võivad silma jääda süüdistused, millel pole mingit alust. Nad võivad aga sellele vaatamata platvormide tegevjuhid vaibale kutsuda ning sundida neid oma tegevust ja hoiakuid põhjendama. Kuna teema ja poliitikad on keerukad, lähevad pisiasjad selle kõige juures kaotsi.
Platvormidele on muutunud kulukaks isegi nende enda reeglite jõustamine. Kuigi nad kasutavad pahategijate otsimiseks süvaõppealgoritme, on inimese robotiks liigitamise hind sedavõrd kõrge, et ka ettevõtted peavad võtma appi omad inimesed.
Ideaalis ei pea võidurelvastumist võitma, vaid kulutama ainult nii palju, et saada lahti suuremast osast väärkasutusest. Oleme jõudnud nii kaugele e-postiga. Suudame tuvastada rämpsposti piisavalt hästi, et see läheb peaaegu täielikult rämpsposti kausta. Kuigi see maailmast ei kadunud kuhugi, poleks seda justkui olemaski.
Väga optimistliku vaate kohaselt jõuame ühel hetkel sinnamaani, et halb käitumine sotsiaalmeediast ei kao täiesti ära, kuid ei tee ka eriti palju halba. Pessimislikuma prognoosina on majanduslikud, rahalised ja poliitilised huvid sotsiaalmeediaplatvormidega manipuleerimiseks sedavõrd suured, et platvormid ei suuda laiendada pahatahtliku käitumise eest kaitsvaid süsteeme piisavalt kiiresti. Kaaluda tuleks sellisel juhul muid lahendusi.
Need võivad olla regulatoorsed või muuta olemuslikult sotsiaalmeediaplatvormide olemust. Näiteks on asunud Twitter vahetult enne valimisi mu´utma säutsumist raskemaks. Enne seda tuleb end tuvastada ja näidata, et sa pole robot.
Praegu on sotsiaalmeediaplatvormide üks peamisi koostisosi nende kasutamise lihtsus, mis muudab kergeks ka valeinfot võimendavate kõlakodade loomise jm. Samas on seotud just platvormide kasutajamugavus nende kasutamise sagedusega. See tõlgendub omakorda reklaamirahaks.
Kui keegi peaks tahtma sotsiaalmeedias läbi lüüa vaid robotite või automaatkontodega, kui keerukad peaksid need inimese lollitamiseks olema? Ühelt poolt on loonud näiteks OpenAI fond intelligentse agendi GTP-3, mis suudab kirjutada vägagi usutavaid esseesid. Kui lugeda aga ühe tuntud presidendi Twitteri voogu, võiks hakata sama hästi suurtükiga sääske tapma.
See on väga hea küsimus. Usun, et nii keerukaid lahendusi ei pea üldse kasutama. Näitena võib tuua poliitilised jälgijaahelad. Need on ulatuslikud kontovõrgustikud, mis hakkavad jälgima automaatselt kõiki kontosid, mida jälgib juba üks sinna rühma kuuluvatest kontodest. See avab võimaluse värskelt loodud kontodele ülikiiresti suurte võrgustiku loomiseks, mis kasvatab sotsiaalvõrgustikus nende kaalu. Sisuliselt on tegu süsteemi petmiseks loodud kollektiivse algoritmiga.
Kuigi platvorm on sellise käitumise keelustanud, ei suuda rämpspostifiltrid sellist käitumist tuvastada. USA poliitika taustal ei tundu, et platvormid üritaksid seda ka kuidagi agressiivselt piirata. See seaks nad varasemast veelgi suurema löögi alla. Juba praegu kutsutakse nende tegevjuhte Kongressi ette, et anda vastust ebaseadusliku poliitilise tsensuuri eest. Surve nendelt kommunikatsioonide korralikkuse seaduse paragrahv 230 pakutava kaitse eemaldamiseks kasvaks veelgi.
Mündi teise küljena on pahategijate jaoks see kõik väga tore. Võid imbuda mõnda võrgustikku, liita sellega hulk automaatkontosid ja panna need kõik jagama sulle meelepärast postitust. Inimeste eripäradega arvestades võib sattuda osa loodavatest valenarratiividest isegi interneti kõige kiiremini populaarsust kogutavate teemade sekka.
Mudelite põhjal piisab Twitteris või Instagramis mõne võrgustike kaaperdamiseks juba sellest, kui robotkontosid jälgib vaid üks protsent selle liikmetest. Varem ääremaadel hõljunud pahalased haaravad ühtäkki kontrolli. Nad suudavad mõjutada võrgustikus leviva info kvaliteeti ja muuta selle sisuliselt rämpsuks. Nad ei pea tegema selleks mitte midagi muud, kui koguma endale piisavalt suure hulga jälgijaid. Praegu piisab juba sellest, kui mainid Twitteris mõne poliitiku nime või kasutad valimisi puudutavat teemasilti.
Olete aastate jooksul välja töötanud terve rea erinevaid tööriistu, mille abil kahtlaselt käituvad kontosid hõlpsamalt tuvastada. Kutsute neist kõige hiljutisemat ja võimsamat Robotitapjaks. Mille abil on võimalik aru saada, et tegu on tõesti robotist pahategija, mitte lihtsalt meist erinevate vaadetega inimesega?
Üritame töötada välja tööriistu, millega on võimalik platvorme tahtlikult kallutada püüdvaid pahategijaid märgata. Neist kõige populaarsem on Bot'o'Meter, mida treenisime masinõppealgoritmi teada-tuntud automaatkontode peal. Nende käitumismustrite põhjal üritab see hinnata, kas uued kontod on inimesed või sotsrobotid. Uus BotSlayer võimaldab luua kõigil paari hiireklõpsuga pilvesüsteemis rakenduse neid huvitava Twitteris leviva info jälgimiseks.
Saame selle abil hinnata, kas narratiive või uudiseid üritavad populaarseks muuta automaatkontod või on tegu koordineeritud kampaaniaga. Sotsroboteid kasutatakse käesolevate valimiste eel harvem kui eelnevatel aastatel. Populaarsemaks on muutunud keerukamad koordineeritud kampaaniad, kus kontrollivad automaatkontode käitumist osaliselt inimesed. Neist igaüks võib võtta appi kümned ja kümned kontosid.
Me ei avasta seega kahtlast käitumist enam ühe täiesti normaalsena paistva kasutaja jälgimisega, vaid otsime tervest võrgustikus sarnaselt käituvaid kontosid. Nii sarnaselt, et seda ei saa pidada enam juhuseks.
Nad võivad säutsuda samal ajal, saata edasi sama säutsu või vahetada kasutajanimesid. Populaarsust kogub ka lahendus, kus infolaviini tekitamise järel kõik oma varasemad säutsud kustutatakse, et sellega jälgi segada. Taaskord, igat kontot üksikult vaadates ei hakkaks meile silma mitte midagi kummalist.
Millal jõuab arvutiteadus ja informaatika sedavõrd kaugele, et on võimalik internetis levivale valeinfole automaatselt reaalajas lipukesed külge panna? Tõenäoliselt eeldaks see algoritmidelt info tähenduse mõistmist ja sellest tulenevalt laia tehisintellekti sündi, misjärel oleks valeuudised kõige väiksem probleem.
Praegu suudavad teha seda vaid ekspertidest inimesed, nagu faktikontrollijad, kellel on palju kogemusi. Samas viitavad hiljutised teadustööd, et kollektiivselt suudavad valesid sama edukalt ära tunda ka tavalised inimesed. Seda muidugi juhul, kui neid piisavalt palju kokku saab ja nad otsustavad selle üle üksteisest sõltumatult. Ent nad oleks ikkagi inimesed.
Kuigi suudame juba suhteliselt edukalt võltsina tunduvat käitumist ära tunda, olen seega suhteliselt skeptiline, et suudame eristada lähitulevikus algoritmidega tõtt valest. See eeldab info tähenduse mõistmist, mis pole käitumismustrite analüüsil sugugi tähtis.
Tegu on aga huvitava väljakutsega ja sellel kallal töötavad kaudsel ka mõned mu uurimisrühma tudengid. Nad arendavad tööriistu, millega muuta faktikontrollijate elu veidi kergemaks. Uurime suuri semantilisi võrgustikke, mis peegeldavad erinevate isikute ja asjade vahelisi seoseid. Võrdleme neid neid puudutavate väidetega. Üritame sellega välja selgitada, kas need on kooskõlas meie varasemate teadmistega.
See on info automaatsest kontrollimisest kaugel, kuid võiks faktikontrolli kiirendada ja laiendada. Eriti praegu, kui manipulatsioonikatseid toimub majanduslike ja poliitiliste huvide tõttu nii sageli, et neid ei jõua avastadagi ja sellega seonduvaid väiteid proovile panna.
Teie vaatenurk kumas juba varem läbi, kuid kas ühisplatvormidel leviva sisu jõulisema modereerimise ja valeuudiseid levivate kontode automaatse blokeerimisega ei teki ohtu, et me jääme ilma nii sõnavabadusest kui ka demokraatiast, mida kaitsta püüame?
See on tähtis küsimus ja selle üle käib praegu ulatuslik arutelu. Näeme iga päev, kuidas USA-s süüdistavad konservatiivid platvorme liigses agressiivsuses ja sõnavabaduse mahasurumises. Liberaalid süüdistavad seevastu platvorme, et nad pole eemaldanud kahjulikku valeinfot piisavalt jõuliselt.
USA põhiseaduse esimene paragrahv ütleb, et arvamusi ei tohi tsenseerida valitsus. Erafirmasid ja ühismeediaplatvorme see ei puuduta. Nad võivad teha, mida aga tahavad. Inimesed ei pea neid kasutama. Seadus kohustab platvorme vaid näiteks jälgima, et nendel ei levitata lapspornot või neid ei kasutata teistel ebaseaduslikel eesmärkidel.
Poliitilise kõne reguleerimisse on suhtunud platvormid seega vastumeelsemalt. Kuigi minu ja teiste uurimistööst on tulnud välja, kui ulatuslikult sotsiaalmeediaplatvormidega manipuleeritakse, järgivad nad endiselt oma vana filosoofiat – parim viis halva kõne vastu võitlemiseks on uputada see hea kõne sisse. Teisisõnu, ideeturul võidavad ja tõusevad pinnale parimad ideed.
Meie uurimistöö näitab, et me ei ela sellises maailmas. Sotsiaalmeediaplatvormide struktuuri, meie suhtlusringkonna võrgustumise, piiratud tähelepanu ja platvormide manipuleeritavuse tõttu ei pea sugugi paika, et viiruslikult levib just kõige parem info. Vastupidi, madala kvaliteediga info teeb seda sama hästi. Seda on näidatud korduvalt nii teoreetiliste mudelite abil kui ka vaatluslikult.
Isegi süsteemis, kus on igal infokillul võrdne kaal ja inimesed jälgivad nende sõprade postitatust vaid vähest osa, võib hakata levima viiruslikult iga infokild. Isegi kui inimestele meeldib kõrgekvaliteediline info, pääseb kehva kvaliteediga informatsioon levima, sest meie tähelepanu on piiratud. Seda isegi juhul, kui keegi ei ürita süsteemiga sihilikult manipuleerida.
Inimestele täieliku ja piiramatu sõnavabaduse pakkumisega võimaldad neil seega alla suruda teiste õigust end vabalt väljendada. Kui saan luua valekontosid ja platvormi valeinfoga üle ujutada, surun faktiliselt alla teiste sõnavabadust. Selle lubamisega vastutavad selle eest needsamad platvormid.
Ma ei ole advokaat, kuid sõnavabadus on minu teada USA seaduse üks väheseid halle alasid, kus õigusel on väga vähe piire. Tehnika on arenenud ainult suhteliselt hiljuti nii kaugele, et piiranguteta sõnavabadus tähendab nüüd teiste õigustel trampimist. Peame sellega arvestama.
Muidugi peame oleme sõnavabaduse piiramise pärast mures – tsensuuri ei taha mitte keegi, kuid praegu on kõige suurem probleem seda pakkuvate platvormide omakasupüüdlikel eesmärkidel kasutamine. Peame looma suunised, et mis kaitseksid ideeturgu, kus võidavad tõesti parimad ideed.