Robotid suudavad valeuudiste vastu võidelda vaid inimeste abiga
Algoritmid ja arvutiprogrammid saavad inimesi valeuudiste märkamisel aidata, kuid iga veebiruumis nähtava vale paljastamiseks läheks tarvis inimesega võrreldavat tehisintellekti. Samal ajal võib viia väärinfo automaatselt veebist eemaldamine viia kergesti sõnavabaduse ja demokraatia piiramiseni, leiavad arvutiteadlased.
Robotrollide armee
Avaliku arvamuse moonutamiseks ja segaduse külvamiseks kasutatavad robotid said kurikuulsaks Suurbritannia Euroopa Liidust lahkumiseni viiva Brexiti referendumi ja viimaste USA presidendivalimiste järel. Tallinna Tehnikaülikooli tarkavarateaduse instituudi professor Tanel Tammeti sõnul ei tohiks nende mõju siiski ületähtsustada.
"Kindlasti ei suuda nad meie demokraatiat kaaperdada ja hävitada, aga nad on kasulikud töövahendid info, arvamuste ja kõige muu sotsiaalmeediasse saatmiseks. Neid tuleb tõsiselt võtta ja inimesed peavad harjuma olukorraga, et iga nähtav tekst või uudis ei pruugi tõele vastata. Paradoksaalselt on Trumpil selles mõttes õigus – fake news on täitsa olemas," tõdes Tammet.
Piltlikult aitavad automaatalgoritmid paljundada valeinfot nagu viirust. "Suurem osa kehva kvaliteediga infost ei teki tavainimeste käe läbi, vaid sotsrobotite ja ühismeediasse tehtud libakontode abi kasutavate organisatsioonide ning võrgustike tõttu," kinnitas valeinfo vastu võitlemisele keskenduv Filippo Menczer, USA-s asuva Indiana ülikooli informaatika- ja arvutiteaduse professor. Väärinfo all ägavatel inimestel on tõde valest raskem eristada. Kui ühte valet piisavalt korrata, ei pruugi see tõeks muutuda, kuid see loob uue normaalsuse.
Oxfordi Ülikooli arvutusliku propaganda töörühma juht Philip Horward nentis, et aastatega on muutunud nn intelligentsed agendid üha inimlikumaks. Neist esimesed paiskasid veebiruumi ühetaoliste ajavahemike tagant ühte ja sama sõnumit. Nüüd kasutavad need aga oma sõnumi veenvamaks muutmiseks juba pilte, teemasilte ja ammutavad inspiratsiooni näiteks ühe või teise poliitiku fraasivaramust. Mõned robotihaldajad saadavad jälgede segamiseks aeg-ajalt ise sõnumeid.
Tehisintellekti arendamisega on jõutud isegi nii kaugele, et nutikas algoritm suudab paari lausekatke põhjal kirjutada automaatselt veenvana näiva essee. Tammeti sõnul teevad lõviosa tööst aga endiselt ära lollimad robotid. "Põhimõtteliselt saaks luua väga kergesti ja automaatselt ka pikki tekste, aga nende vastu ei tunta huvi ja neid jagata. Tüüpiliselt tahavad inimesed levitada mõnda konkreetset sõnumit, mis mõjub veenvalt ja tekitab tugevaid emotsioone," selgitas professor.
Robotitapja
Kuigi robotid on muutunud vahepeal nupukamaks, ei suuda need inimest veel täiuslikult matkida. Robotlikkus võib avalduda ka nende käitumises. Päris inimesed saadavad harva sõnumeid ööpäev läbi või osalevad pärast kuid kestnud vaikust masspostituskampaaniates. Intelligentsete agentide sõnumid kipuvad emotsionaalselt laetumad ja need võivad inimestest eristuda ka oma sõnakasutuse poolest. Kui teada on suur hulk õiget ja vale teksti, saab süvaõppe abil leida teisigi parameetreid, mis ehk inimestele kohe silma ei hakkaks.
Nende ja veel paljude teiste tunnuste põhjal on näiteks Filippo Menczer kolleegidega loonud Twitteri liidese Botslayer. Nimele vastavalt suudab see kaardistada, kuidas parasjagu populaarset teemat puuduvatavad infokillud levima hakkasid. Nähtavate mustrite põhjal arvutab see välja, kui tõenäoliselt on üks või teine plahvatanud infopommi võimendanud konto robot. Sarnaselt oma õelamatele vastastele ei ole programm ilmeksimatu. Õige ennustuse teeb see kuni 95 protsendil juhtudest.
"Teadlaste jaoks võib tunduda see teema keerukust arvestades juba päris hea tulemus, kuid need viis inimest sajast, kelle konto ühismeediaplatvorm seetõttu ära blokeeriks, võiksid olla täie õigusega vihased. Meile ei pruugi nende jagatav info või uudis meeldida, kuid see on võrreldav suukorvistamisega," tõdes Menczer. Viimases peitub üks põhjuseid, miks pole kaasanud ühismeediaplatvormid roboteid valeinfovastasesse võitlusse kuigi laialdaselt.
Pigem käituvad need seega praegu filtrina. Kahtlased sõnumid, säutsud jms saadetakse edasi inimestest moderaatoritele, kes teevad lõpliku otsuse, kas tegu on inimese või robotiga. "Meie lähiriikidest on Leedu päris aktiivselt sellise tõsise süsteemi käima pannud. Seal on tehtud seda koostöös nende oma uudisteagentuuride ja Google'i uurimisrühmaga. Nende loodud algoritm otsib valeuudiseid ja suunab samuti need inimestele järelkontrolliks," sõnas Tanel Tammet.
Sama süsteemi sadade miljonite kasutajatega ühismeediaplatvormidel rakendamine tekitaks programmide ebatäpsuse tõttu mitu probleemi. "Isegi võrdlemisi täpse algoritmiga nõuaks see väga palju inimtööjõudu ja on kallis tegevus," lisas professor. Eelnevalt toodud Leedu näite puhul kasutatakse osaliselt tasuliselt tööjõudu. Suurema osa tööst teevad ära aga vabatahtlikud.
Samm sõnavabaduse kaitseks
See tekitab omakorda küsimuse, kes peaks valeinfo süstemaatilise tähistamise või veebist eemaldamisega üleüldse tegelema. Lisaks sellele kuluvale rahale ja ajale võib tõusta esile veel üks tähtis küsimus – kes tahab hakata tsensoriks.
Tanel Tammet soovitas hoolikalt läbi mõelda, kas isegi valet märgates peaks nõudma ilmtingimata selle eemaldamist. "Sõnavabaduse üks alus on, et inimene võib kirjutada mida tahes, kui see otseselt kedagi ei kahjusta.Isegi kui meil õnnestuks leida üles iga valeuudis, ei pruugi olla meil õigust nende levikut takistada. Meil on õigus valeuudiseid saata," märkis Tammet.
Ühtlasi eeldaks ilmeksimatute või vähemalt vähe vigu tegevate robotite kasutuselevõtt läbimurret tehisintellekti vallas. Intelligentsed agendid peaksid hakkama mustrite abil tehete tegemise asemel hakkama ühtäkki mõistma toimetatava sisu tähendust samal viisil kui inimesed. Kuna kasvõi mõnede ajalooliste fakti tõepärasuse üle vaieldakse juba sajandeid, ei pruugi olla seegi valeinfost vabanemiseks lõplik lahendus.
Kuigi heade robotite senisest ulatuslikum kasutuselevõtt aitaks muuta inforuumi puhtamaks ja keskenduda olulisele, peaksid inimesed nii Tammeti kui ka Menczeri sõnul õppima valeuudistega elama. Enda meediataibu arendamiseks võiks alustada mitmekesise infodieedi pidamisest. "Ühekülgne ja -taoline inforuum muudab meid valeinfo suhtes haavatavamaks ja vastuvõtlikumaks. Meile ei pruugi mõne meie sõbra seisukohad või tema tarbitav info meeldida, kuid meile on nendega kokkupuutumisest," märkis Menczer.
Tammet tõdes, et tihtilugu polegi inimeste jaoks sedavõrd oluline küsimus, kas midagi on õige või vale, vaid ollakse huvitatud muust. "Näiteks võivad Trumpi pooldajad teada, et kohutavalt paljud selle kampaania väited on valed, kuid nad lehvitavad nendega oma grupikuuluvuse näitamiseks sellegipoolest. See kõik teeb selle dünaamika suhteliselt keeruliseks, nii et ma ei arva, et siin on mingisuguseid lihtsaid lahendusi ühte või teistpidi peale selle, et, et inimesed ja kultuur ise õpivad," lisas professor.
"Oleme oma eelnevates uuringutes näinud, et vale leviku ja võimendamise juures mängivad inimesed robotitest palju tähtsamat rolli. Kui inimesed robotit uskuma jäävad või selle sõnumit meelega edasi jagavad, aitab see valet teiste inimeste jaoks usutavaks muuta," kinnitas Menczer. Seega, enne jagamisnupu vajutamist tasub iga kord hoolikalt läbi mõelda, kas jagatav ikka peab paika.