Kristjan Port: kas holokaust... ehk kuidas inimkonna peeglist lõplikku tõde otsitakse
Tokyo ülikoolis uuriti probleemset 60-aastast patsienti, kellel oli diagnoositud kuue aasta eest verevähk. Ta sai ravi ja oli elus, aga üha halveneva tervisega. Arstid ei saanud aru, mis võis olla halva olukorra põhjustajaks, sest tavaliselt oli sama ravi edukas.
Patsiendi andmed edastati koos geenikaardiga inimesi laua- ja mälumängudes võitnud IBM-i nutikale arvutile Watson. Tehisliku mõtlemisega raal tõdes, et arstid olid eksinud ühes elemendis. Patsiendil oli tuvastatud lisaks leukeemiale sama haigus veel teises geneetilises vormis. Haige ravi muudeti ja tema olukord on nüüd hea. Kuivalt asjaolusid analüüsiva masina ''mõtlemine'' sobis antud probleemi lahendamiseks koolitatud arstide omast paremini.
Sisestades Google'i otsingureale ingliskeelsed sõnad ''kas holokaust toimus'', pakub masin esimesteks vastuseks, et tegemist on väljamõeldisega, juutide vandenõuga jne. Ausalt öeldes saab sarnased vastused isegi eesti keeles. Kuidas nii? Kas Google pole kuulnud Dachaust ja teistest koonduslaagritest, miljonitest gaasikambrites tapetud inimestest või Oskar Schindlerist? Carole Cadwalladr ajalehes The Guardian imestab taolise tulemuse üle ja märgib, kuidas mõjutab ning moonutab paljude jaoks esmane ja ainuke infokeskkond Google ohtlikul määral inimeste maailmapilti.
Peamiselt ekraanide kaudu leviva väära informatsiooni mõjuvõimule on hakatud tõsiselt mõtlema Brexiti, USA presidendi valimiste ja maailma pingestavate asjade seisu tõttu. Valeinfo leviku põhjuste seas esineb nii kuritahtlikku kavatsust kui ka arvuti süütut truudust talle teadaolevate andmete suhtes.
Olukord on paradoksaalne, arvestades masina paremust inimese ees ebatavalise haigusseisundi diagnoosimisel, eksitades teda samas näiliselt lihtsas, aga palju suurema sotsiaalse mõjuga faktide osas. Ühe seletusena kahtlustatakse, et neonatslikud organisatsioonid on õppinud tüssama Google'i salajasi algoritme. Tõenäoliselt on vastus lihtsam ja süü asub pigem infot otsivates inimestes. Inimestes, kes peavad masinat objektiivseks, kallutatusest ja emotsioonidest vabaks faktide kaalujaks.
Kristjan Hammond Techcrunchist kirjeldab, miks on see vale eeldus. Alustada võiks kasvõi küsimusest, kas masin peaks arvestama etteantud andmetest välja jääva maailmaga või mitte? Esimene sarnaneks inimesele, kes kasutab otsustamise protsessis kõike, mida ta teab. Kuid see muudaks masina tujukaks ja subjektiivseks, st tulemus sõltub sellest, mida ta veel teab. Inimesena eeldame vaikides, et algoritm ''sööb ja seedib'' vaid seda, mida talle on antud. Lootes, et nii tagatakse objektiivsus. Märkamata, kuidas kallutavad masina otsuseid sisendiks esitatud andmed.
Just äsja hülgas Uus-Meremaa passiosakonna nutikas süsteem kohaliku isiku passipildi nõudes, et too hoiaks pildil silmad lahti. Seda ta tegigi, aga tarkvara oli õpetatud nägusid ära tundma vähem loomult kissis silmadega piltide põhjal. Analoogseid juhtumeid esineb fotoaparaatide nutikaks peetud nägude eristamise tarkvaras ja tõenäoliselt jääb etteantud andmetele rajatud tarkvara tõttu kellelgi pangas laen saamata, kindlustus on ebaõiglane jm. Kusjuures paljudest taolistest vigadest ei saagi keegi teada.
Nutikamad süsteemid püüavad õppida. Õpitakse vigadest, kui puutudes kokku erinevate juhtumitega korrigeerib süsteem oma parameetreid ning seisundeid. Paraku on siingi õppimine sõltuvuses sisendist. Microsofti tehisintellektile rajatud virtuaalne online-persoon Ty muutus lühikese ajaga viisakast tüdrukust poliitiliselt ebakorrektseks ja vägivaldseks rassistiks. Põhjuseks oli vestluskaaslaste, st päris inimeste halba õpetav mõju.
Holokausti näide on sarnane, sest vägivaldsed, võõravihast juhitud äärmuslased on reaalsus, nagu on seda nende levitatav väärinfo. Kas nende olemasolu peaks otsingutes varjama? Ilmselt mitte!
Küll aga peaks masinaga suheldes arvestama, kuidas kujundab küsimus vastust. Alustades päringut sõnaga ''holocaust'' pakub Google vastuseks ajaloolisi fakte. Alustades sõnadega ''kas holokaust…'' otsib Google vastust lähtudes küsija kahtlusest ja talle pakutakse teistsugust ning tegelikkusega vastuolus sisu. Tõe üle otsustajaks jäägu inimene, kelle jaoks on otsingumootor infot tarniv tööriist mitte valmisvastuste keskkond.
Paraku Guardiani loost ilmneb, et Google'i pakutud otsingutulemuste esimesse lehekülge suhtutakse üha enam kui tõe allikasse. Seega on masinale omistatav subjektiivsus lihtsalt peegeldus inimese enda subjektiivsusest ja kallutatusest.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates Portaal.
Toimetaja: Jaan-Juhan Oidermaa
Allikas: Portaal