Euroopa Liidu kratiseadus võib sündida vaimupimeduses
Euroopa Liidus kavandatakse tehisintellekti reguleerivat seadust. Kuigi seadus eristab erinevaid tehismõistusega seotud ohutasemeid, jääb see inimeste nappide teadmiste tõttu TI toimimisest hambutuks, leiab R2 tehnikakommentaaris Kristjan Port.
Tõenäoliselt oled kuulnud kusagil purunenud sillast. Samas, tõenäoliselt pole sa kuulnud ühestki sillaehitajast, kes tahtis ehitada purunevat silda. Sa ei leiaks neid ka edaspidi. Ometi puruneb tulevikus veel mõni sild ja põhjustab suurt kahju.
Tehisintellekti ehk TI maailmas kõrgelt tunnustatud California ülikooli arvutiteaduste professor Stuart Russell võrdles TI insenere enesekindlate sillaehitajatega. Keegi ei taha tema sõnul teha halba asja; ainult, et TI-d luuakse iseseisvalt mõtlema. Teisisõnu, valmistaja ei eeldagi, et see arvestab ainult oma looja soovidega. Sõltuvalt rakenduse valdkonnast võib omamoodi mõtlevast masinast tõusta palju kasu või sündida suurt kahju.
Aasta alguses avaldati 28 riigist pärit 20 000 inimese küsitlus. Sealt selgus, et kümnest kuue arvates muudab TI põhjalikult nende elu juba järgmise kolme kuni viie aasta jooksul. Umbes sama osakaal vastajatest nõustus, et tehisintellekti-põhised tooted ja teenused muudavad nende elu lihtsamaks. Siiski neist omakorda vaid pooled olid seda meelt, et saadav kasu ületab kahjusid.
Sealjuures usaldasid kõikidest vastajatest vaid pooled TI-d kasutavaid ettevõtteid sama palju kui teisi ettevõtteid. Kaks viiendikku vastajatest tunnistasid, et TI-d kasutavad tooted ja teenused põhjustavad neis hirme.
Küsitluse vastuste seast võib just hirmudega seotud vastust pidada enim põhjendatuks. Sama ei julgeks ma aga öelda 64 protsendi vastajate väite kohta, et nad saavad hästi aru TI olemusest. Vastus on kindlasti tõene selles mõttes, et nii vastati. Seda on siiski raske võtta kui kinnitust, et kaks kolmandikku tavakodanikke teavad midagi väga hästi valdkonnast, mille üle erialaringkondades alles vaieldakse.
Mainitud Stuart Russell tunnistab, et arusaamade vastukäivuste tõttu on üllatavalt raske tõmmata selget joont ütlemaks, kas üks tarkvara on TI ja teine tarkvara ei ole TI.
Taolises naiivses taustsüsteemis toimub TI süsteemide loomine ilma järelevalveta ja ainuke lootus on sellega tegelevate organsatsioonide eneseregulatsioon. See sunnibki mõtlema sillaehitamisele, mis juhinduks vaid enda paremast äranägemisest.
Varasemast on teada, et ettevõtetele on omane eelistada kasumit ning otsida võimalusi kulude vähendamiseks. Enesekontrollil on nende väärtusahelas hõlpsasti kõrvalejäätavalt tagasihoidlik roll. Taolise arengu tagajärjed peaks olema tuttavad. Sisuliselt erastatakse kasu ja jäetakse ühiskonna kanda enamus tekkivatest kahjudest.
Taolistest vigadest õppides ja riske tajudes on riikides asutud looma eeskirju tehisintellektiga seotud riskide tuvastamiseks ja maandamiseks.
Küsimus on aga allegoorilisest sillast suuremas väljakutses. TI tungib kõikidesse eluvaldkondadesse, kaasaarvatud tervishoidu, haridusse, kodude toimimisse ja inimeste vahelistesse suhetesse. Sestap on kõigi huvides parem, kui järgmine kord vastatakse küsitluses oma piisavalt heast arusaamast TI toimimise ja sellega kaasnevate kasude ning kahjude kohta niimoodi, et vastused kajastaks ka tegelikku asjatundlikkust.
Eurooplastena on hea teada, et majandusblokis kavandatakse maailmale eeskujuks olevaid TI-d käsitlevaid regulatsioone. See "hea teada" tähendab ka endale võetud kohustust kavandatavat sisuliselt mõista.
Sarnaselt üldisele andmekaitse regulatsiooni (GDPR) mõjule Euroopast välja jäävate territooriumite ning ettevõtete toimimisele, eeldatakse Euroopa Liidu tehisintellekti ühtlustatud reeglitest mõju kogu maailmas TI arendamisele ja seda ümbritsevale diskussioonile.
Mida on siis Euroopas ettevalmistusjärgus TI seadusest oodata? Esmalt jagatakse TI süsteemid vastavalt riski tõsidusele: alates vastuvõetamatust riskist kuni kõrge, piiratud ja madala riskiga süsteemideni.
Vastuvõetamatu riskiga süsteemid on lihtsalt keelatud. Neid ei tohi arendada ega kasutada. Selliste hulka kuuluvad näiteks TI rakendused, mis kasutavad näotuvastustehnoloogiaid ja loovad kodanikele näiteks riigitruuduse, kuulekuse või muude eesmärkidega sotsiaalseid skoore. Keelatud on ka inimestega manipuleerivad süsteemid või lahendused, mis kasutavad ära teatud rühmade haavatavust. Avalikkuse senise naiivsuse tõttu arendatakse kõiki taolisi süsteeme praktiliselt piiramatult.
Kõrge riskiga AI rakenduste hulka loetakse kriitilise taristu, hariduse ja tööhõivega seotud ning era- ja avalikele teenustele juurdepääsetavust, sisserännet, varjupaiga ja piirikontrolli haldamist, õigusemõistmist ning demokraatia teostamisega seotud protsesse puudutavaid lahendusi.
Seadus keskendubki kõige rohkem kõrge riskiga tehisintellektisüsteemide arendajate ja omanike tegevusele. Neile kehtestatakse põhjalikud tehnilised, järelevalve- ja vastavusnõuded. Samas eeldatakse madalama riskiga rakenduste loojatelt enesekontrolli ja hea tava järgimist.
Kõige selle taustal puuduvad Euroopas sellise mõjujõuga ettevõtted nagu Microsoft, Google, Apple, Meta ja Amazon. Nemad kõik arendavad omi TI lahendusi nii vastuvõetamatu kui suure riskiga tehnoloogiateks. Võimalik, et Euroopaski püütakse midagi sama suurt luua, aga seni edutult.
See tõstatab küsimuse õige ja alatu ajatust dilemmast. Kellelegi pole ju saladus, et paljud edukad juhid ja poliitikud on psühhopaadid, või kuuluvad kuhugi psühhopaatia spektrisse, näidates madalaid skoore kahetsuse, südametunnistuse ja moraalsete hinnangute testides. Ühtlasi on neil kõrge tulemus kartmatuse, kiire mõtlemise ja külmaverelisuse testides. Kummalgi juhul peab rahvas arvestama valude ehk purunevate sildadega.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Airika Harrik
Allikas: "R2 Portaal"