Armuliku tehisintellekti loomine pakub tõsist väljakutset

Inimesest võimekama ja samal ajal tema suhtes heatahtlikult käituva laia tehisintellekti loomine on inimkonna seniste kogemuste põhjal raske kui mitte pea võimatu, nendib R2 tehnikakommentaaris Kristjan Port.
Juhul kui inimeste tegevuse tulemusel valmib midagi, mis inimesed hävitab, kas saaksime leppida kokku, et me seda ei tee? Optimistidel peaks süda lootusärevuses kiiremini tuksuma hakkama. Paraku on vastus eitav. Juhul kui inimkond suudaks omavahel koordineerida totaalse hävingu ärahoidmise nimel, ei tohiks meil olla tuuma-, keemia- ega bioloogilisi relvi.
Ometi, veel hetke optimismi laval tapmisega oodates võiks rõõmustada inimese võimekuse üle. Loota, et kui teab, kuidas hävitada, mõistab ta ka seda, kuidas kaitsta? Oleme enese hävitamiseks loonud üllatavalt palju võimalusi ja ilmselt liigagi palju. Isegi kui läbi ime suudaksime mõnede tegemata jätmises kokku leppida, piisab ühest allesjäänust ohust planeedi steriliseerimiseks, vähemalt inimestest.
Tehisintellekti alal tunnustatud teoreetik Eliezer Yudkowsky koostas suvel loetelu, kuidas tehisintellekt kõik inimesed ära tapab. Tema arutluskäik algab eelpool tooduga analoogse väitega, et me ei kavatse ohtlikult võimsa tehisintellekti sündi vältida, sest me lihtsalt ei suuda selles kokku leppida. Selle omamise kiusatus on liiga suur ja sellest tuleneb võidujooks, mitte peatumine. Pealegi on seda teed lihtne kaunistada sõnadega haiguste võitmisest ja heaolu kasvust.
See ongi eduka hävingu omadus. Nagu hea viirus, mis kohe ei tapa, kuna vajab elujõulist peremeesorganismi oma levikuks. Näiteks on leitud, et gripp suudab manipuleerida nakatunu käitumist viisil, et nad suhtlevad nakkusfaasis tavapärasest rohkemate inimestega ja aitavad haigustekitajal levida. Nakatav aktiivsus suureneb vahetult enne haiguse sümptomeid, jättes seejärel eksliku mulje haige soovist olla omaette ja end teistest eraldada.
Tehisintellekt, millest jutt käib, on peidus teisegi kaitsva kilbi taga. Kilbi peale on kirjutatud, et "see on võimatu". Mitmed tuntud eksperdid peavad inimese võimetega võrreldava või neid ületava universaalse ja üldise tehisintellekti loomist võimatuks. Nad pole sugugi rumalad inimesed ja nende argumentatsioon on igati põhjendatud. Ainult, et tagasivaates elame keset asju, mida alles hiljuti peeti võimatuks.
Yudkowsky pakub lohutava mõtte ja lükkab selle siis ümber. Võime lohutada end usus, et valmistame ainult kitsaste oskustega tehisintellekti. Millegi, mis oskab hästi teha väheseid asju. Seetõttu ei suuda see inimesi nende universaalsuses trumbata. Kõrgelt arenenud kitsa tehisintellekti võiks määratleda kui süsteemi, mis suudab leiutada ja kasutusele võtta näiteks biotehnoloogia vähemalt kümme aastat varem, kui suudaks inimkond seda oma loodava tehnika tasemel. Kitsas tehisintellekt oleks ühes sfääris meist oluliselt võimekam.
Kombineerides kaks taolist kitsast, aga inimese võimeid ületavat tehisintellekti kokku, sünnib midagi enamat nende eraldi tegutsemise tulemuslikkusest. Täiendav ja inimese poolt kontrollimatu võimekus kujuneb teineteiselt õppimise tulemusena. Yudkowsky väidab, et esimene taoline natukenegi üldisem TI tapaks seejärel kõik inimesed. Mitte, et see oleks nii kavandatud. Häving lihtsalt juhtub, seejuures inimese enda abistamise või palumise tulemusel.
Inimesel on arvukalt põhjuseid, miks rakendada uut enneolematu võimekusega tehisintellekti mõne kitsa ülesande täitmiseks. Põhjuseks võibki olla eel mainitud hirm, soov tagada turvalisus, püüd hoida masin kista ülesande kallal. Suurem tõenäosus tuleneb kipitavast vajadusest lahendada võimalikult kiiresti mõni kitsas probleem. Ülesande lahendamise huvides tegutsedes leiutab siis tehisintellekt enneolematuid ja inimese tähelepanule mõistmatuid protsesse, mille käigus ohverdab inimkonna ja tema tuleviku.
Siiski, oletame, et keegi ei lülita uut masinat enne sisse, kuni pole tagatud selle tegutsemise ühildumine inimese huvidega, kuid just siin peitubki probleemi võti. Õigemini küll lukk, millel polegi võtit. Yudkowsky kasutab olukorra absurdse raskuse mõistmiseks näidet digitaalse krüpteerimise valdkonnast.
Näiteks e-kirja salastamine võõrastele loetamatuks on küll keeruline, aga selle lahti muukimine on alati oluliselt raskem. Ainult et teistest parema salastamise väljamõtlemine eeldab varasemate lahenduste lahti murdmist. See on lõputult kasvava raskusega probleem, kuni muutub ületamatuks. Sama kordub katses luua võimalikult inimese huvidega arvestavat skeemi, millest saaks ja peakski tegema alati veel parema, mis muutub absurdselt raskemaks. Seejuures saadakse enne ikkagi surma, ennustab Yudkowsky.
Põhjuseid on mitu. Igasuguse intellekti sisuks on etteantud eesmärgi nimel tulemuslikult tegutseda, sõltumata alatasa muutuvast maailmast. Nutikas masin kohendab jooksvalt oma tegevust ja kui seda hakkab mõni sisend segama, nagu inimene oma soovidega, püüab ta selle kõrvaldada. Surma saadakse aga tõenäoliselt veelgi varem, sest ülivõimsa TI inimsõbralikkuse arendamiseks peab seda proovile panema.
Võimas intellekt areneb hüppeliselt, mitte inimesele jälgitavate väikeste sammudega. Suure tõenäosusega käivitatakse see ohutuse arendamise nimel varajastes etappides, pidades seda näiliselt ohutuks. Teadmata, kas selles leidis aset märkamatu ja toorelt halastamatu arenguhüpe.
Midagi sarnast on praegu käsil viiruste uurimises. Selle tagamõte on küll inimeste kaitse, aga meetodiks inglise keeles gain of function ehk funktsiooni suurendamine. Tegevuse sisu on viiruse geneetiliselt muutmine, et suurendada patogeenide edasikanduvust ja/või virulentsust, nagu näiteks nakatatavate peremeesorganismide tüüpe, sümptomeid, ravile allumist jmt. Peavad ju ka mõned võimalikuks, et Covid-19 võis olla taolise töö vili.
Jäägu see vaidlus siin pidamata ja piirdugem vaid näitliku spekulatsiooniga, imestamaks, miks ikkagi on inimese võimuses nii palju valikuid enda hävitamiseks? Samal ajal uskudes või lootes, et ta seda ei tee?
Optimistidele võiks jätta praokile siiski ühe ukse, pakkudes võimaluse inimsõbraliku tehisintellekti tekkeks. Antud lootus on võrreldav tõenäosusega sõbraliku inimkonna tekkeks.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Jaan-Juhan Oidermaa
Allikas: "Portaal"