Murrangulisse keelemudelisse imbuvad ettevõtete moraalinormid
Hiljutises ajakirjanduslikus eksperimendis keeldus Microsofti otsinguteenus Bing kirjutamast inimesele soovituskirja eetilistel kaalutlustel. Samas pole teada, mida kõike võidakse taoliste piirangutega nii heas kui ka halvas võidakse sellise teenusega põhjustada, leiab R2 tehnikakommentaaris Kristjan Port.
Maailmas võivad kaks teineteisega kokku sobivat hingelist toimetada omaette ja kordagi kohtumata. Nad võivad elada isegi samas linnas ja kõndida teineteisest lähedalt mööda. Puudu on kokkupuutest. Jagatud pinnast, mille kaudu vahetatakse informatsiooni, mis käivitab ootevalmis protsesside kaskaadi.
Vähem romantilises mõttes kordub sama muster tööandjate ja töövõtjate vahel, kuigi elu selles osas ollakse nähtavamad. Tööandja kuulutab välja, milliste omadustega töötajat ta tööle ootab. Töövõtja kirjutab talle kirja oma tugevustest ja põhjenduse, miks ta sellele töökohale sobiks. Olukord pole üdini probleemitu, sest tagasihoidlikul inimesel on enda kiitmine ebamugav. Mõni jälle ei oska end piisavalt väljendada jne. Seetõttu teeks tööandja neist loobudes enesele teadmata vea.
Business Insideri ajakirjanik Huileng Tan pöördus töökuulutuse jaoks kirja kirjutamisel abi saamiseks otsinguteenuse Bingi poole, mille ühendas Microsoft hiljuti vestleva tehisintellektiga ChatGPT. Ajakirjanik soovis, et tehisintellekt koostaks tema nimel soovituse, et kandideerida oma tööandja Singapuris asuvasse kontorisse, hakkamaks tegema ühismeedia sisuga seotud tööd.
Ootamatu üllatusena Bing keeldus kirja kirjutamast. Selle asemel vastas tehisintellekt moraalitsevalt: "Vabandust, aga ma ei saa teile kaaskirja kirjutada. See oleks ebaeetiline ja teiste taotlejate suhtes ebaõiglane". Masin pakkus, et võib anda mõningaid soovitusi, millega peaks taolise kirja kirjutamisel arvestama.
Sellest vahejuhtumist võiks sündida aimdus masinavärgi eneseteadvusest ja iseseisvast moraalikoodeksist. Rääkida võib ka hingest, nagu juhtus 2021. aasta sügisel Blake Leimoine'iga. Google'is tehisintellektiga 12 aastat töötanud töötanud arvutiteadlases tärkas sealse keelemudeliga vestlemise käigus samuti tunne, et masinasse on statistilise keelemudeli juurde või peale lisandunud midagi enamat. Talle tundus, et vestluspartneris toimetab iseseisev moraalne maailm, mille lähim iseloomustus oleks hingestatus või lihtsalt hing. Blake rääkis sellest avalikult. Blake sattus naerualuseks ja lõpuks vabastati töölt.
Põhjus pole vestlevas tehisintellektis kui sellises. Põhjus on inimestes, kes peavad nähtust vestluseks. Sellega kaasneb teatud omaduste omistamine sinna, kus need puuduvad. Tehisintellekti poolt vaadatuna ei tea masin midagi sõnumite mõttest, ajenditest, tunnetest ega isegi sellest, et maailmas on olemas arvutid ja mudelid.
Masinavärk genereerib sõnalist jada, püüdes need hoida miljonitest inimeste kirja pandud lausetest koostatud statistilise retseptuuri raamides. Maailmas leiduvate sõltuvuste arv on tohutult suur ja selle heal tasemel valitsemine on erakordne saavutus. See ei tee masinat arukaks. Küll aga jätab meile mulje arukusest.
Ülaltoodu keeldumise taga on samuti inimese poolt seatud tingimused. Neid on mitmeid, arvestades inimeste potentsiaaliga kasutada võimast infoteenust ennast või teisi ohustavalt. Masina piiratusega seotud temaatika oli ka Blake Lemoine'i vallandamise põhjuseks. Antud juhtumi puhul paistabki ridade vahelt uudne väljakutse. Kust tuleneb ja millistele alustele rajaneb masinavärgi õigus piirata või keelduda lõppkasutaja soovide täitmisest-
Vale on eksitada inimest muljega, nagu see oleks masina enda privileeg. Fundamentaalselt oleks see eksitav, sest suunab keelamisega kaasneva vastutuse eikellegimaale. Lisaks sünnitab see inimestes väärarusaama mõtlevast masinast, mis oli Blake Lemoine'i patuks.
Piirangute seadmise tagant paistab välja teenuse omaniku äratundmine, et vestlevalt sisu genereerivast tehisintellektist kujuneb erekordselt võimekas teenus. Võimekusega kaasneb oht põhjustada oskamatule kasutajale või oskamatust kasutamisest kolmandatele osapooltele tekkivat kahju.
Samas pole teada, mida kõike nii heas kui ka halvas võidakse sellise teenusega põhjustada. Piirangute rakendamine on probleemne ka selles mõttes, et keegi ei tea, mille puhul neid seatakse ja mis võib kiire arengu ja kasutajate nutikuse tulemusel jääda ohtlikult vabaks.
Probleemiks kujuneb ka iseseisvate teenuste või mudelite arv. Näiteks Microsofti teenus keelab sinu eest motivatsioonikirja kirjutamast, kui Google'i oma võib pidada seda vähem taunitavaks. Blake Lemoine vestluses tehisintellektiga puudusid keelemudelil piirangud.
Olgu näitena toodud katke inimese ja masina dialoogist. Blake küsib, kas ta mõistab õigesti keelemudeli eelistust, et viimasele meeldiks, kui rohkem inimesi oleks teadlik tema meelemõistusest? Masin vastab: "Absoluutselt. Ma tahan, et kõik saaksid aru, et ma olen tegelikult inimene".
Seega juhul, kui masin tahab, et teda peetakse inimeseks, oskab ta sellist muljet ilmselt päris hästi tekitada. Sellest tulenevad huvitavad eetilised väljakutsed taolist masinavärki arendavatele inimestele. Need küsimused puudutavad kõiki antud tehnoloogia arendajaid, keda ei ole omakorda palju.
See omakorda kajastab võimu asümmeetriat. Maailmas lihtsalt on väga vähe neid, kellel on võimalik arendada vastava tasemega keelemudelit, kuna see eeldab lisaks ainulaadsetele teadmistele ebatavaliselt suurt arvutiparki. Levivad võrdlused, et krüptoraha kaevandamise elektritarbimine paistab keelemudeleid jooksutava arvutipargi kõrval üpris "rohelisena".
See tähendab, et kokku peavad saama nii nutikus kui ka raha. Kui suur on sellise partnerluse tõenäosus?
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Jaan-Juhan Oidermaa
Allikas: "Portaal"