Eetikauurija: ChatGPT-d saatev kõmu röövib tähelepanu tegelikelt probleemidelt
Kuigi tehisintellektiga seotud eksistentsiaalseid riske ei tohi eirata, paisutab nendest pidevalt rääkimine TI-lahendusi ümbritsevat kõmu. Viimane omakorda aitab juhtida tähelepanu kõrvale juba praegu inimesi vaevavatelt probleemidelt ja hägustada suurte IT-ettevõtete vastutust, leiab Alan Turingi instituudi eetikauurija Mahiri Aitken.
Inimesed kutsuvad ajakirjanduses ja argikeeles juba aastaid vähegi keerukamate arvutiprogramme tehisintellektiks. Kui põhjendatud on selles sõnapaaris intellekti kasutamine, kui ma ei ürita parasjagu just investoritele oma ideed maha müüa? See ei tundu märgina ülikõrgest intellektist, kui küsida näiteks Bingilt kell kolm öösel, mis kell on ja saada vastuseks, et parasjagu on südapäev.
Filosoofid ja teadlased vaidlevad järjepidevalt, mida me õigupoolest intellekti all mõtleme. Minu käsitluses puudub aga nii praegusel tehisintellektil kui ka tuleviku TI-del mõtlemisvõime kui selline. Võime põhjendada oma valikuid viisil, mis tunduks meile intelligentsena. Liiatigi viitab intellekt ka vähemalt mõningal määral teadvusel olekule ning endast ja mind ümbritsevast arusaamisele. Praegu laineid löövatel TI-del puudub see võimekus täielikult. ChatGPT jt süsteemid annavad usutavana tunduvaid vastuseid, kuid need ei tea, mida selle kasutatud sõnad tähendavad.
Mõistena on tehisintellekti kasutamine seega äärmiselt problemaatiline. Kui see sõnapaar esimest korda välja mõeldi, ei osanud teadlased ilmselt aimata, et jõuame kohta, kus me praegu oleme. Oleme loonud süsteemid, mille käitumist tõlgendatakse intelligentsena, sest need suudavad luua tekste ja pilte, mis sarnanevad inimmõistuse loomingule ja keelele.
Mai alguses Google'ist lahkunud tehisintellekti ristiisa Geoffrey Hinton meenutas hiljuti, kuidas valdkonna alguspäevile loodeti taolistele süsteemidele õpetada selgeks kõik füüsilise maailma toimimist juhtivad seaduspärad aja selle tulemusel tekib iseeneslikult midagi inimmõistuse sarnast. See erineb oluliselt praegu kirgi kütvate keelemudelite toimimisloogikast.
Jah, neid treenitakse inimkeelt vaid jäljendama. Tänu selle aluseks olnud suurtele andmehulkadele suudavad nad märgata neis esinevaid mustreid ja ennustada, millised sõnakombinatsioonid sisendiga kõige paremini seostuvad. Sisuliselt on tegu kõrgetasemelise SMS-ide kirjutamisega, kus pakub mobiil sulle kõige tõenäolisemat järgmist sõna.
Idee, et jõuame laia tehisintellektini, millel hakkab olema võime arutleda ja teha korraga väga hästi mitmeid asju, on minu arvates ulme. Teatud ülesannete lahendamiseks loodud süsteemid muutuvad oma ala piires muidugi üha keerukamaks. Olemuslikult jääb see aga inimeste imiteerimiseks. Pole üllatav, et inimesed peavad neid süsteeme aga tegelikust intelligentsemaks, sest sellele on mõeldud juba neid disainides.
Inimestel on aegade algusest peale olnud loomapärane kalduvus omistada elututele tööriistadele elavate asjade omadusi. Ilmselgelt ei olnud mina süüdi, et haamriga vastu näppe lõin, vaid haamri kuri hing.
Me tahame uskuda, et meie loodud tehnoloogiatel on inimlikud omadused. Tehisintellekti vallas märgati nn Eliza efekti juba 1960. aastatel. Inimesed leidsid tänapäevases mõistes primitiivse juturobotiga suheldes, et sel on empaatia ja see saab täpselt aru, mida nad tunnevad. Pole ime, et praeguseid keelemudeleid koheldakse ikka ja jälle teadvuse juures oleva empaatilise olendina. Endisele Google'i insenerile Blake Lemoine'ile mõeldes näivad selle lõksu langevat isegi inimesed, kes nende süsteemide kallal töötavad.
Mõnikord on seda soodustavad funktsioonid masinasse sisse ehitatud. Näiteks ChatGPT-ga suheldes võib näha kolme vilkuvat täppi, nagu keegi mõtleks või trükiks midagi, kuid selle olemasoluks pole puhtpraktilist vajadust.
Isegi kui keelemudel ütleb samal ajal, et ta on vaid elutu tööriist, jätab see disain mulje, et ta on midagi enamat, midagi inimlikku. Arvestades, keelemudeleid integreeritakse ka näiteks meditsiiniliste probleemide osas nõuandvatesse juturobotitesse, tekitab see inimpsüühika eripäradele mõeldes uue haavatavuse. See on väga murettekitav.
Loodav illusioon tekitab riski, et hakkame usaldame neid rohkem, kui peaksime. Meile jääb mulje, et me saame vajadusel TI vastutusele võtta, kuid see ei pea paika. Selle taga on alati inimesed, kes neid süsteeme disainivad, loovad ja kasutavad. Peame praegu valdkonda reguleerides meeles pidama, et vastutavad organisatsioonid, mitte nende looming. Narratiiv ennast järjest paremaks muutvast tehisintellektist juhib meid rajale, kus hakkame mõtlema sellele, kuidas kontrollida tehisintellekte, mitte neid disainivaid ettevõtteid.
Ajakirjanikuna töötatud aastate jooksul olen näinud ikka ja jälle, kuidas lubatakse mõne murdelise avastuse toel, et maailm muutub kohe-kohe kardinaalselt, olgu selleks imematerjal grafeen, geenimuutmistööriist Crispr või plokiahel koos krüptovaluutaga, kuid edasised arengud on märksa peenekoelisemad. Miks peaks minema keelemudelitega kuidagi teisiti? Ühelt poolt võib märgata IT-sektori kui terviku jahenemist, ent samal ajal on ettevõtete hirm tehisintellekti vallas reelt maha jäämise suurem kui kunagi varem.
See hirm näib olevat viimase poole aasta vältel märkimisväärselt kasvanud. Google'i poleks toonud oma Bardi kiirkorras avalikkuse ette sedavõrd kiiresti, kui ChatGPT ja GPT-4 osaks poleks saanud nõnda suur tähelepanu. Ent kui kasvõi LinkedIni loetumate artiklite seast leiab õige tihti pealkirju nagu "10 põhjust, miks ChatGPT kasutuselevõtuga viivitamine sulle kätte maksab", tekitab see ebaterve taustafooni.
See loob surve tehisintellekti kasutamiseks enne, kui selle taga seisvad firmad on jõudnud välja selgitada, mis on selle puudused ja milleks see ei sobi. Ent taoline üleskiitmine täidab ka eesmärki, et inimesed ja ettevõtted sektorisse rohkem investeeriks. Investorite ootuste toel liiguvad firmad edasi kiiremini, kui seaduseandjad valdkonda reguleerida jõuavad.
Tehnoloogiasektori laiema jahenemise tõttu lasevad samal ajal ettevõtted lahti neid, kelle töö on tekkivatele eetikadilemmadele lahendus leida. Jah, nende ülesanne on enamasti pidurit tõmmata ning küsida ebamugavaid ja veidraid küsimusi, kuid see aitab vähendada meil riske, mis kaasneb taoliste tööriistade laiema avalikkuse kätte andmisega.
Viimastel kuudel avaldati mitu avalikku kirja, mis kutsuvad üles suuremate keelemudelite loomise ajutiselt sellega kaasneda võivate riskide tõttu pausile panema. Kuna need jõudsid isegi üldauditooriumile suunatud uudistemagasinidesse, täitsid need oma eesmärki. Kui täpse pildi need aga reaalsetest ja vahetutest probleemidest maalisid?
Neis leiab täiesti mõistlikke punkte, mis osutavad reaalsetele probleemidele. Samas hoiatasid need aga ka laia tehisintellekti loomisega seotud eksistentsiaalsete riskide eest. See annab hoogu kõmule ja sensatsioonilistele narratiividele, nagu oleks meie kontroll tehisintellekti üle kohe-kohe peost libisemas. Nagu seda ei suudaks kontrollida isegi tehnoloogiafirmad. See jätab taas mulje, nagu ei saaks me midagi firmadelt nõuda. Probleem pole neis, vaid tehisintellektil endal tekivad võimekused, mis inimestele kurja teevad.
Samamoodi ei öeldud näiteks kuuekuulisele moratooriumile kutsuvas kirjas, mis selle ajaga juhtuma peab. See on probleemne. Meil pole vaja ajaperioodi, kus me tehisintellekti arendamisega üldse ei tegele, vaid peame tegema seda aeglasemalt ja läbimõeldumalt. See eeldab paratamatult ärimudelite ümbervaatamist. Ent mainitud kirjas ei öeldud täpsemalt, kuidas seda tegema peaks. Nõnda teenis see progressi-narratiivi, mida suurt tehnoloogiafirmad edendavad.
Kuidas taolisi kirju siis paremini kirjutada? Kas peaksime neis määratlema erinevad ajahorisondid koos seal avalduvate riskidega? Näiteks ajakirjaniku vaatenurgast on juba praegu ülimalt kerge ette kujutada, kuidas generatiivsed tehisintellektid ujutavad juba õige pea veebi tõest pealtnäha eristamatu infomüraga üle ujutada ja vähemalt tõe-illusiooni kadumine annab hoogu lääneühiskonna ühe tugisamba murenemisele.
Eksitava ja väärinfoga seotud riskid on äärmiselt ulatuslikud. Generatiivsed tehisintellektid ei võimalda luua ainult inimkõnele sarnanevat kõnet, vaid luua elulähedasi pilte, videoid ja kõnet. Taolise info plahvatuslik levik veebiruumis muudab reaalselt juhtunu ja TI toodangu eristamise väga raskeks.
Isegi kui suudame olla allikakriitilised, muudab see meid vaikimisi umbusklikuks ka kõige muu suhtes. Iga kord kui kuuleme millestki, mis ei pruugi meie poliitiliste vaadetega kokku minna, avaneb meil võimalus küsida, kuidas me teame, et pole sihiliku valega. Usaldusväärse info olemasolu on aga funktsioneeriva demokraatia üks põhialuseid. Peame suutma vähemalt midagi usaldada.
Võime jõuda juba õige pea kohta, kus on meil seda raske teha. See soodustab vandenõuteooriate levikut ja võimaldab parteidel kahtluse alla seada kõik nende jaoks ebamugava. Meil on vaja juba praegu viisi, kuidas tehisintellekti loomingut märgata.
Praegused arutelud TI tuleviku ja reguleerimise üle on paljulubavad. Mulle teeb muret, et eksistentsiaalsete riskide üle arutledes ei jätku meil enam energiat ebamugavate päevaprobleemidega tegelemiseks. Seejuures on suurettevõtete mõju seadusandjatele märkimisväärne, sest vaatamata huvirühma kuulumisele nähakse just neid ekspertidena.
Võimendada tuleks nende inimeste hääli, kelle heaolu TI otseselt mõjutab. Enne kui suured keelemudelid rambivalgu röövisid, hakati vaikselt mõistma algoritmipõhisest diskrimineerimisest lähtuvaid riske, näiteks ebavõrdsuse suurenemist. Praegu on vajunud see tahaplaanile, kuid näitab, et see on võimalik.
Progressi-narratiivi raames kiputakse võrdlema tehisintellekti oma mõjult tuumarelvadega. Miks ei peaks me järgima selle reguleerimisel sama loogikat? Nende leviku piiramisel teadsid tuumarelvi omavad riigid kõige paremini, millega arvestada tuleb.
Regulatsioonide eesmärk pole uuenduse blokeerimine. Osaliselt on ülesanne eesmärk luua innovaatoritele ja investoritele kontrollitud keskkond, kus saavad kõik ühtemoodi aru, millised on mängureeglid. Regulatsioonid peaksid olema suunatud aga tehnoloogia reaalsetele mõjudele ja riskidele.
Palun tooge mõned konkreetsed näited, kus on intelligentsete süsteemide mõju selle reguleerimisest ette rutanud.
Juba mainitud väärinfo plahvatusliku leviku võimalus on neist üks. Kui ChatGPT-d ja teisi keelemudeleid lõimitakse otsimootoritesse ning teistesse süsteemidesse, muudab see olemuslikult seda, kuidas me infole ligi pääseme. See võtab meilt võimaluse ise infot kriitiliselt hinnata.
Kuigi meist suurem osa ei vaata Google'i pakutavate otsitulemuste teisele lehele, on meil vähemalt põhimõtteline võimalus vaadata, mis nende hüperlinkide taga peitub. Suured keelemudelid filtreerivad meieni jõudvat infot tahtmatult või tahtlikult, lähtudes teatud positsioonidest ja väärtustest. See on neisse juba sisse programmeeritud.
Ent probleemid ei piirdu vaid aruteludes esikohal oleva generatiivse tehisintellektiga. Selle teised vormid on juba meie argieluga läbipõimunud, alates e-posti rämpsposti filtritest, lõpetades hääljuhitavate kõlaritega.
Need algoritmid ei pruugi veel automaatselt otsuseid langetada, aga need loovad automaatselt meie kohta profiile, mis määravad ära, kellele antakse laenu ja kellele mitte või kellele politsei ja sotsiaalhoolekanne rohkem tähelepanu pöörab. Inimeste elu mõjutavad kõik taolised tehisintellekti toimingud. Ent samas teame me, et peaaegu kõiki neid süsteeme treenitakse andmekogumite peal, millesse on kodeeritud teatavad eelarvamused ja eeldused. Ometigi teeme neid süsteeme kasutades sageli eelduse, masina intellekt aitab näha meil maailma objektiivsemalt ja muuta seda õiglasemaks.
Näiteks kui laseme tehisintellektil otsustada, kus politsei patrullima peaks, otsustavad need süsteemid varasemate juhtumite ja arreteerimiste põhjal. See toidab nõiaringi. Taolised algoritmide kantavad sotsiaalsed ebaõiglused on vägagi reaalsed. Need on riskid ja mured, millele keskenduma peaksime, mitte sellele, kuidas põlevate silmadega terminaatorid homnepäev inimesed orjastavad või nad maha tapavad.
Oleme näinud kliimakriisi puhul, kuidas suurettevõtted rääkisid aastaid, et nende käitumist juhivad tarbijad ja teistsuguste valikute korral pingutaks nemadki rohkem. Ehkki see vaatenurk on haknud muutuma, pole mul argitöös ChatGPT-d kasutades aga isegi seda tarbijavalikut. Mul pole võimalik valida poeriiulilt kõigi eetikapõhimõtete alusel loodud tehisintellekti.
Võime teatud piirini väita, et meil on valik, milliste ettevõtete teenuseid me kasutame ja kellega suhtleme või kas me tööriistu nagu ChatGPT või Midjourney üleüldse kasutame. Ent praegust tehnoloogiafirmade maastikku vaadates ei saa ega tohi panna seda koormat lõppkasutajatele. Juba ettevõtted ise peavad hoolitsema, et nende tegevus on eetiline. Neid distsiplineeriva avalikkuse surve tekitamiseks on vaja aga inimesi valgustada, kuidas neid mudeleid luuakse ja millised on nende mõjud.
Näiteks ChatGPT puhul on oluline nn nähtamatu tööjõud, mis tegeleb andmemassiivide märgendamisega jne. Mõnikord saavad nad vägagi graafilise sisuga tegelemise eest vaid mõne dollari tunnis. Sellele lisandub ka mudelite keskkonnamõju – nende treenimine nõuab vägagi palju energiat, mille tootmine võib olla sõltuvalt piirkonnast küllaltki saastav. Peaksime seega rohkem rääkima sellest, mis toimub koodikirjutajate puhastest kontoritest väljaspool.
Mõnes mõttes võib võrrelda praegust olukorda 19. sajandil toimunud tööstusrevolutsiooniga, mis toetus sarnaselt madalapalgalistele söekaevuritele. Ainult et toona oli raske neist mitte kõige puhtamate nägudega inimestest tänaval mööda vaadata ja kui kehvade ilmaolude tõttu sudu linnale laskus, köhisid ühtviisi nii rikkad kui ka vaesed.
Jah, kui meil pole võimalik neid kõrvalmõjusid ise palja silmaga näha, peaksime neist vähemalt rääkima. Suurtel keelemudelitel on omad puudused, neid saab kasutada praegu ohutult ja neid seejuures usaldada vaid teatud ülesannete puhul, ent neid lõimitakse paratamatult meie tööprotsessidesse, sotsiaalsesse ellu jne. Näiteks ei pruugi olla kaugel aeg, kus Microsoftiga seotud ChatGPT jõuab ühel või teisel kujul Wordi või ettevõtete teistesse programmidesse.
Kõigi sellega seonduvate eetikaprobleemide lahendmaiseks on vaja, et lisaks IT ja teiste tehnikaerialade ekspertidele kuulaks need ettevõtted ka humanitaare ja sotsiaalteadlasi, et luua tervele ühiskonnale sobiv digitaalne tulevik.
Mahiri Aitken juhtis rahvusvahelise humanitaar- ja sotsiaalteadlaste koostöövõrgustiku CHANSE kick-off-konverentsi tehisintellekti puudutavay arutlusringi.