Järjejutu 5. osa | Aga ühel päeval on üldtehisintellekt kohal... ({{commentsTotal}})

Võimalus on kaasa minna ja muutuda millekski, mis ületab tänast homo sapiensi vähemalt sama palju kui meie tarkuselt järgmisi elukaid.
Võimalus on kaasa minna ja muutuda millekski, mis ületab tänast homo sapiensi vähemalt sama palju kui meie tarkuselt järgmisi elukaid. Autor/allikas: Franck V. /Unsplash /Creative Commons

Ühel päeval, olgu see 20 või 100 aasta pärast – kui inimkond vahepeal kuhugi tagasi ei lange – seisame silmitsi millegagi, mis on meist targem. Mida see kaasa toob? Selle üle arutleb ulmekirjanik Ats Miller tehisintellekti teemalise järjejutu viimases osas.

Kuid enne lubatagu veel üks kõrvalepõige – alati on kõigutamatult faktiresistentseid inimesi. Kusjuures tihti on need väliselt targad ja tihti ongi seda... mis ei takista neil olemast absoluutselt võimetud oma ninaotsast kaugemale nägema.

Kõige kuulsam on selles osas vast IBM-i presidendi Thomas Watsoni 1943. aastal tehtud ennustus, et maailmas on turgu viiele arvutile, ent tasub ette võtta mistahes viltuläinumate ennustuste list – telefone pole kellelgi vaja, on piisavalt jooksupoisse, inimesed ei hakka iial lendama, telekas on mõttetus ja internet ei huvita mõne aasta pärast enam kedagi. Selle nähtuse teine ots on kõik need idioodid, kes kuulutavad, et kuule, mul on laual arvuti – lubage naerda, kuidas see saab kunagi targaks minna...

Kummatigi on AGI-ga (üldtehisintellektiga) seonduv tõesti pisut eripärane, nii et teatud määral on mõistetav, miks paljudel selle juures aju blokeerub – inimene on tõusnud muust loodusest kõrgemale tänu intellektile. Me oleme kõigest muust elusast nii palju üle, et me isegi ei suuda enam ette kujutada, et selles osas võiks tekkida konkurents. Ja kuna vahe ka kõige targemate loomadega on nii tohutu, puudub meil ka igasugune kogemus ja võrdlusmaterjal teistsuguse intellektiga suhtlemisel. AGI on selles osas tõesti esmakordne, ainulaadne ja kõigest seniolnust põhimõtteliselt, kvalitatiivselt erinev väljakutse.

1. Võimalik on mitte midagi teha...

... mis võib valus olla. Selle alla käib tegelikult neli võimalikku lähenemist.

Esimene on tõesti passiivne kaasatriivimine: me lihtsalt laseme asjadel areneda... Hetkel ongi inimkond selle teguviisi valinud. Jah, natuke tegeletakse ka AI (tehisintellekti) ohutusega, aga kui kulutused sellele on kaks-kolm suurusjärku väiksemad arendusest, on praktikas tegu enesepettusega. Tõsi, probleem pole tõesti täna veel akuutne kah.

Eimidagitegemise alaliik on eneselohutus sofismidega, mis kõlab umbes nii, et vaadake, inimesed on sipelgatest palju intelligentsemad, aga meil pole kunagi vaja olnud kõiki sipelgaid tappa – miks AGI-d peaksid meid tapma? Ja siit edasi kolmas lähenemine on fatalistlik allaandmine, et no kui AGI-d on evolutsiooni järgmine aste, siis las nad tapavad meid maha...

Ka neljas siia alla kuuluv lähenemine kvalifitseerub enesepettuseks sõnamaagia abil – integreerime AGI-d ühiskonda, allutame nad seadustele ja paneme makse maksma. Oeh – proovige nüüd ette kujutada maksudeklaratsiooni täitvat Terminaatorit...

2. Miinusmärgiga vastupanu

Selle alla kuuluvad kõik keelustamisega seotud ideed ja oli juba juttu, et ka kõigi nende variantide puhul on tegu enesepettusega, sest sõjaväelased, salateenistused ja nn kolmandate riikide salajased laborid niikuinii töötavad edasi. Teisiti öeldes see küll pidurdab AGI arengut, kuid on pikemas perspektiivis kasutu ja pigem suurendab ohte, sest kogemusi vahetada ei saa ja võetakse suuremaid riske.

Keelamise alaliik on ka ülemaailmsed karmid tehnoloogilistel piirangutel – st pole abi vaid uuringute peatamisest, piirangud tuleb seada ka riistvarale. Ent ikkagi on karta, et tekib olukord, kus kõik, nii tootjad kui tarbijad otsivad võimalusi piirangutest mööda minna, ja seega on pikemas perspektiivis seegi vaid probleemi edasilükkamine.

Piirangute üks pisut kaalumistvääriv vorm oleks AGI n-ö kastispidamine, ehk see ei tohi põhimõtteliselt ligi pääseda ühelegi reaalse maailmaga kokku puutuvale lülitustele. Kõige lihtsamalt öeldes ei tehta AGI tasemel roboteid – kuid enne oli juttu automaattehastest ja väga raske, tegelikult võimatu on hoida AGI-d eemal strateegilisest raketikaitsest... aga just nii maailm häviski neis kuulsates Terminaatori filmides.

AGI-de n-ö ohjeldamise alla kuuluvad veel ideed neid pidevalt resettida, nende riistvara mineerida ja kasutada hulka madalama taseme AI-sid nende ohjeldamiseks.

Kokkuvõttes on ikkagi ainult aja küsimus, kuni mõni neist "välja murrab", st kontrolli alt väljub, ja seega sobiksid kõik sedalaadi meetodid põhimõtteliselt vaid aja võitmiseks seni, kuni midagi paremat välja mõeldakse.

Aktiivne kaasaminek

Siin on võimalik kolme liiki lähenemine ja minu isikliku arvamuse põhjal on ainult esimene siia alla kuuluv tegutsemisstrateegia selline, mis tegelikult üldse reaalsuses võib toimida. See on:

Ohutud AGI-d, ehk tehisintellekt, mis kõige lihtsamalt öeldes on allutatud millelegi Isaac Asimovi kolme robootika seaduse sarnasele – kusagile AGI struktuuri on väga jäigalt, nii et AGI ise ei saa seda muuta, kirjutatud reeglite kogu, mis ühelt poolt koosneb neist mainitud seadustest

  1. AGI ei tohi teo ega tegevusetusega inimesele kahju teha,
  2. AGI peab täitma inimese käsud [kuni need ei lähe vastuollu 1. seadusega] ja
  3. AGI peab säilitama oma eksistentsi [kuni see ei lähe vastuollu 1. ja 2. seadusega]) ja teiselt poolt n-ö toimivast inimese üldkirjeldusest.

Jah, loomulikult tähendab see, et teistsuguseid AGI-sid toota on ränk kuritegu, ja, jah, see tähendab teatud relvastuse võidujooksu, sest teistsuguseid, inimesele ohtlikke AGI-sid suudavad tulemuslikult hävitada neist inimesele ustavatest AGI-dest blade runner'id.

Teine väljapakutud võimalus oleks püüda luua võimalikult inimesesarnaseid AGI-sid. Jääb vaid nõustuda, et see on väga raske ja kõik sellesuunalised ideed sisuliselt mitte millegagi põhjendatud soovmõtlemine – umbes et anname AGI-le (või ASI-le) kõik inimest puudutavad materjalid ja küll ta meid armastama hakkab... Noh, vaadake ümberringi – aga järsku ulub õudusest ja laseb kogu tuumaarsenali korraga lahti?

Kolmas võimalus AGI-sid ohutuna pidada on mõttemänguna asjalik, kuid tundub pöörase riskina, sest põhineb hetkel praktilise katteta teooriatel, nagu näiteks AGI motivatsiooni pärssimine (st see teeb midagi ainult siis, kui küsitakse) või spetsiaalne programmeerimiskeel, mis ei luba "halvaks" minna (see idee sarnaneb muuhulgas kahtlaselt Orwelli "1984" järjest väheneva sõnavaraga keelele...)

Transhumanism

Võtame korraks sisse väga laia pildi – Fermi paradoksi (miks pole kusagil näha supertsivilisatsioone?)

Üks võimalus on, et kusagil on pudelikael, mida on võimatu või peaaegu võimatu läbida. Üks võimalus omakorda on, et selleks pudelikaelaks on ASI  ehk supertehisintellekti sünd, mis selleni jõudnud liigid minema pühib. Ei pruugi tulla suur sõda, ASI ei pruugi inimkonda hävitada – võib-olla piisab motivatsiooni kadumisest, et me välja sureksime? Näiteks ka kõige heatahtlikum ASI võtab meilt igasuguse vajaduse midagi teha ja isegi mõelda? Mis te arvate, kaua läheb, kui me end surnuks joome? Või metslusse tagasi langeme?

Me ei saa end lohutada ei sellega, et ASI loomine osutub võimatuks mingitel objektiivsetel põhjustel, veel vähem aga lapsiku lalinaga, justkui oleks see filosoofiliselt võimatu. Me peame arvestama, et me seisame lähitulevikus vastamisi meid ületava mõistusega.

Me peame arvestama ka selliste stsenaariumitega, mis täna tunduvad ulmelised, kuid väga rumal oleks selliseid võimalusi ignoreerida. Esimeseks von Neumani masinad – ehk tehnika, mis suudab endasarnaseid toota. Neis kontseptsioonides ei ole midagi põhimõtteliselt võimatut, nii et arvutusvõimsuse tohutu kasv millalgi lähimatel sajanditel on tõenäoline stsenaarium.

Charles Stross pakub välja ühe sellise võimaluse, mis ei vaja alguses muud, kui isepaljunevate arvutite kosmosesse saatmist. Suhteliselt lühikese ajaga võib selline koloonia kasvada arvutusvõimsuseni, mis ületab inimese oma samapalju kui inimene harjasussi oma. Väga naiivne on lootus, et see asi ei arene – võimalik, et kohutavalt kiiresti – millekski selliseks, mida me oleme võimelised mõistma sama palju kui harjasuss inimesi.

Transhumanism selles kontekstist tähendaks kõige lihtsamalt öeldes inimese ja arvuti sümbioosi, inimteadvuse laiendamist abivahenditega ja inimteadvuse järkjärgulist avardamist aju määratult ületaval riistvara. Jah, tegemist on puhta ulmega – kellelgi pole hetkel vähimatki aimu, kuidas see oleks võimalik ja mida see õieti kaasa toob.

Ikkagi – üks võimalus on jääda inimesteks ja üritada Kolme Seadusega AGI-d (ASI-d) kontrolli all hoida.

Teine võimalus on kaasa minna ja muutuda millekski, mis ületab tänast homo sapiensi vähemalt sama palju kui meie tarkuselt järgmisi elukaid.


Soovitame lugeda tehisintellekti järjejutu kõiki viit osa:

Järjejutu 1. osa | Tehisintellekt – inimkonna lõpp või vaid järjekordne singulaarsus?

Järjejutu 2. osa | Tänane tehisintellekt kui ohtlik äpu

Järjejutu 3. osa | Paar üldlevinud väärettekujutust tehisintellektist

Järjejutu 4. osa | Mida on tehisintellektist oodata lähiaastatel?

Järjejutu 5. osa | Aga ühel päeval on üldtehisintellekt kohal...

Toimetaja: Marju Himma



ERR kasutab oma veebilehtedel http küpsiseid. Kasutame küpsiseid, et meelde jätta kasutajate eelistused meie sisu lehitsemisel ning kohandada ERRi veebilehti kasutaja huvidele vastavaks. Kolmandad osapooled, nagu sotsiaalmeedia veebilehed, võivad samuti lisada küpsiseid kasutaja brauserisse, kui meie lehtedele on manustatud sisu otse sotsiaalmeediast. Kui jätkate ilma oma lehitsemise seadeid muutmata, tähendab see, et nõustute kõikide ERRi internetilehekülgede küpsiste seadetega.
Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: