Tehisintellekti uurija: (tapja)robotid vajavad inimlikke väärtushinnanguid   ({{commentsTotal}})

Autor/allikas: GLAS-8/Creative Commons

Mets polnudki mets, vaid endine kindlustuspiirkond. See oli sõna otseses mõttes pungil täis automaatlahinguseadmeid: iseliikuvaid kahureid, roomikrakette, leegiheitjaid, gaasipuhureid; ja see kõik polnud ka kahekümne aastaga surnud, vaid elas edasi oma tarbetut mehaanilist elu – sihtis ja sülitas tina, tuld ja surma ...

Vendade Strugatskite poolt romaanis „Asustatud saar“ kirjeldatava stseeni Maal nägemine muutub seoses tehnika arenguga järjest tõenäolisemaks. "Robotsõdurite eksistentsi väärtus sõltub vaid nende valmistamiseks kulutatud toorainest, energiast ja ajast, mis muudab nende rakendamise eriti ahvatlevaks. Sõrme piltlikult öeldes päästikul hoidmiseks ei pea masinad olema seejuures isegi kõige nupukamad. ERR Novaator istus maha California-Berkley ülikoolis nimeka tehisintellekti uurija Stuart Russelliga, et küsida, kuidas stsenaariumi realiseerumist vältida.

Mida teadlased autonoomsete relvasüsteemide tehisintellektist ja nende autonoomsusest rääkides nende mõistete all üleüldse mõtlevad? Usun, et paljud, kui mitte enamik inimesi näeb tehisintellekti silme ette manades filmidest tuttavaid inimkonda anastavaid masinaid või inimlike eksistentsialistlike probleemide käes vaevlevaid humanoidse välimusega roboteid.
Tehisintellekt on väga lai mõiste, haarates enda alla kõik alates isesõitvatest autodest Siri- ja Cornata-sarnaste telefoniabilisteni välja. Autonoomsed relvasüsteemid eristuvad neist peamiselt selle poolest,nagu nimigi ütleb, et need kannavad relvi. Kuid seda öeldes pole nad väga erinevad tark- ja riistvarsüsteemidest nagu Google'i isesõitvad autod. Nad võivad liikuda maismaal, kuid esmajoones loodetakse neid paigaldada õhusõidukitele, kuna see pakub neile suuremat paindlikkust, kiirust ja hõlbustab nende hoonetes liikumist

Tehisintellektist, mis meil praegu on, piisab täielikult, et toota äärmiselt tõhusaid autonoomseid relvi. Kuigi kindlasti annab rohkem ära teha, näiteks täiustada nende planeerimisoskust ja nende suhtlusoskust teiste omataoliste süsteemidega, et formuleerida käigupealt uusi tegevusplaane. Selles valdkonnas tehakse tõsist tööd. Näiteks USA kaitseuuringuprojektide agentuuri CODE (Collaborative Operations in Denied Environment) projekti juhtiv Jean-Charles Lede ütles hiljuti selgelt välja, et ta tahab midagi, mis peab jahti karjades nagu hundid.

Jean-Charles Lede ütles hiljuti selgelt välja, et ta tahab midagi, mis peab jahti karjades nagu hundid.

On mõistetav, et tehisintellektist rääkides valitseb suur segadus. Hiljuti Genfis toimunud tavarelvade konventsiooniga (CCD) ühinenud riikide kohtumisel oli üheks minu ülesandeks diplomaatidele lihtsas keeles selgitada, mida täpselt selle ja autonoomsuse all mõeldakse. Mõned arvasid, et autonoomsuse eelduseks on süsteemide teadvusel olek. Nad olid mures selle pärast, et teadvusel olevad süsteemid muutuvad kurjadeks, pahatahtlikeks, üritavad maailma üle võtta jne.

Kuigi tegelikult sõltub autonoomia omamine vaid sellest, millal ja kuidas mõni otsus langetatakse ning mil moel suhestub see parasjagu süsteemi jõudva sisendiga. Tehnilisest vaatenurgast pole raske eristada autonoomset otsuste langetamist mitteautonoomsetest protsessidest.

Oled viimasel ajal tundnud muret DARPA projektide FLA ja CODE suhtes. Arvestades, et mitmetel USA laevadel on juba relvad, mis hävitavad autonoomselt nende suunas liikuvaid rakette, ja Lõuna-Korea on paigutanud demilitariseeritud tsooni kuulipildujatega varustatud autonoomsed relvasüsteemid, siis mis neid kahte eelnevatest eristab?
Mitte keegi muretse laevade kaitsesüsteemide pärast, kuna need ei tapa inimesi, vaid rakette. Rahuajal ei tohiks muidugi laevu üldse rakettidest tulistada. Korea demilitariseeritud tsooni paigutatud relvasüsteemide puhul on tegu väga erilise juhtumiga. Kuigi ka sel juhul võib olla tegu ikkagi rahvusvahelise õiguse rikkumisega. Kui süsteem töötab parasjagu autonoomses režiimis, siis tapab see valimatult nii tsiviilelanikke kui sõdureid. Need ei suuda ühte teisest eristada.

Õnneks ei tohiks demilitariseeritud tsooni tsiviilelanikke sattuda. Lisaks hoiab Lõuna-Korea süsteeme vähemalt enda väitel poolautomaatses režiimis, misjuhul teeb lõpliku otsuse ikkagi inimene. Kuid see on libe tee. Tehnoloogiaga, millest inimesed räägivad ja mida DARPA projektid illustreerivad, on veidi teine lugu.

Ei pea olema geenius, et need kaks asja kokku panna ja ette kujutada, milliseid relvasüsteeme neid kahte aluseks võttes luua saab.

 

FLA (Fast Lightweight Autonomy) käigus arendatakse universaalset multikopteril põhinevat platvormi, mis mahuks läbi akende ja liikuma siseruumides. Lõpptulemusena sünniks kvadkopter, mis suudaks navigeerida tundmatus keskkonnas iseseisvalt ilma GPS-i ja juhendajata. Seda kõike suurel kiirusel, kuni 45 km/h. CODE programmi kommenteerivad ametnikud ütlevad küll, et parves liikuvaid droone kontrollib inimene, kuid parv suudab õhus püsida ja takistusi vältida ka puhkudel, kui keegi või miski operaatori ja droonide vahelist sidet segab. Need on de facto autonoomsed.

Ei pea olema geenius, et need kaks asja kokku panna ja ette kujutada, milliseid relvasüsteeme neid kahte aluseks võttes luua saab.

ÜRO tavarelvade kasutust käsitleval konverentsil oma eksperthinnangut pakkudes oli Sul võimalik autonoomsete relvasüsteemide keelamise kaalumiseks algatatud otsustusprotsessi vahetult kõrvalt näha. Kui tõenäoliseks pead mõne valdkonda reguleeriva rahvusvahelise leppe sündi, arvestades valdkonnas liidripositsioonil olevate USA, Suurbritannia ja Iisraeli vastuseisu?
Seda on raske öelda. Eriti juhul, kui see jääb CCD otsustusprotsessi raamesse, mis põhineb konsensusel. Kui mõni suurvõim ei taha, et asjad edasi liiguksid, on see raske. Kuid on ka teisi võimalusi. Ma ei ole rahvusvaheliste lepete osas ekspert, kuid mulle on öeldud, et valitsustele otsese surve avaldamine ja sarnaste küsimuste ÜRO üldassambleel tõstatamine, näiteks maamiinide puhul, on varasematel aegadel vilja kandnud.

CCD üks viimaseid edulugusid on pimestavate laserrelvade keelustamise protokoll, mis võeti vastu 1995. aastal. See on praegusega analoogne, kuna meil on juba neid relvi arendav ja tootev tööstus ning sõjaväed kaalusid juba nende kasutuselevõttu. Sõdurite pimestamine ei meeldinud millegipärast inimestele ja avalikkus tõstis protestikisa. Võib küsida, kas pimedaks jäämine on parem kui surnud olemine. Ent kuulsin seejuures ka küünilist õigustust – pimedaks jäänud veteranide eest nende terve ülejäänud elu hoolitsemine on kallim kui üks surnud veteran. Inimõiguslased näitasid toona lisaks pilte gaasi ja fosforpommide tõttu pimedaks jäänud sõduritest ja see oli väga mõjus.

Autonoomsete relvade mõju sõjapidamisele oleks aga tunduvalt suurem. Nende arendamine on USA-le ja Suurbritanniale meeltmööda, kuna neil on valdkonnas selge tehnoloogiline eelis ja USA näib pidevalt osalevat asümmeetrilistes sõjalistes operatsioonides linnastunud piirkondades. Selle taga on märkimisväärne inerts. Ma kardan, et juba on hilja. Oleksime pidanud nende keelamist kaaluma juba kümne aasta eest.

Oleksime pidanud nende keelamist kaaluma juba kümne aasta eest.

Konverentsil osalejad keskendusid minu tähelepanekute järgi peamiselt küsimusele, kas autonoomsed relvasüsteemid ja rahvusvaheline humanitaarõigus sobituvad. Teisisõnu, kui asendad droonipiloodi tehisintellektiga, siis kas autonoomne süsteem suudaks eristada sõdureid tsivilistidest ja mõista sõjalise vajaduse kontseptsiooni. Isegi vastase sõdureid ei saa valimatult nottida. Debati fookus oli minu arvates aga vale. Neid küsimusi saab lahendada inseneriteadus ja vastused muutuvad seega ajas. Pigem peaksime ennetama uut sõjalist võidujooksu, mille lõpptulem pole selge.

Milliste autonoomsete relvasüsteemideni me jõuda võime?
Ma üritasin anda delegaatidele aimu näiteks taoliste süsteemide füüsikalistest piiridest, mille seab inimeste füüsiline suurus ja vastupanuvõime. Sa ei saa tappa neid paberikuuliga. Õnneks on keemiarelvade kasutamine illegaalne, mis välistab inimeste mürgitamise. Kuigi maailma sõjaväed on kahtlemata kaalunud kärbsesuuruste robotite loomist, mida saaks kasutada märkamatult erinevate mürkide või närviagentide manustamiseks

Sellele vaatamata võib inimeste tapmiseks piisata väga väikesest kogusest lõhkeainest. Suundlaenguga saab inimpea augustada grammi lõhkeainega. Laengu kohale toimetamiseks piisab putukasuurusest robotist täiesti. Lisaks ei tasu unustada, et inimeste nõrkuseks on nende silmad. Läbi nende aju tulistades piisab väga väikestest kuulidest, mida kasutavate ülitäpsete autonoomsete süsteemide loomine pole teab kui keerukas.

Selliste võimalustega maailmas elad ilmselt nii sina kui sinu lapsed, kui me selles vallas tehtavat arendustööd ei keelusta ja lõpeta.

Inimesed on osutanud, et surmavad autonoomsed relvasüsteemid rikuksid inimväärikuse alustalasid, kuna masinad saaksid valida, keda nad tapavad. Ent kas taolised masinad ei teeks otsuseid inimeste poolt seatud kriteeriumite alusel, käitudes seeläbi kuulekate sõdurite või droonipilootidega?
Kuigi see vastab tõele, et inimesed teeksid otsuse üks või teine autonoomne relv käiku lasta, oleks see sisuliselt analoogne olukorraga, kus inimene käivitab maleprogrammi, et astuda lahingusse Garry Kasparovi vastu. Inimene annab talle vaid juhise: „Võida!“. Autonoomsete relvade puhul oleks selleks „Otsi ja hävita kõik, kes võivad olla vaenlased“. Stseen, kus inimesi jahiks napi käsu alusel robotid, muudaks minu arvates radikaalselt seda, kuidas me inimelu käsitleme.

Sellele küsimusele on raske vastata, kuna see on täiesti uue moraalifilosoofia tallermaa. Ent ma arvan, et taoliste otsuste masinate kätte usaldamine viiks paratamatult inimelu devalveerumiseni. Analoogne oleks lasta robotitel kellegi vangistamise üle otsustada. Usun, et taolises maailmas ei tahaks enamik inimesi elada.

Mida siis tehisintellektiga robotitega teha? Oled märkinud, et masinad ei tohiks kunagi väga kahjulikud olla, kui nad jagavad inimestega samu moraalseid väärtusi. Ent kuidas praktikas tehnilisest küljest see välja peaks nägema? Inimeste seisukohad võivad ajas vägagi altilt muutuda...
See on keeruline probleem nii filosoofilisest kui matemaatilisest küljest. Vähemalt juhul, kui tahame seda õigesti lahendada. Esiteks tuleb mõista, et on väga keerukas ise väärtustele tähendust omistada ja need programmi kirja panna. Asimovi seadustest alustades oleme juba eos läbikukkunud. Näiteks ütleb neist üks, et „sa ei tohi oma tegevuse ega tegevusetusega inimesele kahju teha“. Mida see tähendab? Kõike, mis muudab mu enesetunnet halvemaks või kahandab minu silmis minu väärtust, võib pidada kahjuks.

Asimovi seadustest alustades oleme juba eos läbikukkunud

Asimov töötas ja sõnastas oma seadused ajal, mil inimesed ei arvanud tõenäosusest õieti midagi. Nad mõtlesid loogikal põhinevates mõistetes ja reeglites. Kuid kui Asimovi esimest reeglit tõsiselt võtta, siis kas robot peaks üritama kinni püüda iga UV-footoni, mis tänaval kõndivat inimest tabab, et vältida võimalust, kus inimese DNA kahjustada saab, mis päädib surmava nahavähiga.

Robot peab suutma mõista kompromisse, mida inimesed teevad. Nad vahetavad pidevalt hüvesid surmariskide vastu, olgu selleks kaubanduskeskusesse piima järele sõitmine või langevarjuhüpete sooritamine.

Nii peaksime me kasutama teistsugust lähenemist ja kõige üleskirjutamise asemel laskma neil endil inimkäitumist jälgida. Eeldusel, et inimkäitumise taga on nende tahtmised, inimesed on samal ajal sageli ebaratsionaalsed, äärmiselt muutliku iseloomuga, järgides mõnikord oma südametunnistust, teistel juhtudel mitte jne... Mõned on psühhopaadid, teised hoolivad vaid teistest, rääkimata kultuurilistest erinevustest.

Tehisintellektil on juba ainuüksi raamatutest, filmidest ja ajalehtedest võimalik saada inimkäitumise kohta massiivses koguses teavet selle kohta, kes läheb vanglasse ja kes peaks medalid kaela saama. Tehniliselt saavad nad sellest destilleerida inimväärtuste kvintessentsi, omistades õppimise teel erinevatele tegevustele teatava skoori. Pole välistatud, et tulemus on päris jube. Näiteks nendivad nad seepeale, et inimesed on isekad, kurjad, ihnsad ja vägivaldsed olendid ning kui tahad, et ma neid väärtusi tõesti järgin, tuleb sellest katastroof.

Ent samas õpiks nad selle käigus näiteks, et hommikul kohviubade jahvatamine ja sellele aurava vee kallamine teeb inimesed rõõmsaks. Vähemalt hommikul oleks seeläbi inimväärtuste osaks kohvi joomine.

Kuid mitte miski ei keela meid seadmast omapoolseid piiranguid. Alustuseks pole mingit põhjust, miks peaks robotite väärtuste süsteemi lisama nende eksistentsi puudutavaid elemente. Enesealalhoiu instinkt oleks täiesti ebaoluline kuni piirini, kus inimestele robotite olemasolu tähtis on. Robotid peaksid olema matemaatilises mõttes täiesti isetud. Seda annab teha.

Pole välistatud, et tehisintellektil hakkavad olema meist kõrgemad moraalsed väärtused.

Pole välistatud, et tehisintellektil hakkavad olema meist kõrgemad moraalsed väärtused. Näiteks Steven Spielbergi filmis „A. I. Tehisintellekt“ näidatakse roboteid väga heast küljest. Samal ajal kui inimesed roboteid põletavad ja neid happega üle kallavad, tõestamaks, et neil puudub teadvus ja õigused. Pärast selle kinodesse jõudmist sain kõne ühelt San Diego nädalalehe usurubriigi toimetajalt. Ootasin, et hakkame vaidlema inimeste õiguse üle jumalat mängida. Tegelikult tahtsid nad teada, kas poleks mõtet inimestest nende kohutava käitumise tõttu lahti saada ja asustada Maa kenade moraalselt käituvate robotitega. Kuigi arvan, et me ei saa tegelikult hetkel midagi tehisintellekti moraalsete väärtuste kohta öelda, kuna ei tea isegi, kas sellel hakkab teadvus olema.

Oled tehisintellekti uurimisega tegelenud juba üle 30 aasta. Mis üldotstarbelise tehisintellekti loomist pidurdab ja kui kaugel midagi sellist olla võib?

Tehisintellekti loomise üheks peamiseks väljakutseks jääb otsuste langetamine. Leidsin juba 1980. aastatel, et täielikult ratsionaalsete otsuste langetamine on võimatu, vähemalt inimeste käsutuses olevate arvutusressursside kontekstis.

Üheks võimaluseks oleks mitmete tasanditel abstraktsioonide kasutamine ehk rakendada hierarhilist otsuste tegemist. Olevikule lähenedes muutuvad tegevusplaanid järjest detailsemaks. See sarnaneb inimeste käitumisele. Me ei mõtle hommikul üles tõustes, kuidas täpselt me tööle minnes ühe jala teise ette paneme. Selle saavutamine on küllaltki võimalik. Meil on juba praegu süsteeme, mis suudavad kaugele ette mõelda. Kuid ma ei tea, kas see toimiks üldotstarbelises tehisintellektis täpselt samamoodi nagu inimesed seda teevad.

Tasub rõhutada, et üldotstarbelise tehisintellekti sünniks peavad juhtuma veel mitmed läbimurded, milleni jõudmise täpset aega on tegelikult võimatu ette ennustada

Ja viimaks, mida insenerid tehisintellekti probleemi kallal töötades meeles peaksid pidama? Olid sõna otseses mõttes esimene, kes kirjutas jaanuaris alla avalikule pöördumisele, milles innustati tehisintellekti kallal töötavaid teadlasi pöörama lisaks nende üldise võimsuse kasvatamisele tähelepanu ka nende heasoovlikkusele ning õpikust „Artificial Intelligence: A Modern Approach“ leiab lausa vastavateemalise peatüki...
Nad peaksid küsima, mis on tegevusvaldkonna üldine arengusuund ja kui me selles suunas jätkame ning meid edu saadab, siis kas see oleks hea. Kui vastus on eitav ja see võib viia katastroofini, siis pole vahet, kui kaugel see murdepunkt on. Suunda tuleks muuta juba praegu. Sama olukorda kirjeldaks kuristiku poole sõitev auto, mille juht lohutab kaasreisijat sõnadega: „Ära muretse, küll kütus enne seda otsa saab“.

Sama olukorda kirjeldaks kuristiku poole sõitev auto, mille juht lohutab kaasreisijat sõnadega: „Ära muretse, küll kütus enne seda otsa saab“.

Paralleeli saab tuua termotuumaenergeetika vallas tehtava uurimistööga. Algne eesmärk oli vastata küsimusele, kas saame selle abil suures koguses energiat toota. Selgus, et saame, vähemalt termotuumapomme plahvatama pannes, kuid see oli selgelt vale suund. Nüüd töötab 99,9 protsenti valdkonnas tegevaid teadlasi probleemi kallal, kuidas reaktsiooni ohjes hoida ja sellest kasulikku energiat saada. Valdkonnas töötavad teadlased ei nimeta end tuumareaktsiooni ohjamist uurivateks tuumateadlasteks, vaid nad peavad seda valdkonna loomulikuks osaks.

Sama peaks juhtuma tehisintellekti uurijatega. Autonoomsete süsteemide loomine peaks olema vastavuses inimväärtustega, et uurimistöö tulemusel ilmutatav intelligentne käitumine oleks inimestele ka tegelikult meelepärane

Siiani on see olnud küllaltki lihtne. Süsteemide keerukus oli piiratud – nad mängisid maailma üle võtmise asemel malet. Kasulikum programm tähendas lihtsalt paremini malet mängivat programmi, kuid see kõik on muutumas. Me oleme juba näinud, millise katastroofini võivad viia börsil kauplevad arvutiprogrammid. Võib vaid oletada, millega võib päädida analoogne möödalask sõjalises kontekstis.



Nakatumine HPV-ga võib seostuda kasvajate tekkega

HPV vaktsiinist: ausalt ja emotsioonideta

Järgmisest aastast saavad Eesti tütarlapsed vaktsineerida end tasuta inimese papilloomiviiruse vastu. Sõltuvalt vaktsineeritute arvust on võimalik sellega nende eluea jooksul hoida ära kümneid surmaga lõppevaid vähijuhtumeid. Teaduspõhise otsuse kasulikku mõju ähvardavad aga ühismeedias kriitikameeleta jagatavad postitused.

ERR kasutab oma veebilehtedel http küpsiseid. Kasutame küpsiseid, et meelde jätta kasutajate eelistused meie sisu lehitsemisel ning kohandada ERRi veebilehti kasutaja huvidele vastavaks. Kolmandad osapooled, nagu sotsiaalmeedia veebilehed, võivad samuti lisada küpsiseid kasutaja brauserisse, kui meie lehtedele on manustatud sisu otse sotsiaalmeediast. Kui jätkate ilma oma lehitsemise seadeid muutmata, tähendab see, et nõustute kõikide ERRi internetilehekülgede küpsiste seadetega.
Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: