Arvutiteadlane: tehisintellekti ohtude pärast tuleb muretseda enne, kui on liiga hilja ({{commentsTotal}})

Keegi ei tea, kuidas tehisintellekti kontrollida, aga see ei tähenda, et ei peaks proovima.
Keegi ei tea, kuidas tehisintellekti kontrollida, aga see ei tähenda, et ei peaks proovima. Autor/allikas: cns4fn.org

Kui tehisintellekt on juba valmis, on selle ohtude pärast muretsemiseks liiga hilja. Ohutuse kindlustamiseks võib vaja minna 20-30 aasta jagu teadustööd. Louisville'i Ülikooli arvutiteadlane Roman Yampolskiy rääkis ERR Novaatorile antud intervjuus, mis teda tehisintellekti arendamise puhul kõige rohkem muretsema paneb ja milles tehisintellekti ohtude skeptikud eksivad.

Mis paneb teid tehisintellekti arengute puhul kõige enam muretsema?

Kõige enam paneb mind muretsema see, et keegi ei tea, kuidas kontrollida väga intelligentseid ja võimekaid süsteeme. Nad üllatavad meid pidevalt. Me aga peame neid arendama näiteks teaduse jaoks ja tööjõu automatiseerimiseks. Me ei saa lihtsalt loobuda selle tehnoloogia loomisest, peame leidma viisi selle turvaliseks tegemiseks.

Igaüks nõustub, et kaitseväe jaoks arendatavad tapja-robotid on ohtlikud, sest nad on selle jaoks ehitatud. Hea uudis on, et võime otsustada, et neid ei ehitataks samamoodi nagu keemiliste ja bioloogiliste relvadega. Tundub, et ÜROs on rahvusvahelisel tasemel selle nimel häid jõupingutusi tehtud. See on probleem, mida teame, kuidas lahendada. Väga intelligentsete süsteemide puhul kahjuks ei tea.

Ma olen kuulnud mõnelt arvutiteadlaselt arvamust, et tehisintellekti ohtude arutelu ei ole vajalik, sest selle areng ei ole veel seal maal, et ohtlikuks osutuda. Võibolla muutub see hiljem muret tekitavaks, aga praegu veel mitte.

Aga see ongi kogu asja iva! Kui areng on juba hilises staadiumis, on liiga hilja selle pärast muretseda. Meil on vaja aega ohutusmehhanismide arendamiseks. Selleks läheb võibolla 20-30 aastat teadustööd. Palju raskem on luua ohutut süsteemi kui lihtsalt mõnda süsteemi. Selline suhtumine on väga lühinägelik.

Inimesed ütlevad, et parem on muretseda ebavõrdsuse ja diskrimineerimise või muude arusaadavate asjade pärast. Nad arvavad, et peaksime pigem tegelema probleemidega, mis on täna olulised, mitte mõtlema kümne aasta pärast toimuvatele sündmustele. See on halvim viis tehnoloogia ja teaduse tegemiseks.

Seda me tegimegi interneti väljatöötamisel. Öeldi midagi taolist: "Ärge muretsege häkkerite pärast, võtame tehnoloogia kasutusele ja muretseme turvalisuse pärast hiljem." Nüüd kanname selle tõttu iga päev kahjusid. Loodan, et me ei korda sama viga tehisintellektiga.

Kas teie arvates on argumente, mis veenavad mitte keskenduma tehisintellekti ohtudele?

Üks meie avaldatud teadusartiklitest räägib erinevatest viisidest, kuidas tehisintellekt võib muutuda ohtlikuks. Võib väita, et mõned neist on realistlikumad ja mõned vähem. Võime teha vigu programmeerimisel, väärtustega ühildamisel või võivad probleemid tekkida riistvara tõttu. Aga mõned tahaks väita, et neid probleeme ei juhtu.

On aga üks probleem, mida on lihtne oodata ja raske eitada. Halvad inimesed võivad kasutada tehisintellekti kurjasti ära. Iga kord, kui mulle öeldakse, et seda ei juhtu, vastan, et ma teen seda ise. Ma teen seda lihtsalt oma mõtte tõestamiseks.

Neil ei ole sellele vastust, sest nad ei arvestada vaenulikkusega. See on aga küberjulgeoleku standard. Me kaotame igal aastal triljoneid, sest inimesed murravad süsteemidesse sisse, varastavad isikuandmeid ja rikuvad kübertaristut. Väita, et see ei ole probleem, tähendab tegelikkuse eiramist.

Olen näinud statistikat selle kohta, kui palju kulutatakse raha tehisintellekti ohutusele võrreldes tehisintellekti arendamisele üldiselt. Mida Te arvate praegusest rahastusest? Tundub, et tehisintellekti turvalisusele kulutatakse nüüd rohkem raha kui varem.

Raha peaaegu polegi. Seda on umbes 10 miljonit kuni 12 miljonit dollarit, mis on null võrreldes miljarditega, mida kogu maailmas arendamisele kulutatakse. Väide, nagu me raiskaks raha tehisintellekti turvalisuse uurimisele, on rumalus. Olukord on praegu parem ainult sellepärast, et varem ei olnud meil üldse raha.

Raha aitab inimesi värvata, seega seda on rohkem vaja. Aga veel olulisem on probleemi ära tunda. Ma arvan, et ei tohiks olla ühtegi tehisintellekti teadlast, kes ütleb, et ta ei hooli ohutusest. Me peame uuesti määratlema kogu tehisintellekti mõiste. Kui keegi töötab intelligentse süsteemi loomisega ja see pole ohutu, siis ei ole see kasulik vahend. See on põhimõtteliselt pahavara.

Loodan, et toimub nihe, et peaaegu kõik tehisintellekti teadlased on ka ohutuse uurijad, sest nad soovivad veenduda, et nende tooted on turvalised. Näiteks tootjad on kohustatud näitama, et nende loodud toode on ohutu, vastasel korral ei saa nad seda müüa.

Me ei tohiks kasutada tarkvara lähenemist, mille puhul esitatakse kasutajatele 200-leheküljeline leping, milles öeldakse, et probleemid, mis tarkvaraga tekivad, ei ole loojate mure. See on hullumeelne.

Me vajame raha ja andekaid teadlasi, aga veel enam vajame, et terve kogukond hindaks ümber, kuidas nad oma tööd teevad.

Kui raske on inimesi tehisintellekti ohtude osas veenda? Kas olete oma tööga juba edu saavutanud?

Kui mul on aega rääkida kellegagi üks-ühele, siis tavaliselt pärast tunniajast vestlust on nad minuga nõus. See on lihtsalt väga mõistlik ettepanek. Kuidas saab keegi vaielda turvalise tarkvara loomise vastu? Enamasti on inimesed piisavalt arukad, et neid argumente mõista.

Ma töötan praegu paari artikliga, milles analüüsin, miks inimesed tehisintellekti ohtusid ei taha tunnistada. Leian, et sageli on see seotud huvide konfliktiga. Teadlased ei taha oma tööst või rahalistest vahenditest loobuda. On ka võimalik, et nad ei tunne hästi kirjandust, sest arvavad, et me võitleme terminaatoritega. Sellisel juhul on nende reaktsioon filmidele, mitte teaduskirjandusele.

Olen kuulnud teadlastest, kes nõustuvad, et potentsiaalsed riskid on väga suured, aga kes ei usu, et tehisintellekti oleks võimalik luua ohutult.

Meil pole sellest ühtegi tõendit, et probleem on lahendatav. Ma püüan selle nimel töötada, aga siiani pole midagi. Aga lihtsalt sellepärast, et me ei tea, kuidas probleemi lahendada, ei tähenda, et me ei peaks proovima. Me ei tea, kuidas vähktõbe ravida, kuid see ei tähenda, et peaksime laskma inimestel lihtsalt surra.

Vastupidi, proovime veel rohkem pingutada. Kui keegi arvab, et tehisintellekti arendamine võib olla ohtlik ning tal pole selleks lahendusi, siis võibolla ei tohiks ta seda nii kiiresti arendada. Tuleks võtta aega, et mõista, kuidas seda õigesti teha.

Mis Te arvate, millised on kõige realistlikumad ja ohtlikumad tehisintellekti arendamisega seotud probleemid?

Ma olen kirjutanud artikli tehisintellekti ebaõnnestumistest. Ma tõin selles ajaloolisi ja tänapäevaseid näiteid ning tegin ka prognoose sellest, mis võib tulevikus intelligentsete süsteemidega valesti minna.

Tehisintellekt võib olla igal arengutasandil ohtlik. Kui tehisintellekti süsteem kontrollib aktsiaturgusid, võib see viia aktsiaturu krahhini. Isejuhtiv auto võib jalakäijaid tappa ja majadesse sisse sõita.

Kuna sõltume üha enam tehnoloogiast ja tehisintellektist, kasvavad aja möödudes kahjude tõsidus ja probleemide esinemise sagedus. Kui süsteem teeb konkreetset ülesannet, siis varem või hiljem ta selles ebaõnnestub. Kasulik on nendest ohtudest aru saada.

Mis on Teie arvates head võimalused huvilistel selles valdkonnas kaasa lüüa?

Ma võin olla siin pisut kallutatud, aga mulle tundub, et tehisintellekti ohutuse uurijaid ei ole piisavalt. Maailmas on võibolla kümmekond inimest, kes uurivad ohtusid täistööajaga, võibolla sadakond, kes teevad seda osalise tööajaga. Sellest ei piisa, kuna valdkond on nii suur.

Sellel tööl on suurepärased rahalised võimalused ning ilmselt on see üks viimaseid töökohti, mis automatiseeritakse. Vajame inimesi, kes saavad aru masinõppest, kümberjulgeolekust, krüptograafiast ja paljust muust. Selliseid inimesi on väga vähe.

Soovitan inimestel hoida ennast tehnoloogia arenguga kursis, sest see muutub väga kiiresti. Igal nädalal on uus teadaanne. Järgi mõnda inimest, kes selles valdkonnas töötab, näiteks mind Twitteris või kedagi organisatsioonist Deepmind ja Facebook.

Kui keegi on huvitatud, siis mul ilmub augustis raamat "Artificial Intelligence Safety and Security". See on nii üldine kui ka tehniline raamat ja olen selle jaoks kõikide põhiliste ekspertidega koostööd teinud.

Intervjuud on toimetatud.

Toimetaja: Jaan-Juhan Oidermaa



ERR kasutab oma veebilehtedel http küpsiseid. Kasutame küpsiseid, et meelde jätta kasutajate eelistused meie sisu lehitsemisel ning kohandada ERRi veebilehti kasutaja huvidele vastavaks. Kolmandad osapooled, nagu sotsiaalmeedia veebilehed, võivad samuti lisada küpsiseid kasutaja brauserisse, kui meie lehtedele on manustatud sisu otse sotsiaalmeediast. Kui jätkate ilma oma lehitsemise seadeid muutmata, tähendab see, et nõustute kõikide ERRi internetilehekülgede küpsiste seadetega.
Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: