Puudulik seadusandlus laseb küberpättidel karistamatult roboteid petta

Nutiseadmetest ja arvutisüsteemidest kubisev maailm avab küberpättidele süütute ära kasutamiseks üha uusi võimalusi. Samal ajal pelgavad aga teadlased õigusliku raamistiku puudumise tõttu turvariskide otsimist, misläbi peab ühiskond vähemalt praegu õppima kuritegevuse põhjustatud rasketest vigadest, nendib R2 tehnikakommentaaris Kristjan Port.
Kui robotid nalja ei mõista, siis kas naljamehed on kurjategijad? Elame maailmas, mis pole ainuüksi vahendatud ja ühendatud, vaid ka üha intelligentsem. Nimetatud intelligentsusel on aga piirid. Umbes sellise mõtte leiab viie Washingtoni ülikooli teadlase kirjutatud esseest teemal, kas roboti petmine on häkkimine.
Küsimus nutika masina tüssamisest sisaldab väljakutseid nii õigusloomele kui ka elukorralduslikke valikuid nähtamatumalt suunavatele eetilistele arusaamadele. Igapäevaellu lisandub üha rohkem intelligentseid masinaid, millele usaldatakse teostamiseks kasvavalt suurema väärtusega ülesandeid. Nende hulka kuuluvad näiteks valvesüsteemid, transport, erinevad raviga seotud tegevused, rahandus jne.
Näiteks levis äsja meedias uudis Hiinast, kus punase tulega tänavat ületavate jalakäijate korrale kutsumiseks võeti Shenzheni linnas kasutusele valvekaamerate süsteem. Keelatud ajal üle tänava jalutades fikseerib kaamera patustaja näo, misjärel pannakse ta veebikeskkonda loodud virtuaalsesse häbiposti.
Ent lisaks piltidele, mida on kümne kuuga kogunenud üle 14 000, ja millede vaatamine huvitab ilmselt väheseid, otsustas süsteemi haldaja täiustada turvateenust nägude tuvastamise tarkusega. Edaspidi kavatsetakse inimene pildilt ära tunda ja edastada talle seejärel telefoni hoiatav lühisõnum. Järgmises faasis saab ta juba trahvinõude. Huvitav, kas kellegi teise kodaniku näoga tänava ületamine oleks seadusevastane. Kui jah, siis millist seadust rikutakse?
Nägude tuvastamine on vaid üks uue nutika tehnoloogia põlvkonna rakendusi. Essee viiest autorist kolm näitasid, kuidas kasutasid nad teadmisi masinõppe võimalikest puudustest, et panna isejuhtivat autot tõlgendama STOP-märki hoopiski kiiruspiirangut tähistavaks märgiks. See kutsus autos pidurdamise asemel esile kiirenduse. Reaalses liiklusolukorras võivad olla sellisel riukal rasked tagajärjed. Süüdioleva osapoole karistamiseks on olemasolevad seadused tõenäoliselt ebapiisavad. Põhjuseks on nutika tehnoloogia põlvkonna tüssamiseks kasutatavate tehniliste ja käitumuslike võtete uudsus.
Essee autorid hoiatavad vähemalt kolmest erinevat sorti probleemist. Ühest oli juba juttu. Selleks on uudsete kuritegude ja olemasoleva õigusliku raamistu puuduliku ühtelangevuse tagajärjed. Näiteks ei saa kurjategijat karistada. Teiseks on vastavate seaduste puudumisel või nende ebapiisavuse tõttu halvatud vajalike turvameetmete arendamine. Ka sellistel meetmetel peab olema õiguslik raamistik.
Viimaseks ja autorite arvates kõige ohtlikumaks on tehnoloogia turvalisuse uurimist kammitsev olukord. Uue tehnoloogia nõrkuseid uurivad põhimõttelisel kaks huvipoolt: kurjategijad ja teadlased. Seaduste puudulikkus kammitseb teadlaste tegevust, sest nad võivad sattuda nii seaduslike kui ka eetiliste normidega määratlemata halli tsooni. Selles tegutsemisega seonduvate riskide tõttu ei taha ülikoolid seda rahastada ega tegijad oma tulevikuga riskida.
See asjaolu kurjategijaid ei sega. Nutika tehnoloogia petmise võimalusi on palju ja võimalikult paljude väljaselgitamisel peaks teadlastele võimaldama edumaad. Vastasel juhul peab ühiskond õppima kuritegevuse põhjustatud rasketest vigadest.
Huvitavate võimalustena saaks õppivale masinale tutvustada keskkonda kirjeldavaid, kuid natuke modifitseeritud signaale näiteks piltidena hoiatavatest siltidest. Selle tulemusel reageerib masin teatud tüüpi hoiatavat silti märgates valesti või seiskub. Autorid kirjeldavad kaubanduslikku pildianalüüsi programmiga tehtud eksperimenti, milles õnnestus muuta uurijatel see rumalamaks, edastades sellesse teatud moel kohandatud pilte. Selle tagajärjel ei osanud tarkvara enam pildilt koera ära tunda. Eksperimenteerijad teadsid masinõppe-algoritmide nõrkusi.
Kuid milline seadus keelab selle teadmise kasutamist ja näiteks populaarsete veebiteenuste pildituvastamise programmidele rumaluse õpetamist? Eksivaks muudetud teenusel võivad olla tõsised sotsiaalsed tagajärjed näiteks vigadena isikute tuvastamisel.
Samuti võib peita näiteks telereklaami inimestele tajumatuid, kuid nutikast masinast koduassistendile käskudena mõjuvaid helisignaale, mille tulemusel lekitab see maailmale peremehe või perenaise isiklikku infot. Poevaras võib kanda näole kosmeetikat moel, mis eksitab turvakaamera tarkvara. Varastada ei tohi, aga kes keelab näole teatud kohtadesse täppe joonistamast?
Lõpetuseks olgu meenutus piinlikust juhtumist Microsofti tehisintellektile rajatud ja maailmaga säutsude teel suhtleva virtuaalse neiuga Tay. Temaga suhtlema saabunutelt inimesele sobivat ülalpidamist õppides muutus esialgu kena käitumisega neiu lühikese ajaga vulgaarseks, rassistlikuks ja seksiteenuseid pakkuvaks Hitleri imetlejaks. Seega on võimalik, et tulevikus muutub inimese tüssamisel lubatud naljatamine roboti puhul kuriteoks. Robotid ju nalja ei mõista.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Jaan-Juhan Oidermaa
Allikas: "Portaal"