Juristid jäävad krattide kasutamise reguleerimisega kimbatusse
Tehisintellekt ehk niinimetatud kratt saab üha rohkem igapäevaseks osaks meie elus, kuid selle õiguslik reguleerimine on keeruline. Justiitsministeeriumis on kavas koostada eraldi tehisintellekti seadus, kuid teadlaste hinnangul nii seda valdkonda reguleerida ei saa.
Tehisintellekt võib olla inimesele suureks abiks, ent paratamatult võib juhtuda, et masin teeb midagi lubamatut ja ühtseid õiguslikke regulatsioone veel pole. "Tehisintellektiga seonduva reguleerimine on maailmas praegu väga ebaühtlane. Pigem töötatakse eetiliste põhimõtetega," ütles Tallinna Tehnikaülikooli õiguse instituudi professor Tanel Kerikmäe.
Tema juhtimisel tegid Tallinna Tehnikaülikooli uurimisgrupp ja advokaadibüroo Tehver ja Partnerid riigikantselei tellimusel uuringu, kus analüüsiti tehisintellekti kasutamist Eesti õiguskorra kontekstis. "Meie leidsime pea 1,5 aastat tagasi, et ei ole otstarbekas ühe seadusega reguleerida tehisintellektiga seonduvaid küsimusi," lausus Kerikmäe. Ta lisas, et ka mitmete maailma tippekspertide arvates on teemat kiusatus asjatult ette- või ülereguleerida.
Praegune justiitsministeeriumi esitatud nn kratiseaduse väljatöötamise kavatsus püüab siiski luua kõikehõlmavat seadust ja selle kohta on professor Kerikmäe koos advokaadibüroo Njordiga andnud arvamuse, et vajalik on täiendavalt hinnata, kuidas asetub uus seadus õigusruumi. Koos Eesti Infotehnoloogia ja Telekommunikatsiooni Liiduga arvatakse, et kui algoritmiliste süsteemide kasutamine Eestis ülereguleeritakse, ei hakata neid Eestis kasutama. Siin tuleb arvestada ka riikide vahelise konkurentsiga ning vältida, et investeeringud liiguvad Eestist mujale liigselt koormava regulatsiooni tõttu.
Justiitsministeerium aga leiab, et uut eraldi seadust oleks vaja, nii seisab ministeeriumi koostatud algoritmiliste süsteemide mõjude reguleerimise väljatöötamise kavatsuse dokumendis. Selgitab justiitsministeeriumi avaliku õiguse nõunik Monika Mikiver. "Me nägime vajadust, et inimeste ja ettevõtjate põhiõiguste kaitseks oleksid teatud ühtsed reeglid, mis kehtiksid kõrgema riskiga süsteemidele," lausus Mikiver.
Näiteks pole kõrge riskiga süsteem veebilehel olev vestlusrobot, mis annab vastuseid lihtsamatele küsimustele. Küll aga kuuluvad kõrge riskiga süsteemide alla näiteks tehisintellektid, mis aitavad hõlbustada inimeste tööle võtmise otsustamist, kui esitatud on näiteks sadu avaldusi ja tehisintellekt peaks sobiva töötaja välja otsima, selgitas Mikiver. Samuti saab kõrge riskiga süsteemiks pidada näotuvastustehnoloogiat.
Mikiveri sõnul on oluline määratleda, millised on kõrge riskiga süsteemid, et ära hoida ülereguleerimist. "Palju on selliseid süsteeme, kus ohte ei teki ja mille puhul oleks tarbetu hakata täiendavaid bürokraatlikke kohustusi kellelegi seadma," rääkis Mikiver.
Tehisintellekti ei tasu pimesi usaldada
Iseõppival tehisintellektil peab silma peal hoidma. "Kui me räägime tehisintellektist, millel on iseõppimise võimekus, siis mõned süsteemid võivad töö käigus ise õppida ja areneda. Isegi kui see käiku laskmise hetkel toimis nõuete kohaselt, võib ta hiljem areneda selliseks, et need otsused ja hinnangud, mis sealt tulevad, on õigusvastased või kallutatud," ütles Mikiver.
Kerikmäe selgitas, et tehisintellekti abi kasutatakse mingil määral USA kohtusüsteemis. "Näiteks Ameerika Ühendriikides on üsna levinud riskihindamise algoritmid, mis paljude andmete läbitöötamise järel ütlevad kohtunikule näiteks, kas isik vabastada kautsjoni kaudu vahi alt," ütles Kerikmäe.
Ta lisas, et seoses sellega on olnud skandaale, kuna soovitused ei pruugi alati olla õiglased kallutatud andmete tõttu, mida algoritm kasutab. "Näiteks oli USA-s märgiline juhtum aastaid tagasi, kus selline tehnoloogia leiti olevat rassistlik, sest see põhines mitte objektiivsetele andmetele, vaid inimeste küsitlusele põhinevale, kus leiti, et tumedanahalised inimesed on iseenesest kuritegelikumad," rääkis Kerikmäe.
Tehisintellekti kasutamise kasv on Kerikmäe sõnul vältimatu: "Hiina on näiteks öelnud, et 2035. aastaks tahavad nad saada kõige võimsamaks tehisintellekti võimestatusega riigiks, et maailmamajandust valitseda. Ka Venemaa president Vladimir Putin on öelnud, et see, kes võidab tehnoloogia võidujooksu, valitseb maailma majandust," lausus Kerikmäe. Seega tundub, et vähemalt demokraatlikud ühiskonnad peaksid leidma ühised standardid ja lähtekohad krattide kasutamiseks.
Euroopa on võtnud kursi, et enne ranget reguleerimist peaks kokku leppima eetilised põhimõtted, mis laienevad rahvusvaheliselt ka mujale. Siiski on Euroopa Liidu riikidel erinevad lähenemised, kuidas võiks reguleerida tehisintellekti kasutamist, ütles Kerikmäe.
"Näiteks Prantsusmaal on rõhuasetus Liberté, Égalité, Fraternité loosungile, ehk vabaduse, võrdsuse ja vendluse printsiibile. Saksamaal on fookus enam privaatsuskaitsel. Näiteks austraallased on enim skeptilised tehisintellekti kasutamise suhtes avaliku sektori poolt. Esinevad erinevad arusaamad, mis ikkagi on usaldusväärne tehisintellekt ja kus seda võib kasutada," lausus professor.
Kerikmäe sõnul on oluline leida ühine keel, et vältida tehisintellekti kasutamisega põhiõiguste riivamise võimalusi. Inimene peaks teadma, mis teenuseid tehisintellekti abil talle pakutakse, rääkis Kerikmäe.
Tehisintellekt ei ole kauge tulevik, vaid mingil määral juba kasutatakse seda. Näiteks maanteeametis aitab teede seisukorda kontrollida tehisintellekt. Haigekassas aitab tehisintellekt prognoosida krooniliste haigete tervist ja
ravivajadusi.
Igasugust automatiseerimist ei saa aga pidada tehisintellektiks. "Kui me jalutame Tallinnas ringi, siis tolmuimejaid, kohvimasinaid ja autosid reklaamitakse läbi tehisintellekti, need on võimestatud selle sõnaga. Igasugune tehnoloogiline uuendus, kus kasutatakse andmeid, ei pruugi kaugeltki olla iseõppiv tehisintellekt," selgitas Kerikmäe.
Tanel Kerikmäe on kirjutanud tehisintellektist umbes 25 kõrgetasemelist artiklit. Suvel ilmus ajakirjas AI & Society Kerikmäe ja Evelin Pärn-Lee artikkel tehisintellekti juriidilistest dilemmadest.