Robotitest võivad saada Maa esimesed tõeliselt vastutusvõimelised olendid
Inimesed pole võimelised oma valikuid täielikult läbi mõtlema, sest nende ajus pole loogilist teoreemitõestajat. Tulevikus võivad esimesteks tõeliselt vastutusvõimelisteks olenditeks osutuda seega meie loodud robotid, märgib Eesti Kunstiakadeemia nooremteadur ja filosoof Oliver Laas.
Roboteid kasutatakse üha enam sõjanduses, tööstuses, meditsiinis ja teistes eluvaldkondades. Tõenäoliselt kasvab tulevikus meie ühiskonna sõltuvus õppimisvõimelistest ja autonoomsetest robotitest veelgi. Selle tagajärjel võib tekkida vastutuslünk, sest suureneb selliste tegude hulk, mille eest on keeruline omistada moraalset vastutust kas robotile või selle loojale. Üks viis vastutuslünga täitmiseks oleks moraalse vastutuse mõiste laiendamine ja moraalse otsustusvõimega robotite loomine.
Sõna "robot" pärineb Karl Čapeki 1921. aasta näidendist R.U.R., milles tähistatakse sellega tehases valmistatud tehislikke inimesi, kes teiste heaks töötavad. Kui tehislikud inimesed näidendis olid lihast ja luust, siis tänapäeval nimetame robotiteks mingisuguseid tegevusi automaatselt sooritavaid masinaid. Robotite ideelisteks eelkäijateks on näiteks juudi mütoloogiast tuntud golem ja vanakreeka mütoloogiast tuntud Talos.
Praktilised eelkäijad olid teiste seas Ismail al-Jazari veejõul töötavad automaadid ja Leonardo da Vinci kavandatud robot. 20. sajandi keskel ehitas William Grey Walter ühed esimesed täielikult autonoomsed elektroonilised robotid, mis suutsid iseseisvalt oma laadimisjaamad ruumist üles leida. 1954. aastal leiutas George Devol tööstusroboti, mis paigaldati 1961. aastal New Jersey osariigis tehasesse. Seal sai selle ülesandeks sai valust kuumade metallitükkide väljavõtmine.
Nüüdseks panevad tööstuslikud robotid kokku autosid ja elektroonikat, militaardroonid lendavad missioonidel, saaki koristavad viljakoristusrobotid ja meditsiinilisi operatsioone aitab teiste seas läbi viia Da Vinci robotsüsteem.
Traditsioonilise arusaama järgi on moraalne agent keegi, kes suudab alternatiivide vahel vabalt valida, moraalselt arutleda ja moraalireegleid konkreetsetele juhtumitele rakendada. Teiste sõnadega on moraalne agent keegi, kelle tegusid saab moraalselt hinnata. TEda saab nende eest kas premeerida või karistada. Üldiselt peame me moraalseteks agentideks füüsiliselt ja vaimselt terveid täiskasvanud inimesi, kuid mitte lapsi, loomi ega arvuteid.
Roboti vabaduse astme määrab see, mil määral kontrollib inimene tema tegevust:
- Telerobotitel sisuliselt autonoomia puudub, sest nende iga liigutuse määravad inimesed kaugjuhtimise teel. Asjakohasteks näideteks on kaugjuhitavad droonid ja demineerimisrobotid.
- Inimese järelvalve all töötavatel robotitel on mõningane autonoomia, sest inimese poolt ette antud tegevuste piires saavad nad ise oma liigutusi kontrollida.
- Robot on oma ülesande piires autonoomne, kui inimene püstitab ülesande, kuid robot otsustab selle lahendamise viisi üle iseseisvalt.
- Robot on täielikult autonoomne, kui ta püstitab ilma inimese järelvalveta endale ülesandeid ja neid ka lahendab. Võimalikeks näideteks tulevikutehnoloogia vallast võiksid olla tehisliku üldintellekti juhitavad robotid.
Robotite esimese kolme autonoomsusastme puhul on traditsioonilise arusaama kohaselt selge, et roboti tegude võimalike kahjulike tagajärgede eest vastutab seda juhtinud, selle üle järelvalvet sooritanud või sellele ülesande püstitanud ning elluviimiseks vajaliku programmi loonud inimene.
Täieliku autonoomia puhul ei ole aga enam ilmne, et vastutajaks peaks alati olema inimene. Kui õppimisvõimeline ja täielikult autonoomne auto põhjustab ohvritega liiklusõnnetuse, siis kas selle eest vastutab tootja või auto?
Tootjale vastutuse omistamise võivad keerulisemaks teha järgmised asjaolud:
- Kuna auto riist- ja tarkvara loomisega oli tõenäoliselt nii otseselt kui ka kaudselt seotud suur hulk inimesi, siis ei ole alati tagantjärele selge, kelle otsused või teod lõpuks õnnetuseni viisid.
- Mõned auto riist- ja tarkvara osad võivad olla esialgu loodud mõnel muul otstarbel mõne teise firma või hoopis tarkvara poolt.
- Sarnaselt iseseivalt maletama õppinud programmile võib ka iseseisvalt sõitma õppinud autonoomne auto üllatada oma loojaid senitundmatute liiklemisstrateegiate avastamisega, mida viimastel oli võimatu ette näha.
Üks viis võimalike tulevaste autonoomsete robotite tekitatud vastutuslünga täitmiseks oleks laiendada oma arusaama moraalsetest agentidest selliselt, et lisaks täiskasvanud inimestele saaks ka teatud tingimustele vastavaid autonoomseid roboteid pidada oma tegude eest vastutavateks tehislikeks moraalseteks agentideks.
Rakendusliku poole pealt kerkiks selle lahendusega seoses esile rida probleeme seoses sobivate moraalsete otsustusprotseduuride ja algoritmide leidmisega. Kuidas me saame programmeerida masinaid moraalselt arutlema, kui meil ei ole hetkel üksmeelt isegi inimesi puudutavate moraaliprobleemide lahendamise viiside osas?
Moraalses ja õiguslikus plaanis kerkib esile küsimus, kas masinatele moraalse vastutuse omistamine lihtsalt ei vabasta nende loojaid ja kasutajaid vastutusest? Samuti näib, et oma tegude eest saavad moraalselt vastutada ainult need olendid, kellel on vaba tahe, aga robotite teod on määratud kas nende programmi või juhuse poolt. Mõlemal juhul ei oleks tegemist roboti poolt vabalt valitud teoga, mistõttu ei saaks ta selle eest ka vastutada.
Joseph Emile Nadeau on aga väitnud, et kui me loome kunagi loogilise teoreemitõestaja alusel tegutsevad robotid, oleme loonud selle planeedi esimesed moraalsed olendid. Valik alternatiivide vahel on tõeliselt vaba ainult siis, kui see on täielikult läbimõeldud. Inimesed ei ole võimelised oma valikuid täielikult läbi mõtlema, sest nende ajus pole loogilist teoreemitõestajat. Seega ei ole siiani meie planeedil veel moraalseid agente olnud. Tulevikus võivad esimesteks tõeliselt vastutusvõimelisteks olenditeks osutuda aga meie loodud robotid.
Oliver Laasi kommentaar "Novum" kõlab Vikerraadios reedeti kell 10.45 saates "Huvitaja".
Toimetaja: Jaan-Juhan Oidermaa