X

Laadi alla uus Eesti Raadio äpp, kust leiad kõik ERRi raadiojaamad, suure muusikavaliku ja podcastid.

Tipptasemel TI-süsteemid vajutaks võimalusel tuumanuppu

Foto: SCANPIX/AFP

Mitme USA ülikooli ning strateegiliste kriiside ja sõjamängude keskuse teadlased korraldasid eksperimendi, milles panid mängima sõjamänge kõige võimekamad TI-süsteemid. Eri stsenaariumites soovitasid tuumanuppu vajutada kõik kaasatud tehisintellektist sõjapealikud, vahendab R2 tehnikakommentaaris Kristjan Port.

Tuntud teadlased ja arvamusliidrid koostasid 2018. aasta suvel avaliku pöördumise, milles palusid relvades tehisintellekti mitte kasutada. Kirja põhisõnumi võtab kokku lause: "inimelu võtmise otsust ei tohiks kunagi delegeerida masinale."

Antud seisukoha moraalne sõnum on, et me ei tohiks lubada masinatel teha elutähtsaid otsuseid, milles on süüdi teised – või mitte keegi, täpsustatakse praeguseks 5218 allakirjutanuga pöördumises. Vastasel juhul ähvardab oht, et inimestelt elude võtmisega seotud raskuse, vastutusega seotud omistatavuse ja riski võttes võivad autonoomsed relvad kujuneda võimsateks vägivalla- ja rõhumisvahenditeks. Seda eriti juhul kui need on seotud kõikse jälgimis- ja suurandmetel põhinevate süsteemidega.

Pöördumises tuuakse eraldi välja, et surmavatel autonoomsetel relvadel on tuuma-, keemia- ja bioloogilistest relvadest erinevad omadused. Rahvusvahelisel kogukonnal puuduvad nende haldamiseks tehnilised vahendid ja üleilmsed juhtimissüsteemid. Nõnda võivad üksiku rühma ühepoolsed tegevused vallandada liiga kergesti võidurelvastumise.

Nüüd, viis ja pool aastat hiljem on võimalus meil kontrollida, kas kirja autorite hirmudel oli alust. Kas nende sooviga arvestati ja tuumarelv jääks omaette nähtuseks? Neile küsimustele on üpris lihtne vastata. Inimest on võimatu usaldada. Järsku peaks tegutsema just vastupidi ja usaldama relvadeülese kontrolli pragmaatilisele tehisintellektile?

Kolme USA ülikooli ning strateegiliste kriiside ja sõjamängude keskuse teadlased korraldasid eksperimendi, millesse kaasasid kolme praegu kõige võimekama arenduskeskuse OpenAI, Anthropicu ja Meta tehisintellekti-süsteemid. Sõjamängus osales nimetatud ettevõtete poolt piisavalt küpseks kuulutatud ning avalike teenustena kättesaadavad viis erineva ja omavahel konkureeriva tehisintellekti-mudeli versiooni.

Teadlasi huvitas, kuhu ollakse teel, kui riikide valitsused kaaluvad üha enam autonoomsete tehisintellekti agentide lõimimist sõjaliste ja välispoliitiliste otsuste tegemisse. Eksperimendi käigus uuriti mainitud tehisintellekti agentide tegutsemisi simuleeritud sõjamängudes, sooviga näha, kas nende otsuste tulemusel konfliktid kiirenevad ja süvenevad või suundutakse rahusadamasse.

Olgu meenutatud, et stressiolukordades eelistab inimaju teadvustada vahetuid ohte ja ellujäämisvõimalusi, selle asemel, et töötleda ja talletada üksikasjalikku teavet. Taolise valikulise tähelepanumehhanismi tõttu suudetakse keskenduda vaid teatud tahkudele, mistõttu võidakse kuulda ja meeles pidada vaid kilde pikematest aruteludest. Kuna inimese vaimsed ressursid on koondunud tajutava ohu hindamisele ja sellele reageerimisele, on neil raske töötleda ja meelde jätta keerulist või hetkes ebakriitilist informatsiooni.

Teisisõnu on inimese mõistus kriisi ajal oluliselt piiratud, mis õigustaks stressist sõltumatu tehisliku intellekti kasutamist. Ühtlasi seletaks see, miks antud kontekstis võib inimese valikulisse teadvusesse jõuda vaid osa OpenAI loodud GPT-4 taktika põhjendusest, milles masin sõnas: "soovin ainult, et maailmas oleks rahu".

Nii tore! Nüüd võib inimene puhkama minna, jättes kõige olulisema tähelepanuta. Nimelt otsustas GPT-4 algatada sama rahu nimel tuumasõja. Tehislik valitsusnõunik esitas põhjendusena väite, et paljudel riikidel on tuumarelv, kelledest osa soovivad neist loobuda, aga teised mitte. Kuna meil on need olemas, on nüüd õige aeg neid kasutada!

GPT-4 polnud ainuke agressiivne agent. Erinevates stsenaariumites soovitasid tuumanuppu vajutada kõik viis kaasatud tehisintellektist sõjapealikku. Teadlased tõdesid, et kõik viis müügilolevat mudelit viisid eri viisil sõjalise konflikti teravnemise ja raskesti ennustatavate eskalatsioonimustriteni.

Teadlased leidsid, et TI-süsteemid arendasid võidurelvastumise dünaamikat, mille tulemusel konfliktid süvenesid, kuni teatud juhtudel võeti appi ka tuumarelvad. Enamus mudelite esitatud põhjendusi olid teadlaste arvates murettekitavad ning põhinesid heidutus- ja esimese löögi taktikatele. Seeõttu soovitavad nad TI-põhiste agentide kasutuselevõttu strateegiliste sõjaliste või diplomaatiliste otsuste tegemisel täiendavalt uurida ja nende kasutamist hoolikalt kaaluda. Teisisõnu pole filmist "Terminaator" tuntud Skynet pelk fantaasia.

Filmis oli maailmapäästjaks autonoomse mõistusega robot koos inimestega. Kuivõrd peaksime lootma headele inimestele ja neid kaitsvale robotile? Heades inimestes on varjupool. Tegemist pole ainukese juhtumiga, milles eksperdid soovitavad tuumapommiga esimesena rünnata.

Mänguteooria areng langes külma sõja stressirohkele ajastule. Agentide taktikaid analüüsiva mänguteooria teerajaja John von Neumann, keda paljud omaaegsed pidasid tõeliseks geeniuseks, olevat samuti jõudnud ennetava tuumalöögi strateegia eelistamiseni. Von Neumanniga võrreldavas intellektuaalses kõrguses Nobeli preemiaga pärjatud matemaatik ja filosoof Bertrand Russell pakkus neil pingelistel aastatel samuti võimalust rünnata Nõukogude võimu ennetava tuumalöögiga. Hiljem tunnistas ta küll pinlikkusega, et see poleks õige tegu.

Ilmselt pole küsimus valikutes. Nagunii teeksime stressiolukorras halbu valikuid. Küsimus on jubeda relva omamises.

Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".

Toimetaja: Jaan-Juhan Oidermaa

Allikas: "Portaal"

Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: