OpenAI lasi liiga ohtlikuks peetud tehisintellekti lõpuks vabadusse
Inimkonna laiema hüvangu nimel tehisintellekti arendav ettevõte OpenAI otsustas viimaks avalikustada inimautoritele iseloomulikku teksti loova algoritmi lähtekoodi, vahendab R2 tehnikakommentaaris Kristjan Port.
Lõppeva aasta veebruaris paisutas fantaasiaid uudis OpenAI tehtud erandist. OpenAI eesmärk on hoida tehisintellektil põhinevad tööriistad avalikus kasutuses. Erinevalt maailma vallutamise mõtetega tehisintellekti arendavatest äri- või poliitilisest ettevõtmisest püüab mitme tunnustatud tehnoloogiaettevõtja rahakotile rajatud OpenAI teistest arendustöös ette jõuda ja toetada kinniseks omandiks patenteerimise asemel inimkonda teenindavat innovatsiooni läbi uue avalikustamise ja kättesaadavaks muutmise.
Arendustöö konkurentsist tulenevalt tegutsetakse kiirustades. Iga uut avastust jagatakse avalikkusega võimalikult viivitamatult. Nii püütakse ennetada konkurentide võimalikke patenteerimise või ärisaladuse algatusi. Erandist kõneleva uudise põhjustas keeldumine avalikustada GPT-2 nime taha peituvat avastust.
Suures pildis puudutab juhtum teemat, kas masin tohib inimesele valetada. Oleme valetavate inimestega harjunud ja ehitame masinaid eeldades paljuski, et need aitavad maailmast tõesemalt aru saada. GPT-2 sisu on inimesele arusaadavat teksti loov nutikas masin, kuid inimese arusaamist võib narritada näiteks autori osas. Olles tutvunud mõne kirjaniku teosega oskas nutikas süsteem luua inimesest autorile ehmataval lähedase stiiliga teksti ja arendada lugude sisu. Jutustusi kirjutav masin petaks inimesi, kes peavad seda kirjanikuks või lihtsalt oma arvamusega kaaskodanikuks.
Kirjanikuga seotud probleemi saaks lahendada kirjutades loo autori nimeks GPT-2. Seda pole kuigi kerge teha, sest oodatavalt suhtuksime masina kirjutatud lugudesse teisiti. Võrreldes inimese kirjutatuga rajaneks näiteks tunnetest kirjutamine ju pettusel. Masin ei tea tunnetest midagi, vaid teostab sõnadega statistilist mängu. Kirjandusliku simulatsiooni kõrval peitub tõsisem probleem ühismeedias, millest on kujunenud paljudele peamine uudiste ja uue informatsiooni allikas.
Tekstirobotid külvavad selles keskkonnas poliitilist segadust ja manipuleerivad inimeste tunnetega. Seni veel tänu nende tegutsemise mustri lihtsakoelisusele, sama sõnumi kordamisele ning omasugustega võrgustamise tunnustele eemaldatakse neid ühismeediast suhteliselt regulaarselt ja massiliselt. Nutikama sõnaseadmise oskusega tekstirobot kujutaks inimestega manipuleerimise sõjas kvalitatiivset hüpet.
Testimise ajal kirjutas GPT-2 usutava sisuga ajaleheartikleid, koostas veebipoe toodetele klientide stiilis kirjutatud arvustusi ja esines võõra nime all loodud teksti autorina. Need olid vaid mõned näited uudse tööriista väärkasutamisest. Loetelu pikendamiseks peab omama ilmselt kuritegeliku fantaasiat.
Sellele viitasid ka OpenAI juhid põhjendades avalikustamisest keeldumist. Võrreldes vähese hulga nutikate tehisintellekti arendajatega leidub maailmast kordades rohkem inimesi, kes suudavad välja mõelda, mida kõike halba saaks uue võimekuse abil teoks teha.
Siit siis uus üllatus. OpenAI avalikustas tehisajus inimestele teksti loova süsteemi kirjelduse. Seni levitamiseks liiga ohtlikuks peetud tööriista vabaks laskmist kommenteerides tõid organisatsiooni esindajad esile kuritarvitamisele viitavate tõendite vähesuse. Ühtlasi võis ridade vahelt välja lugeda vajaduse inimkonnal uue olukorraga tutuvumiseks, et õppida selles toime tulema.
Samuti paistab, et õigus oli OpenAI eelmise otsuse kritiseerijatel, kelle hinnangul reageeris organisatsioon üle. Nad on ju kõigest inimesed. Esialgne tekst võis tunduda rabavalt hea. Arvatavalt tutvuti järgnenud poole aasta sees masina puudustega ja tulemused polnudki sedavõrd erilised, nagu algul arvati.
GPT-2 oskab kirjutada luuletusi, aga see ei ole tõend masinas peituvast inimesele sarnasest tunnetusest. GPT-2 AI kohmakus hakkas end reetma pikema teksti loomisel ja pikema aja vältel. Kuivõrd masin ei saa aru tekstist sisuliselt, hakkab kannatama jutustuse või kirjatüki mõtte koospüsimine ning mureneb inimesele omane ja arusaamiseks vajalik loogika.
Ometi kaasnes koos GPT-2 mudeli avalikustamisega hoiatus võimalikust kurikasutamise lainest. Ohu minimeerimiseks arendasid nad vastumeetmeid, mis suudavad GPT-2 sünteetilise teksti ära tunda peaaegu 95-protsendilise täpsusega. See viitab tõdemusele, et inimesel on seda raske teha, eriti lühema teksti puhul.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Jaan-Juhan Oidermaa
Allikas: "Portaal"