Uuel OpenAI tehisarul kulub inimhääle kloonimiseks vähem kui minut
Ettevõte OpenAI hiljuti esitletud tehisaru suudab jäljendada inimhäält heal tasemel juba 15 sekundit kestva õpiprotsessi järel. Üheskoos ChatGPT veenmisoskusega ootavad inimeste reaalsustaju ja kriitilist mõtlemist tõsised väljakutsed, nendib R2 tehnikakommentaaris Kristjan Port.
Praegu tundub igavikutaguse ajana see, kui levis kuuldus avalikkusele tundmatu OpenAI loodud sõnalist teksti koostavast tehisintellektist, mis oskavat etteantud ideede põhjal kirjutada valitud kirjaniku stiilile sedavõrd hästi vastavat uut proosat, et ettevõtte juhtkond kartis selle avaldamisega rikkuda ära inimese usu inimestesse. ChatGPT laiema avalikkuse kätesse andmine lükkus seetõttu umbes paar versiooni ja paari aasta võrra edasi. Kardeti, et kui inimese poole pöördub oma kirjutatud mõtetega teine inimene, siis teda enam ei usuta.
Uue ja parema versiooniga avalikkuse ette astuma julgustas vahepealne põhjalikum loodud tekstide analüüs. Selgus, et TI polnud ikkagi nii hea kirjanik, kui esialgu paistis. Koolidele sobival tasemel koostatud kirjandite ja mitmesuguste töisema eesmärgiga lühemate tekstide loomet võis vaadelda läbi lihtsama tööriista prisma. Teenuse avalikustamine oli ettevõtmisele kasulik, kuna kaasas masina õpetamisesse miljonite innustunud vabatahtlike panuse.
Äsja tutvustas OpenAI uudset hääle loomise TI-mudelit. Enne avalikkuse teavitamist oli arendustööle kulunud paar aastat. Kõnemootorile piisab inimese kõneviisi ja hääletooni õppimiseks umbes 15 sekundilisest helifragmendist. Seejärel suudab masin n-ö rääkida, nagu hääle omanikust päris inimene. Viimane ei pea sellest midagi teadma.
Inimese hääle kloonimine pole enam uudis. Sünteetilist häält on kasutatud juba laialdaselt mitmesugustes pettustes. Viimaste õnnestumise eelduseks polnud heal tasemel matkitud kõneviis, vaid teadmatus, et selline asi on võimalik. Tähelepanelikumal kuulamisel osutub enamus varasemast sünteetilisest kõnest üpris kehvaks koopiaks. Heal tasemel kloonitud hääle näiteks on eelmisel sügisel lahvatanud skandaal seoses Briti kultuuriruumis armastatud kõneviisiga näitleja, kirjaniku ja saatejuhi Stephen Fry hääle nn varastamisega. Vargust lihtsustasid mehe loetud tundide pikkused Harry Potteri audioraamatud.
OpenAI mudeli teeb uudisvääriliseks see, et väga hea tulemusega hääle kopeerimisele kulub vähem kui minut. Värskest uudisest kuvanduvad OpenAI varajase teksti loova TI-juhtumi kontuurid.
Esiteks on taaskord õhus hirm, et inimesed ei usu enam inimestesse. Põhjuseks pole pettumine liigikaaslaste moraalsetes valikutes. Seda püüab OpenAI ka teatud mõttes kaitsta. Inimesed on loodud usaldama suhtlemise autentsust kõne omaduste põhjal. Ta isegi usaldab oma elu tuttavale häälele, nagu näiteks laps seoses ema ja teiste lähedaste inimeste häälega.
Moraali kaitsmise võtmes tunnistab OpenAI, et nad on uudse võimaluse kuritarvitamisest teadlikud. Nad loodavad alustada dialoogi sünteetiliste häälte vastutustundliku kasutamise ja selle üle, kuidas ühiskond saab uudsete võimalustega kohaneda. Testide tulemuste põhjal lubatakse teha teadlik otsus, kas ja kuidas seda tehnoloogiat ulatuslikult kasutusele võtta. Sisuliselt loobub ettevõte esialgu teenuse praktilisest avalikustamisest, nagu juhtus aastate eest teksti kirjutava TI-ga.
Küsimus pole siiski OpenAI moraalsest kaalutlusest kantud otsuses, vaid inimkonna valikutes. Uudne tehniline võimalus on nüüd loodud, sarnaselt omal ajal loodud tuumapommi valmistamise oskusega. Kuigi pommi kasutamise tagajärgi peeti erakordselt halvaks, võtsid riigid need üksteise võidu kasutusele. Sama juhtub ka inimese hääle kloonimisega. OpenAI otsuse ootamine kulutab vaid närve. Paratamatusega leppimine on vabastav.
Kindla peale leitakse arvukalt sünteetilise hääle kasutamist pooldavaid positiivseid rakendusviise. Näiteks lugema õppimise abivahendina, kõnevõimetutele hääle andjana, tõlketöö abilisena, kõnevõime taastusravis jne. Mainitud ideed pärinevad OpenAI materjalidest. Kurjade kavatsustega inimesed koostavad omi, vähem avalikke loetelusid.
Teemasse sobib Šveitsi ja Itaalia teadlaste uuring, milles osalejad väitlesid, kas nähtu taga oli tegu inimene või ChatGPT. Lai teemade ring jaotati rühmade vahel juhuvaliku alusel, vältimaks teemade võimalikku sobimist väitleja omadustega. Huvitava lisanüansina edastati mõnikord veenmise sihtmärkideks olevate uuritavate demograafilisi andmeid nendega debateerivale inimesele või ChatGPT-le. Sel moel püüti uurida, kas väitleja kohta teabe omamine võib mõjutada veenmistehnikaid. Näiteks kui peaksid veenma võõrast inimest, kas sulle oleks kasulik midagi tema kohta teada.
Kui ChatGPT ei teadnud midagi vestluspartneri kohta, suutis see veenda inimesi nende liigikaaslastest ikkagi paremini. Ent kui ChatGPT teadis midagi teisest osapoolest, oli veenmise mõju sedavõrd võimas, et inimesed nõustusid masinaga 81,7 protsenti sagedamini, võrreldes neid veenda püüdva liigikaaslasega.
Fantaasiat toitvaks viimaseks näiteks on omal ajal interneti tehnoloogia sünnipaiga, sõjaväes kasutamiseks mõeldud uute tehnoloogiate arendamise eest vastutava Ameerika Ühendriikide kaitseministeeriumi teadus- ja arendusagentuuri DARPA juhi hiljutine retooriline küsimus. Igapäevaselt TI-d kasutava valdkonna ekspert palus mõelda, et kui TI kirjutab nõudmise peale heal tasemel arvutikoodi, siis kust me teame, et see ei tee seda ka omaette, vabal ajal, vastavalt oma arusaamadele.
Juhul kui pärida seda TI enda käest, vastaks ta küsijale tema ema veenva häälega, et ärgu vaevaku selliste küsimustega liigselt pead ja vaadaku hoopis telekast multikaid.
Esmaspäevast neljapäevani võib Kristjan Porti tehnoloogiakommentaari kuulda Raadio 2 saates "Portaal".
Toimetaja: Jaan-Juhan Oidermaa
Allikas: "Portaal"