Niimoodi kujutab Midjourney pildigeneraator tehisaru võimet nii „hallutsineerida“ kui ka kalkuleerida – pildimasin on veel üks hiljutine sensatsioon tehisintellekti mudelite maailmas.
ILLUSTRATSIOON: Midjourney

Tehisaru pealetung – hüpe tundmatusse

Aktuaalne

2022. aasta lõpus otsustas üks juhtivaid tehisintellektilaboreid OpenAI, et on aeg teha hüpe tundmatusse. Avalikkuse käsutusse anti juturobot, mis lõi uudishimulikud katsetajad pahviks, spetsialistid pani aga kommenteerima, et selles pole ju midagi uut. „Vara veel,“ hädaldasid konkurendid, ja Google’i peakorterit tabas pärast väikest mõtlemist paras paanika.[1]

ChatGPT ilmumine näis maailma pea peale pööravat ja paljudes valdkondades kerkis küsimus, mida edasi teha. Näiteks hariduse andjad peavad nüüd pead murdma, mida õpilastele üldse õpetada ja kuidas kontrollida, et õpilased peale süsteemi lollitamise midagi ka õpiksid. Küllap on mõnes õppuris tekkinud ka eksistentsiaalne hirm, et ta on teinud vale valiku, kui on pühendanud paar-kolm aastat oma elust erialale, mida tabab robotite peale tungides häving.

Siinkirjutaja näeb asja kahe mätta otsast. Esimesel neist on elevil tarkvaraarendaja, kelle jaoks on uued tööriistad nagu ChatGPT, OpenAI rakendusliidesed, Copilot jt paotanud uusi teadmiste laekaid ja kes tunneb, et robotite õlgadel küünib ta ühtäkki lahendamata probleemide puu alumistest okstest märksa kõrgemale. Teisel mättal on aga pidev kahtleja, kes pole kindel, mis on selle luksuse hind ja millised võivad olla tagajärjed.

Tehisaru võimendav mõju

Suhtumises juturobotisse paistab silma mure akadeemilise petturluse leviku ja tekstiloomeoskuse kahanemise pärast. Õnneks leidub ülikoolides ka optimiste, kes on juba asunud üliõpilasi juhendama, kuis rakendada roboteid tõhusama õppimise, mitte looderdamise ja valskuse teenistusse.[2]

Arale küsijale võib uus abiline olla tõepoolest see, kes annab vastuseid, mis muidu jääksid saamata. Küsimuste avaliku esitamise julgus võib aga nii ikkagi kängu jääda. Kergeusklikule kasutajale on juturobotil varuks salakaval üllatus: komme nii mõnigi kord enesekindlalt valetada. Seetõttu ei jookse ka juturobotiga suheldes haridus mööda külgi maha – vastuseid on kergem hinnata ikka siis, kui oleme küsijana pädevad.

Võib-olla peaksimegi tunnistama, et maailm on muutunud ning senisest enam tuleb arendada ja hinnata õppija suutlikkust teha masinaga tõhusat koostööd. Selline koostöö nõuab kindlaid baasoskusi, näiteks kriitilise mõtlemise ja probleemide lahendamise võimet. Üks uus ja spetsiifiline oskus, mida koolid ilmselt peagi õpetama asuvad, on see, kuidas anda tehisintellekti mudelitele selgeid stardijuhiseid ja küsida neilt nõuandeid.[3] Pole aga selge, millal on õige aeg anda õppurile või nooremale kolleegile kätte sedasorti vägev tööriist, millega saab võimendada nii häid kui ka halbu valikuid.

Steve Jobs olevat öelnud, et personaalarvuti on bicycle of the mind – mõttejalgratas, tõhus sõiduriist mõistuse talla all. Sellele „jalgrattale“ andis kõvasti hoogu juurde interneti ja seejärel võimekate otsimootorite astumine meie igapäevaellu.

Generatiivsed keelemudelid annavad jalgratturile nüüd tiivad ja hea mitu hobujõudu mägede liigutamiseks, ent teame ju, et eelmistki „jalgratast“ rakendati aina ulatuslikumalt lolluste tegemiseks ja levitamiseks. Nagu sisepõlemismootoriga masinatel, võib ka keelemudelit mootorina pruukival tööriistal olla küllaga kasulikke rakendusi, ent see võib osutuda ka ohuallikaks, mille kasutajatelt oleks ehk kohane nõuda juhiluba.

Energiakulukas tehisintellekt

Analoogiaga jätkates: kõikjal kasutatav sisepõlemismootoriga automobiil on planeedi elanikele päris kulukas lõbu. Samamoodi võivad keelemudelitele tuginevad tehnoloogilised lahendused kokku hoida küll kasutaja aega, ent ära põletada senisest palju suurema koguse fossiilseid kütuseid.[4]

Näiteks idee kombineerida otsimootorid GPT-mudelitega (GPT – ingl generative pre-trained transformer, inimkeelset sisendit inimkeelseks väljundiks muundav arvutiprogramm, mis genereerib teksti masinõppe teel keelemustreid tundma õpetatud statistilise mudeli alusel) tõotab iga päringu energiakulu mitmekordistada. Ma lihtsalt ei tea, kuivõrd energiakulukaks osutub programmikood, mille ma masinal genereerida lasen, arvestades, et suur osa sellest läheb niikuinii prügikasti.

Et mõista, mida uute mudelitega peale hakata ja mida mitte, tasub teatud määral tunda mudelite tööpõhimõtet, nende sisendi ning väljundi olemust. Enne seda ei ole ehk õige otsustada, kui hea metafoor on mudelite kirjeldamisel lossy compression ehk andmete pakkimise meetod, mis kaotab vähem olulised andmed, et mahtu vähendada[5], või mõni muu teravmeelne analoogia. (Üks sellise meetodi üldtuntud rakendus on digifotode vorming JPEG.) Viimati viidatud artiklis püütakse ChatGPT-d kirjeldada uduse, ebatäpse kujutisena kõigist veebis talletatud tekstidest, ütleme siis – udujutu generaatorina.

Kergeusklikku südant võib juturoboti katsetamise käigus pehmeks teha nn ELIZA efekt – meie kalduvus omistada arvutiprogrammile inimesele omast mõtlemis- ja tundevõimet. See nähtus sai nime 1960. aastatel loodud arvutiprogrammi ELIZA järgi, mis jäljendas vestluses kasutajaga psühhoterapeuti.

Kasutaja tõmmaku hinge ja meenutagu, et robotist vestluspartner pole mitte intelligentne olend, vaid pigem peegel, tema enese mõtteid vastu kajav ja loetuga siduv kamber; mitte elav ja hingav vestluspartner, vaid teksti automaatjätkaja, mille on valmistanud leidlik insener.

Sellise assistendi üks tänuväärne roll tarkvaraarendajate žargoonis on olla täiuslik kummipart (ingl the ultimate rubber duck)[6]. Me teadsime juba varem, et keerulise probleemi seletamine kummipardile või kaisukarule on lahenduse leidmiseks kasulikum kui õhtune kõne unisele kolleegile. GPT-põhisel jutuvestjal on võime vestlusesse osavõtlikult sekkuda ja päris tihti igati kasulikke vastuseid leida.

Kui aga juba pardist räägime, on suur kiusatus tuua mängu veel üks levinud metafoor, stohhastiline papagoi (ingl the stochastic parrot)[7], mis rõhutab, et ChatGPT ei ole mitte intelligentne olend, vaid juhuslikkuse printsiibil loetud tekste kordav statistiline trikk.

Mitmesugused ohud

Inimliigi võimet kohaneda masinsuhtluse maagilise maailmaga kompasid juba aastatetagused algoritmisõjad valijate hinge pärast, fiktiivsed sotsiaalmeediakontod ning poliitkontorite ja mõjuagentide kureeritava propagandaga pommitavad personaliseeritud reklaamid, mille abil vastuvõtlikest inimestest programmeeriti fanaatikuid. Uued mudelid suudavad seda kõike teha senisest tõhusamalt.

Aga kas suhtlusrobotid võtavad meilt meie töö? Vaevalt see päris nii läheb. Mõni töö kaob ja mõni tuleb juurde. Juturobot ise on tööriist, mis vajab kahte osapoolt; loomuliku keele mudelid inimkeeles suhtlemiseks on robotile ette antud. Küll aga tundub tõenäoline, et kasvab kihistumine nii ettevõtete kui ka indiviidide tasandil – sõltuvalt sellest, kui tõhusalt uudset tehnoloogiat rakendatakse ja kelle käes on jäme ots selle valitsemisel.

Hädas võivad olla väikesed keeled, sest mudelite treenimine on kallis lõbu. Keeletehnoloogia on ilmselgelt rahvusteadus ja väärib investeeringuid. Lähemal ajal paiskavad suurfirmad võidurelvastumise tuhinas turule ilmselt mõnegi toore ja tobeda lahenduse. Esile kerkivad uurimisvaldkonnad ja -nišid, mis püüavad värsket tehnoloogiat ühiskonna vajadustega sobitada ja lepitada. Vaja on poliitilisi arutelusid selle üle, millised uue tehnoloogia aspektid nõuavad uusi eeskirju ja kokkuleppeid.

Üks juba praegu ilmnev häda on see, et muudatused võivad olla demokraatlike protsessidega võrreldes liiga kiired. Euroliidu püüdlustesse tehisintellekti reguleerida[8] asetus ChatGPT ootamatu uue elemendina, mis senised plaanid mõneti sassi lõi. Seadusandjad ei osanud arvata, et selline tööriist ilmub meie ette juba nüüd ja toob päevavalgele kavandatud eeskirjade suhte tegeliku arenguga.

Suurim mure, millega tuleks praegu tegelda, näib olevat see, et niisugused tööriistad võimaldavad väärinfot ja digiprahti toota senisest veelgi kergema vaevaga. Kui me ei suuda aga enam hinnata teabe usaldusväärsust, löövad ühiskonna alustalad kõikuma.

Ärevus Google’i majaski tuleneb vähem sellest, et turule tükib konkurente, kes seovad juturoboti otsinguga, ning rohkem asjaolust, et otsimootori niigi raske töö kasuliku ja kasutu info eristamisel võib minna mõõtmatult raskemaks. Tehnoloogia, millele ChatGPT tugineb, pärineb Google’i enda ajutrustilt[9], kuid selle lai rakendamine näib ohustavat internetigigandi ärimudelit. Mõõdutundetud ja saamahimulised rakendavad juba praegu tohutuid sünteetilisi lingi- ja sisufarme, et end otsingutulemuste lehekülgedel kõrgemale upitada. Google ise polnud generatiivsete mudelite laiatarbekaubana esilekerkimiseks ilmselt valmis.

Pangem tähele sedagi, et veebisisu najal treenitavad mudelid peavad edaspidi suutma välja praakida enda ja teiste abiga toodetud digiprügi, et mitte ise oma jalgealust õõnestada. Väärinfo leviku taltsutamise võtete suhtes on ebalevad ka OpenAI värvatud asjatundjad.[10]

Tuleb hoida pöialt, et õigusloomes ja konkurentsivõitluses leitaks toimivad lahendused. Raske on näha, kas seni välja pakutud tehnoloogilised võtted, nagu statistilise vesimärgistamise tehnikad või krüptograafilised riukad, siin väga palju aitavad.

OpenAI enda ülevaadet värske mudeliga seotud riskidest ja nende leevendamise võimalustest saab lugeda GPT-4 süsteemikaardi failist.


[1] Areng GPT-mudelite maailmas on kiire ja see artikkel on kirja pandud enne GPT-4 avalikustamist. Lugeja enda hinnata jääb, mil määral peavad siinsed vaatenurgad paika pärast võimekama mudeli saabumist. (Autori märkus.)

[2] Ethan Mollick, My class required AI. Here’s what I’ve learned so far. – One useful Thing, 17.02.2023.

[4] Chris Stokel-Walker, The generative AI race has a dirty secret. – Wired, 10.02.2023.

[5] Ted Chiang, ChatGPT is a blurry jpeg of the web. – The New Yorker, 09.02.2023.

[6] Rubber duck debugging. – Wikipedia.

[7] Emily M. Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? University of Washington, 2021.

[9] Ashish Vaswani et al., Attention is all you need. – Arxiv.

[10] Shtetl-Optimized, Scott Aaronsoni blogi.

Klaus-Eduard Runnel

tarkvaraarendaja

Jaga artiklit