ILLUSTRATSIOON: Pixabay.com

Tehisintellekti õppimisvõime tekitab probleeme juba praegu

Essee

Põrutavad uudised, aga ka pöörased vandenõuteooriad ja ühiskonda lõhestav informatsioon – tehisintellekt pakub internetikasutajale personaalset sisu, ent selle kasutamine võib viia soovimatute tagajärgedeni.

Kui avada tehisintellektiga seotud ohtusid, on kõigepealt kasulik mõelda selle termini määratluse üle. Keelekasutus on tähtis, sest see suunab meie tähelepanu ja mõtteid. Liiga range määratluse puhul võivad mitmed juba praegu eksisteerivad probleemid jääda tähelepanuta.

Üks võimalus on eristada tehisintellekte nende intelligentsuse üldisuse kaudu. Üldine tehisintellekt on inimesele sarnaselt võimeline lahendama väga mitmesuguseid probleeme, näiteks kirjutama artikleid, juhtima autot ja tuvastama isikuid. Kitsas tehisintellekt seevastu suudab lahendada ainult teatud probleeme, näiteks juhtida autot või mängida malet, aga mitte teha mõlemat. Kitsa tehisintellekti alla võib kuuluda mis tahes süsteem, mis suudab täita keerulisi eesmärke, mida seni on suutnud täita vaid inimene või mis lausa ületavad inimese võimeid. Nii üldise kui ka kitsa tehisintellekti teeb edukaks suuresti see, et tehisintellekti teadmised pole niivõrd inimese poolt sisse programmeeritud, vaid õpitud.

Eksistentsiaalne oht tulevikus

Levinud arusaam tehisintellekti ohust seisneb selles, et üldine tehisintellekt võib õppida, muutuda ja väljuda lõpuks inimeste kontrolli alt, kusjuures halvimal juhul on tagajärjeks tsivilisatsiooni hävimine. Eksistentsiaalsetest ohtudest tuleb mõelda mingil määral seetõttu, et pole ilmselge, mis on tegelikult võimalik või tõenäoline ja mis mitte. Näiteks võidakse ekslikult uskuda, et mõne uuendusliku sammuni jõutakse võrdlemisi ruttu. Seda illustreerib kasvõi 1956. aastal USA-s Dartmouthi Kolledžis toimunud töötuba, milles osalenud paarkümmend maailmatasemel eksperti uskusid optimistlikult, et mitmes tehisintellekti loomisega seotud küsimuses saavutatakse lähiajal märkimisväärne edu. Tegelikkuses on osa eesmärke, näiteks masinnägemine, leidnud lahenduse ja ulatusliku kasutuse alles viimase kümne aasta jooksul ning mõni ülesanne, näiteks keele mõistmine, veel suuresti lahendamata. Ekspertide arvamused tehisintellektiga seotud teemadest ulatuvad seinast seina, alates sellest, et üldine tehisintellekt on võimatu, kuni selleni, et see on juba nurga taga. Kuigi eksistentsiaalne oht varitseb inimest pigem tulevikus, on mõistlik pöörata tähelepanu olevikule, sest seesama omadus, mis kujutab endast ohtu – tehisintellekti õppimisvõime –, tekitab probleeme juba praegu. 

Sisu valivad algoritmid

Üks tänapäeval levinud viise lahendada keerukaid ülesandeid on kasutada masinõpet, st luua algoritme, mis õpivad kogemusest. Sotsiaalmeediakanalid nagu Facebook, otsingumootorid nagu Google ja videoplatvormid nagu Youtube pakuvad inimestele algoritmidel tuginevaid teenuseid – teades kasutajate huvisid ja senist käitumist, tuleb miljonitest võimalikest postitustest-veebilehtedest-videotest valida vaid käputäis, mida konkreetsele kasutajale näidata. Pidevalt inimesele personaalset valikut andes ja temalt tagasisidet saades õpib süsteem kasutaja käitumist tundma ning oskab pakkuda vaid talle suunatud sisu kiiremini ja tõenäoliselt paremini, kui ükski inimene eales suudaks.

Sellisel süsteemil on tohutu võim, sest osaliselt asendab või suunab see inimese tähelepanu. Kui sedalaadi kitsa tehisintellekti suurim eesmärk on hoida inimest veebilehel või tuua ta tihti tagasi, mitte ilmtingimata näidata informatiivset ja asjakohast sisu, siis on võimalik, et inimene satub infomulli, hakkab pidama normaalseks või levinuks midagi, mis tegelikult seda ei ole, ning võib aegamööda radikaliseeruda. Üldisem probleem seisneb selles, et viis, kuidas tehisintellekt saavutab sellele seatud eesmärgi, võib viia soovimatute tagajärgedeni. Nii saavad levida ja tekitada kahju eksitavad või võltsid uudised, pöörased vandenõuteooriad jmt – süsteem on leidnud, et need hoiavad inimest ekraani taga. Seetõttu on arusaadav, et personaalne sisu võib viia ühiskondliku lõhestumiseni, sest meil tekivad täiesti erinevad arusaamad sellest, milline maailm on või mis maailmas parajasti toimub. 

Probleem on üldisem

Probleem pole tegelikult iseloomulik mitte ainult tehisintellektile. Ohu allikas on igasugune soovitusi andev süsteem, mida me usaldame ka siis, kui me ei tea päris kindlalt, kuidas see töötab. Nii kitsa tehisintellekti loojad kui ka omanikud pole alati hoolsad, sest kui miski töötab nende silmis piisavalt hästi ja puudub avalik või poliitiline surve tehisintellekti käitumist ja selle töö võimalikke tagajärgi mõtestada, siis nad ei pruugigi sellega tegeleda.

Igal süsteemil on oma tugevad ja nõrgad küljed ning need võivad omakorda ajas muutuda. Rootsi päritolu filosoof Nick Bostrom on populariseerinud ideed, et eesmärgid ja võimed seisavad teineteisest eraldi ning kõik nende kombinatsioonid on võimalikud. Peame olema väga ettevaatlikud, millised eesmärgid me tehisintellektile seame, ning leppima kokku, kuidas kontrollida, et nende kasutamise tagajärjed pole kahjulikud. Näiteks kui paluda inimeselt, et ta koristaks põranda, paneb ta prahi prügikasti, aga tõstab maas oleva rahakoti laua peale, sest ta teab, et see on väärtuslik ese. Vajaduse korral saab ta ka küsida, mida tuleks sellega teha. Kui aga nõuda põranda koristamist tehisintellektilt, võib see prahiks lugeda ka rahakoti, eriti juhul, kui tal puudub võime eristada esemeid väärtuse järgi või esitada küsimusi.

Igaüks saab ohtude maandamisele kaasa aidata

Usk, et midagi ei saagi teha, on iseenesest täituv ennustus. Süsteemidest tulenevate ohtude maandamiseks saab tegelikult igaüks midagi teha. Teadlased, investorid, poliitikud, ettevõtjad, lõpptarbijad saavad üksteist kaudselt või otseselt mõjutada, ent teiste eest ei ole võimalik kogu tööd ära teha. Teadlane saab küsida, millised on süsteemi tugevad ja nõrgad küljed, kuidas võidakse süsteemi halvasti või valesti kasutada ning kuidas vähendada või hoida ära ohtlikke situatsioone. Investor saab küsida, kuivõrd eelistada lühiajalist kasu ja kuivõrd vähendada pikaajalisi võimalikke riske, või vähemalt suunata raha nende riskide tuvastamisse ja uurimisse. Poliitik saab valida, mida keelata, kohustuseks panna või toetada. Lõpptarbija saab küsida, kuidas ja milliseid teenuseid kasutada ning kelle poolt valimistel hääletada. Süsteemi omanik saab küsida, kas süsteem täidab oma eesmärki, kas eesmärk on valitud hoolikalt ning samuti, kuidas süsteemi reklaamida – sõna tehisintellekt kasutamine võib tekitada tarbijas usaldustunnet, mis tegelikult ei ole välja teenitud. 

Samas, kui ettevõtte põhieesmärk on aktsionäridele kasumit teenida ning õigusaktide või sotsiaalse surve puudumise tõttu on võimalik tagajärgedele mõtlemata tehisintellekti usinalt kasutada, siis seda ka tehakse. Kui erasektoris makstakse teadlasele mitu korda rohkem kui ülikoolis, siis läheb suur osa teadlasi ettevõtetesse, kus keskendutakse pigem majanduslikule kasule kui kollektiivse kahju vähendamisele. Kui inimesel pole aega ja oskusi mõelda ja valida, siis ta lihtsalt ei tee seda. Kui lobitööd tegev tehnoloogiaettevõte ütleb, et innovatsiooni ei tohi peatada või et tal puudub kohustus oma algoritme kontrollida ja nende tööpõhimõtete kohta aru anda, siis ta ei teegi seda. 

Kui keskendutakse suurtele tulevikuohtudele, jäävad hetkeprobleemid vajaliku tähelepanuta. Kitsas tehisintellekt on mõnes valdkonnas erakordselt võimekas, kuid samal ajal mõnes teises erakordselt rumal. Kahju vältimiseks on vaja eri inimrühmade koostööd, sest kui eetiline käitumine pole tehtud kohustuseks, eetiliselt käituva ettevõtte teenus või toode on kallim või keerulisem ning kui inimesed eelistavad odavust ja mugavust, siis eetiline käitumine lihtsalt ei levi.

Taavi Luik

arvutiteaduse magistrant

Jaga artiklit