Algoritmipõhised avalikud teenused võivad kahjustada kodanike vabadust ning õigluse, võrdsuse ja õiguse tagamist.
Illustratsioon: Gerd Altmann / Pixabay

Inimese loodud tehnoloogia ei ole neutraalne

Aktuaalne

Eestil on potentsiaal olla maailma kõige vastutustundlikum digiühiskond. Selleks peab siinse pragmaatilise teeme-ära-hoiakuga kaasas käima ka vastutustundlik innovatsioon.

Professor Vincent Homburg: tehisintellekti rakendused on mõjutatud eelarvamustest

Tartu Ülikooli e-valitsemise professor Vincent Homburg pidas aprillikuus oma inauguratsiooniloengu „E-valitsemise poliitilisus“. Professor Homburgi sõnul on ulatusliku digitaliseerimise ning algoritmide ja suurandmete kasutamise juures on poliitikauuringute perspektiiv ülimalt vajalik. Ta kirjeldas loengul oma uurimistööd poliitika ja e-valitsemise suhetest ning selgitas, et see keskendub kahele küsimusele: esiteks, kuidas ja miks digitehnoloogia poliitikute, poliitikakujundajate, riigiametnike ja kodanike käitumist ja nendevahelisi suhteid mõjutab, ning teiseks, kuidas need rühmad oma suhtluses tehnoloogiat kasutavad.

Homburg selgitas, et paljude e-valitsemise algatuste üks juhtmõtteid on, et tehnoloogia on neutraalne ning see töötab paremate avalike teenuste, suurema demokraatia ja parema vastutuse nimel iseseisvalt. Tegelikkuses on tehnoloogia, sh tehisintellekti rakendused kultuurilistest, majanduslikest ja poliitilistest eelarvamustest mõjutatud rohkem, kui me arvata oskame, ning seetõttu ei ole see neutraalne, vaid sellel on selge poliitiline tähtsus ja mõju.

Ilmekas näide on sotsiaalmeedia, milles loodetakse näha kodanike kaasarääkimise ja avalikes aruteludes osalemise platvormi. Sotsiaalmeedia pole aga loodud poliitilise osaluse ja arutelu platvormiks ega ratsionaalsete ja kaasavate arutelude võimaldamiseks. Üha selgem on, et sotsiaalmeedia algoritmid on konfigureeritud faktipõhisele tekstile eelistama vastuolulist ja emotsionaalselt ahvatlevat sisu, sest see lihtsalt köidab kasutajate tähelepanu rohkem. Seetõttu näeme avatud ja ratsionaalsete debattide asemel ikka ja jälle polariseerumist ning avaliku aruteluruumi idee asendumist üksteisest üha kaugemale triivivate digitaalsete infosaarekestega, nentis Homburg.

E-valitsemine vajab tema sõnul hädasti vastutustundlikku innovatsiooni, mis pole mitte ainult julge ja pragmaatiline, vaid käsitleb digitaalsete uuenduste väljatöötamisel, rakendamisel ja kasutamisel ka võrdõiguslikkust, demokraatiat ja poliitilisi küsimusi. FOTO: Evelyn Pihla

Välismaalased seostavad Eestit tihtipeale e-teenuste ja digiuuendustega. Eesti riigi märkimisväärses arengus on kesksel kohal valitsusorganite ja kodanike vaheline suhtlus digitehnoloogia abil. Viimastel Riigikogu valimistel hääletas juba üle poole valijatest interneti teel. Tallinna lennujaamast kiviviske kaugusel asub e-Eesti esitluskeskus, kus käib kõikjalt maailmast riigiteenistujaid ja ettevõtjaid, kes soovivad süvitsi uurida siinset digiarengut. Eesti tutvustab end järjekindlalt maailma kõige arenenuma digiühiskonnana ja see sõnum on välisriikidesse hästi kohale jõudnud.

Sellise arengu järsk lõppemine oleks väga ebatõenäoline. Digientusiastid valitsussektoris, info- ja kommunikatsioonitehnoloogia valdkonnas ning akadeemilises maailmas on küllaltki agarad välja mõtlema uusi avalikke teenuseid, mis teevad kodanike elu lihtsamaks.

Järgmine tõenäoline samm e-valitsemisel ja avalike teenuste osutamisel on tehisintellekti rakendamine. Tegelikult ongi juba kümneid selliseid rakendusi Eesti avalike teenuste süsteemides töös. Näiteks suunavad algoritmid politseipatrulle kindlal ajal vajalikesse kohtadesse ja tööotsijaid neile sobivate tööpakkumiste juurde.

Praegu on arendamisel veel üks ahvatlev rakendus, Bürokratt. See on virtuaalne abiline, mis võimaldab kodanikel riigiga suhelda kõne, kirja või viipekeele teel, ilma et inimene ise peaks täpselt teadma, millise konkreetse ametniku poole oma murega pöörduda.

Tehisintellekti tumedam pool

Eesti ei ole ainus riik, mis rakendab ühiskonnaelu hõlbustamiseks ja avalike teenuste lihtsustamiseks tehisintellekti. Paraku ei vasta kõik kogemused kasutajate ootustele. Kiire pilk kolmele hiljutisele juhtumile illustreerib seda ilmekalt.

Esimene näide puudutab eksamisüsteemi. 2020. aastal olid õpetajad ja õppejõud üle maailma sunnitud väga kiiresti otsustama, kuidas korraldada õpet ja eksameid koroonapiirangute tingimustes. Ühe lahendusena võimalike pettuste tuvastamiseks pakuti rakendust, mis jälgib kaugeksami ajal kaamera kaudu õpilase näoilmeid ja silmade liikumist, klahvivajutusi ja taustahelisid. See tehnoloogia tundus päris hea, kuni selgus, et õpilastel, kelle nahavärvus ei ole valge, oli sisselogimisel raskusi. Kui neil see ka õnnestus, märkis rakendus ebaproportsionaalselt sagedasti just nende näoilmed kahtlust äratavaks. Ilmselgelt ei saanud see rakendus mitteeuropiidsete näojoonte jälgimisega hakkama.

Teine näide: 2020. aasta jaanuaris vahistas politsei Detroidis afroameerika mehe Robert Julian-Borchak Williamsi, keda kahtlustati poevarguses. Hiljem selgus, et kehtlustus põhines vigaselt töötanud näotuvastustarkvaral, mida oli kasutatud turvakaamera salvestise uurimisel. Analüüs näitas, et kuigi see tarkvara töötas võrdlemisi hästi europiidsete näojoontega meeste puhul, olid tulemused muude rahvastikurühmade korral märksa vähem täpsed. Osaliselt oli probleem tingitud liiga ühekülgsetest pildikogudest, mida oli algoritmide loomisel andmebaasides kasutatud.

Kolmas näide on Hollandist, kus püüti algoritmide abil tuvastada isikuid, kes olid riigilt välja petnud lastetoetusi. Pärast seda, kui meedias oli avaldatud artikleid pettusjuhtumitest, kus Bulgaaria pered kolisid Hollandisse, taotlesid toetusi ja seejärel kolisid kohe jälle ära, otsustas maksuamet rakendada süsteemis riskide hindamise algoritme, mis määraksid toetuse taotlejatele individuaalsed riskiskoorid.

Esmalt tekkis probleem, et algoritmid märkisid ülitäpselt ära kõik inimesed, kes olid oma taotluses teinud väiksemaidki vigu. Teine, tõenäoliselt suuremgi probleem seisnes aga selles, et tarkvara hakkas kõiki väljastpoolt Hollandit pärit taotlejaid pidama tõenäolisemateks petturiteks. Hilisem analüüs näitas, et niisugune järelduste muster oli tingitud peamiselt sellest, et osa pettusjuhtumeid oli sisestatud tarbetult ükshaaval ja käsitsi andmekogusse, millega algoritmidel töötada lasti.

Masinõppe kasutamine pettuste tuvastamiseks mitte ainult ei võimendanud aluseks olnud andmekogude algseid vigu, vaid lõi ka olukorra, kus toetuste väljamaksmine võimalike petturitena märgitud perekondadele lõpetati automaatselt, ilma et ükski ametnik otsuse oleks üle vaadanud.

Niisiis tuleb algoritmilisest valitsemisest rääkides arvestada palju enamaga kui toreda looga sellest, kuidas tehnoloogia (ja iseäranis tehisintellekt) aitab ainult kodanike elu lihtsamaks ja ametnike tööd tõhusamaks muuta. Avalike teenuste pakkumine ei seisne ainult selles, kuidas võimalikult väikese vaevaga tulumaksudeklaratsiooni esitada või võimalikult kiiresti lubasid-toetusi taotleda. See on ka võitlus petuskeemide vastu sotsiaalvaldkonnas; see on inimese pädevust näitavate ja tema tulevast karjääri määravate tunnistuste väljaandmine; see on hoolitsemine selle eest, et seaduserikkujad tabatakse ja nad saavad õiglase karistuse, seaduskuulekad aga jäetakse rahule.

Avalikud teenused võivad kahjustada kodanike vabadust ning puudutada õigluse, võrdsuse ja õiguse tagamist. Valitsusorganite ja kodanike suhtluses avalike e-teenuste kaudu võime mõnikord rõhutada liiga palju e-d ja liiga vähe avalikkust. Teisisõnu, avalike e-teenuste pakkumine, iseäranis algoritmiline valitsemine, on palju poliitilisem küsimus, kui esmapilgul tundub.

Eeskirjad kaitsevad

Masinõppe algoritmid tõstatavad nii juba nende arendamise ajal kui ka kasutamise käigus intrigeerivaid küsimusi, kuidas tegeldakse digiühiskondades, sealhulgas Eestis, demokraatia põhiväärtustega nagu õiglus, võrdsus ja õigus. Need küsimused on ajendanud Euroopa Parlamenti juba alates 2016. aastast arutama tehisintellekti käsitlevaid määrusi. Euroopa Komisjon on välja töötanud nõuded Euroopa turule tulevate tehisintellekti rakenduste kohta, koheldes neid samamoodi nagu muid, tavalisi tooteid. Euroopa Nõukogu on valinud fundamentaalsema seisukoha ning koostab konventsiooni, mis käsitleb inimõiguste kaitset, demokraatiat ja õigusloomet tehisintellekti kasutuse kontekstis.

Need algatused kohustavad juba praegu või vähemasti lähitulevikus põhjalikumalt kaaluma, millised tehisintellekti kasutusviisid on vastuvõetavad ja lubatud, milliseid aga tuleks piirata või suisa keelata. On tõenäoline, et tulevikus on tehisintellekti andmete kvaliteet ja standardid veelgi täpsemini reguleeritud, ja see omakorda nõuab, et tähtsamate otsuste üle oleks kontroll ikkagi inimestel. Esmased põhimõtted tehisintellekti kasutusviiside lubatavuse hindamisel on seega valvsus ja skeptilisus.

Üks osa Eesti mainest on pragmaatiline suhtumine digiinnovatsiooni. Muidugi on suur kiusatus heita kõrvale skeptiline suhtumine tehisintellekti ning võtta õigusakte ja eeskirju kui Eesti digiarengu piiranguid ja ohtu maailma arenenuima digiühiskonna kuvandile.

Segu teeme-ära-suhtumisest ja algoritmipõhise valitsemise poliitika tunnustamisest võiks aga olla hea näide julgest, ent vastutustundlikust tehisintellekti kasutusest ning pakkuda realistlikku ja kutsuvat väljavaadet tõesti demokraatlikule infoühiskonnale.

Selleks on vaja pöörata tähelepanu mitmele asjaolule. Esiteks tuleb tõsiselt võtta kodanike ootusi tehisintellektile ja kogemusi sellega, ja mitte vaid sõnades, vaid ka otsustes ning tegudes. Ausalt öeldes on Eestil siin arenguruumi. Teiseks tuleb tekitada ja hoida arutelu arendajate, seadusandjate ja teadlaste vahel, otsustamaks, milliseid kasutusviise tegelikult vaja on ja millistest ideedest tuleks loobuda.

Ootan huviga aega, mil e-Eesti esitluskeskus jutustab oma külalistele, kuidas Eesti lahendas demokraatliku maailma suure keerdküsimuse: kuidas kujundada vastutustundliku pragmaatilisuse abil välja demokraatlik infoühiskond.


Professor Vincent Homburg on e-valitsemise ja digitaalsete avalike teenuste Euroopa Teadusruumi õppetooli hoidja.

Vincent Homburg

TÜ e-valitsemise professor

Jaga artiklit