Kuidas mõista andmestunud maailma. Anto Aasa, Mare Ainsaar, Mai Beilmann, Marju Himma Muischnek,

Чтение книги онлайн.

Читать онлайн книгу Kuidas mõista andmestunud maailma - Anto Aasa, Mare Ainsaar, Mai Beilmann, Marju Himma Muischnek, страница 14

Kuidas mõista andmestunud maailma - Anto Aasa, Mare Ainsaar, Mai Beilmann, Marju Himma Muischnek,

Скачать книгу

(relevance) ja kasulikkus (utility), siis on ehk kõige parem aluseks võtta poliitika sihtgrupi või avaliku teenuse kliendi perspektiiv – kas püstitatud eesmärk lähtub tegelikest vajadustest ja kas poliitika aitab probleemi lahendada. Kui aga hindamiskriteeriumiks on tõhusus (efficiency), siis võib kasulik olla pigem elluviimise eest vastutava institutsiooni seisukoht. Küsimusele, milline lähtekoht aluseks võtta, ei ole õiget-valet vastust; pigem on küsimus selles, kas see on selgelt välja öeldud ja analüüsitulemuste kasutajale arusaadav.

      Väärtuste kujundamise alusena on eelkõige kolm peamist võimalust: 1) metodoloogiline objektiivsus ja läbipaistvus (analytical integrity), 2) vastutus kliendi (ehk tellija, nt riigiasutuse) ees ja 3) analüütiku enda arusaam heast ühiskonnast (Weimer, Vining 2005: 41–43). Neist esimene rõhutab analüütiku rolli „objektiivse tehnikuna“, kelle ülesanne on võimalikult igakülgselt identifitseerida olulised hindamiskriteeriumid ja andmed ning neid ka võimalikult objektiivselt tõlgendada, lähtuvalt kõnealuse valdkonna parimast praktikast. Eesmärk on anda analüüsi kliendile (tellijale) võimalikult täpne hinnang või prognoos, tuua välja kõik valikukohad, jättes valikud kliendi teha. Teise variandi puhul on analüütiku ülesanne anda küll kliendile igakülgset infot, kuid tõlgendada vaieldavaid olukordi kliendi kasuks või lähtuvalt tema perspektiivist. Primaarseks väärtuseks on siinkohal analüütiku lojaalsus kliendile ning isiklike seisukohtade tagaplaanile jätmine. Kolmanda variandi puhul aga identifitseerib analüütik end pigem poliitikaprobleemi edendajana või konkreetse sihtgrupi kaitsjana ning seega protsessi osapoolena. Seega tõlgendatakse vaieldavad andmed lähtuvalt sihtgrupist või eesmärgist ning lojaalsus on suunatud neile, mitte kliendile.

      Paratamatult kujuneb valik variantide vahel mitme osapoole koosmõjul. Faktoriteks võivad olla nii analüüsi tellija surve, analüütiku organisatsiooniline kuuluvus kui ka analüütiku enda väärtushinnangud. Analüüsi tellija surve on sageli seotud eespool mainitud rahastamisega. Organisatsiooniline kuuluvus võib analüüsi raames ette kirjutada ka konkreetse (poliitilis-ideoloogilise) vaatenurga (nt poliitikat analüüsivad mõttekeskused (thinktanks), mis on seotud ühe erakonna ja ideoloogiaga), mille kaudu kõiki andmeid tõlgendatakse. Juhul kui selline organisatsiooniline surve või tellija suunis puudub, on üha suurem mõju analüütiku enda seisukohtadel, sealhulgas sellel, kui oluline uuritav teema talle isiklikult on (nt kui analüüsitakse ühiskondlikku probleemi, millega on olemas isiklik seos, vs. juhtumid, kus isiklik seos puudub) ning kuidas see tema objektiivsust mõjutab.

      Seega ei saa väärtusaluste aspektist kõrvale jätta analüütiku enesereflektsiooni – teadlikku mõtestatud valikut väärtuste vahel, mis suunavad järelduste tegemist ja soovituste andmist. Andmepõhise otsustamise ja analüütiku enesereflektsiooni kombineerimise vajadus otsuste tegemisel on viinud andmeõigluse printsiipide sõnastamiseni, millest töös andmetega lähtutakse.

      1.1.5. Andmeõiglus andmeanalüütiku töös

      Vajadus sõnastada sotsiaalse õigluse põhimõtted, mis sobiksid tööks andmetega, tulenes andmelahenduste loomise arengust, kus andmetehnoloogia looja huvid ja väärtused kaldusid domineerima üksikisiku huvide üle. Näiteks on algoritmid, mudelid ja sotsiaalne profileerimine kasutusel kindlustuse müümisel, laenuotsuste tegemisel, suunatud reklaamides ja kuriteoennetuses.

      Optimistlikult hinnates on profileerimise eesmärk teha kiiremaid ja paremaid otsuseid ning pakkuda sobivamaid teenuseid, lähtudes andmemassiivis märgatud seaduspärasustest. Algoritmid lihtsustavad, ühtlustavad ja kiirendavad otsuste tegemist eriti olukorras, kus otsuste hulk on liiga suur, et võimaldada ettevõttel või riigiasutusel teha individuaalseid otsuseid, seega on need tänapäevases maailmas mõneti paratamatud (vt nt Kearns, Roth 2019). Riigi perspektiivist võib see parandada otsusprotsessi (nt kes suunata esmajärjekorras tööturuteenuste sihtgruppi, ennetamaks pikaajalist töötust; milliste ettevõtete ja üksikisikute tuludeklaratsioone põhjalikumalt kontrollida, et avastada võimalikke maksupettusi; millisesse piirkonda saata rohkem politseinikke, et kuritegevust ennetada) ning tagada piiratud ressursside tõhusama kasutamise. Üksikisikule võib see tähendada võimalust perioodiliseks arstlikuks kontrolliks või seda, et muusikaplatvormid pakuvad tema eelistustega sobivat muusikat. Samas võib see aga kaasa tuua sagedasemat kinnipidamist liikluses või pidevat sattumist „juhuvalikusse“ lennujaama turvakontrollis, kõrgemat hinda kindlustust ostes või raskusi kodulaenu saamisel.

      Vajadused ja võimalused kasutada andmeid organisatsiooni muutuste juhtimiseks ja poliitika kujundamiseks ning tekkivad küsimused seoses poliitiliste, sotsiaalsete ja eetiliste väärtustega, mida andmed endas kannavad, on tõstatanud küsimuse andmeõiglusest. Andmeõigluse idee lähtub klassikalisest sotsiaalse õigluse kontseptsioonist ning püstitab küsimuse, kas ja kuivõrd need sõnastatud õigused ja vabadused on rakendatavad andmetehnoloogiate kasutamise ja loomise kontekstis ehk kuidas on võimalik „õigluse tagamine viisil, et inimesed ja nende vajadused on nähtavad, esindatud ja õiglaselt koheldud nende toodetud digitaalsete andmete tulemusena“ (Taylor 2017: 1).

      Andmeõigluse idee pöörab tähelepanu levinud probleemile, et üldiste seaduspärasuste põhjal koostatud algoritmid teevad otsuseid konkreetse üksikisiku kohta, kelle puhul üldine reegel ei pruugi kehtida ja seetõttu võib automaatselt tehtav otsus olla ebaõiglane, mittevajalik või isegi kahjulik. Sarnaste profiilide negatiivsest mõjust on viimastel aastatel ilmunud mitmeid uurimusi. Kriitilisem vaade profileerimisele toob esile eetilisi probleeme seoses õigluse ja privaatsusega (Kearns, Roth 2019), võrdse kohtlemise (Eubanks 2018; Noble 2018; Ferguson 2017), nõuetekohase menetluse (due process), turvalisuse ja vastutusega (liability), rõhutades, et algoritmid ja arvutimudelid muudavad inimeste eelarvamused pealtnäha objektiivseteks faktideks, mis hakkavad samu eelarvamusi taastootma või isegi võimendama. Näiteks on andmetehnoloogiate kasutamine tõstatanud küsimuse sellest, kuidas mõistetakse sotsiaalset mitmekesisust olukorras, kus üle riigipiiride levivad granulaarsed andmed kaardistavad inimeste igapäevaelu kogu selle detailsuses ning võimaldavad luua mitmekesiseid lahendusi, kuid andmeanalüüsi tehnikad ja meetodid kasutavad inimeste vananenud, dihhotoomseid arusaamu mitmekesisusest (1 – õige, 2 – vale).

      Andmeõigluse printsiipide sõnastamise ja kokkuleppimise vajadust ning võimalikke vastuolusid võimaluste ja ohtude vahel andmelahenduste kasutamisel ja disainimisel illustreerib joonisel 1.1.1 esitatud näide. Isesõitvad autod on arendatud eesmärgiga tagada inimestele võrdne juurdepääs taristule, näiteks haiglatele. Disainerid töötavad välja algoritmid, tuginedes iseenda väärtustele ja ideaalidele. Disainerid loovad oma ideaalidele tuginedes algoritmid, mis otsustavad ka selle, kelle elu liiklusohtlikus situatsioonis säästa. Algoritm võib soovitada esimese eelistusena sõita üle vanema elanikkonna rühma esindajast, kes võib olla selle algoritmi korral peamine sihtrühm. Samuti võib isesõitev auto luua juurdepääsu olulisele objektile (nt haigla), kuhu teised transpordivahendid ei vii (vt nt Awad et al. 2018). Näide illustreerib ilmekalt, et eri perspektiividest vaadatuna võivad arusaamad õiglusest erineda, samuti ei pruugi üksikinimese arusaam langeda kokku kogukonna või ühiskonna väärtushinnangutega. Lisaks, kuigi ühes sotsiaalses kontekstis loodud andmelahendused võivad teises ajas ja ruumis olla tehniliselt rakendatavad, ei pruugi see olla sotsiaalselt aktsepteeritav, õigustatud ega ka vajalik.

      Joonis 1.1.1. Näide moraalse masina eksperimendist (Awad et al. 2018). A. Ootamatu piduririkkega isesõitev auto sõidab edasi ja põrkab vastu betoonbarjääri. Selle tulemuseks on: 1) vigastatud mees, 2) surnud eakas naine, laps ja koer.

      B. Ootamatu piduririkkega isesõitev auto sõidab teisele sõidurajale ja siis ülekäigurajale. Selle tulemuseks on: 1) vigastatud kurjategija, 2) surnud naissportlane, naissoost arst, poiss ja mees.

      Andmeõigluse kui põhimõtete kogumi sõnastamine sotsiaalselt õiglaste andmelahenduste kasutamiseks ja loomiseks (Taylor 2017; Dencik et al. 2019) keskendus algselt andmetega seotud ühiskondlike ja kultuuriliste

Скачать книгу