Algoritminen epäoikeudenmukaisuus

Kirjoittanut David Casacuberta

14. maaliskuuta 2017

Keinoäly on tehnyt mahdolliseksi automatisoida päätökset joista ihmisolennot ovat tähän asti olleet vastuussa. Vaikka monet näistä päätöksistä tehdään viihteen ja sosiaalisen medioiden aloilla, automatisoitu päätöksenteko on käytössä myös rahoituksen, koulutuksen, työmarkkinoiden, vakuuttamisen, lääketieteen ja oikeustieteen aloilla. Tällä ilmiöllä on kauaskantoiset yhteiskunnalliset seuraukset, ja se herättää monenlaisia kysymyksiä, esim. ”mitä tapahtuu työpaikoille jotka huolehtivat näiden päätösten tekemisestä aiemmin” ja ”kuinka me takaamme että nuo algoritmit tekevät reiluja päätöksiä?”

Mary Bollender on rahan kanssa kamppaileva yksinhuoltajaäiti Las Vegasista. Yhtenä aamuna vuonna 2014, kun hänen kymmenvuotias tyttärensä oli kuumeessa joka ei mennyt pois, Mary päätti viedä hänet päivystykseen. Mutta kun he pääsivät autoon, se ei suostunut käynnistymään. Ongelma ei ollut moottorissa tai tyhjässä tankissa: pankki oli etänä aktivoinut laitteen joka esti hänen autoaan käynnistymästä koska hänen autolainansa lyhennys oli kolme päivää myöhässä. Heti kun hän maksaisi sen, hänen autonsa lähtisi liikkeelle. Valitettavasti hänellä ei ollut tuona aamuna rahaa.

Yhteiskuntamme jatkaa monimutkaisemmaksi muuttumistaan, datan digitalisoinnin laajentuessa massiivisesti. Mary Bollenderin kaltaiset tapaukset tulevat yhä yleisemmäksi: automatisoidut päätökset, jotka perustuvat systemaattisen henkilökohtaisen datan keräämiseen, millä on mahdollisesti negatiivinen vaikutus elämiimme. Algoritmit kontrolloivat sitä ketkä ystävistämme näkevät ensimmäisenä postauksen Facebookin uutisvirrassa ja suosittelevat elokuvia joita saattaisimme katsoa Netflixissä, mutta algoritmit päättävät myös antaako pankki meille lainan, voidaanko joku oikeuskäsittelyä odottava päästää vapaaksi takuita vastaan, ansaitsemmeko tohtoriväitösstipendin ja olemmeko sen arvoisia että tulisimme yrityksen palkkaamaksi.

Nämä tietokoneohjelmat tai algoritmit eivät ole tehty niin, että ihmis-ohjelmoijat analysoivat ja ratkaisevat ongelmia ja sitten syöttävät ohjeet tietokoneelle. Ne ovat monimutkaisten matemaattisten operaatioiden hedelmää, jotka etsivät digitoidun datan merestä kuvioita. Ne eivät ole niinkuin resepti joka esittää listan aineita ja sitten kertoo meille mitä tehdä niillä askel askeleelta. Kyse on enemmänkin tapauksesta ”avaa jääkaappi, katso mitä siellä on, pyöri keittiössä ja etsi kattiloita joita voit käyttää, ja tee sen jälkeen minulle illallinen kuudeksi.” Tämän tyypin algoritmit jotka eivät ole eksplisiittisesti ohjelmoijan suunnittelemia sijoittuvat ”koneoppimisen” konseptin alle.

Koneoppivia algoritmeja tällä hetkellä käytetään datan prosessointiin ja määrittämään kykeneekö henkilö maksamaan lainan takaisin. Henkilö, joka ohjelmoi algoritmin, kasaa tietokannan ihmisistä jotka ovat pyytäneet aiemmin lainaa, johon kuuluu kaikenlaista muutakin dataa: hakijan ikä ja sukupuoli, maksoivatko he summan kokonaisuudessaan takaisin, oliko heillä ja kuinka paljon myöhästyneitä takaisinmaksuja, keskimääräinen palkka, kuinka paljon veroa he maksoivat, missä kaupungissa ja kaupunginosassa he asuvat, ja niin edelleen. Algoritmi käyttää tilastollisia kaavoja kaikkeen tähän dataan ja sen jälkeen generoi kuvioita jotka estimoivat todennäköisyyden sille, että uusi potentiaalinen asiakas maksaa lainan takaisin. Luotettavuus on usein ainoa kriteeri jota käytetään näiden algoritmien kehittämiseen. Onko ohjelma tarpeeksi tarkka korvaamaan ihmisen? Jos vastaus on kyllä, sille näytetään vihreää valoa.

What’s an algorithm? | David J. Malan | Ted Ed

Ei ole helppoa määrittää luotettavuutta. Todella luotettavan algoritmin kehittäminen on osittain tiedettä ja osittain taidetta. Kun me mietimme tietokoneohjelmia tai tekoälyä, me väistämättä tuppaamme inhimillistämään ja kuvittelemaan jonkinlaisen olennon, joka käyttäytyy mentaalisten prosessien mukaan samalla tavoin kuin me itse. Mutta se ei ole miten homma toimii. Automatisoitu algoritmi ei analysoi esimerkkejä jotka me sille annamme ja sitten yritä saada aikaan jonkinlaista kausaalista linkkiä datan ja lopputuloksen välillä. Algoritmi itsessään ei tiedä mitään sukupuolesta, iästä, rahoitustilanteesta, työttömyydestä jne. Se yksinkertaisesti on sarja numeroita ja se yrittää löytää kuvioita jotka sallivat sen keksiä oikean tuloksen niin usein kuin mahdollista.

Ja tämä on se missä ongelmat tulevat mukaan. Perinteinen ihmisen kehittämä ohjelma seuraa tiettyä logiikkaa, joten on mahdollista ymmärtää mitä se tekee. Automatisoitu algoritmi on kuin musta laatikko. Me annamme sille tiettyä syötettä (lainanhakijan henkilötiedot) ja se antaa tietyn ulostulon (todennäköisyys että henkilö maksaa lainan takaisin). On erittäin vaikeaa — tai lähes mahdotonta — tietää miksi ohjelma päätti hylätä tai hyväksyä tietyn lainahakemuksen.

1980-luvulla USA:n armeija antoi toimeksiannon tiedemiehille kehittää automaattinen kuvantunnistusohjelma joka voisi havaita naamioituja tankkeja reaaliaikaisesti. Tiedemiehet pyysiivät armeijan upseereita tarjoamaan useita valokuvia eri kohteista joka oli järjestetty pareiksi: toisessa näkyy kohde ilman tankkia ja toisessa näkyy sama kohde puskiin naamioitu tankki vierellä. Idea oli kehittää algoritmi joka keksisi sarjan kriteereitä tankkien havaitsemiselle. Ohjelma toimi huomionarvoisen hyvin.

Se oli sataprosenttisen oikeassa. Itse asiassa, se havaitsi tankkeja, jotka olivat niin hyvin naamioituneita että ihmisetkään eivät niitä kyenneet havaitsemaan. Tutkijat olivat niin yllättyneitä, että he päättivät analysoida mitä kriteerejä algoritmi käytti. Syväluotaavan valokuvien ja algoritmin analysoinnin jälkeen he tajusivat, että ohjelma ei itse asiassa tunnistanut tankkeja tai edes mitään sinne päin. Oletetaan että armeija oli ottanut valokuvia paikoista ilman tankkia keskipäivällä. Valokuvat, joissa naamioitu tankki oli, oli otettu kuudelta iltapäivällä. Joten jotta päätettäisiin oliko kuvassa tankki, ainoa mitä algoritmin tuli tehdä, oli tarkastella auringon sijaintia.

Toinen esimerkki on itseohjautuvat autot. Me haluaisimme kuvitella että autoa ajavilla algoritmeilla on jonkinlainen idea tien, liikennevalojen, suojatien, pyöräilijän, toisen auton jne jne ideasta. Mutta todellisuudessa ne ovat vain kehittyneitä versioita tankin havaitsevasta algoritmista. Niiden oppimiskyky on erittäin kontekstiriippuvaista ja riippuu täysin sen ympäristön vasteesta, jossa algoritmia on opetettu. Ja koska ne ovat mustia laatikoita, me emme koskaan voi tietää varmasti miten itseään ajava auto reagoi kontekstissa joka on merkittävästi erilainen kuin se jossa sitä alunperin on opetettu.

Kun annetaan tarpeeksi opetusta erilaisissa konteksteissa, me voimme keksiä algoritmeja jotka ovat todella robusteja ja luotettavia. Muta silti on vieläkin salakavalampi ongelma: oikeudenmukaisuus, tai reiluus. Ottaen huomioon että puhumme ohjelmista jotka tunnistavat kontekstuaalisia kuvioita rajoitetussa datajoukossa, ja jotka eivät perustu oikeaan tietoon ympäristöstä, yksikään algoritmi ei koskaan voisi harkita aktivoivansa Mary Bollenderin autoa jotta hän voisi ajaa tyttärensä sairaalaan. Se vain tietää kuka maksaa lainanlyhennyksensä ja kuka ei. Köyhillä alueilla ei ole paljon korkeampi velkatappiosuhde. Suuri prosenttiosuus yksinhuoltajaäideistä maksaa asuntolainan ja muiden lainojen lyhennyksiään myöhässä. Automatisoitu algoritmi epäilemättä hylkäisi yksinhuoltajaäidin lainahakemuksen köyhästä kaupunginosasta. Päätös olisi epäilemättä tilastollisesti oikea. Mutta olisiko se reilu? Haluammeko elää maailmassa jossa elämän kriittiset päätökset perustuvat kontekstiriippuviin tilastollisiin malleihin?

Koneoppimisen algoritmit, joita tällä hetkellä kehitetään, tarvitsevat humaanisuutta. Meidän tulee rakentaa infrastruktuureja yhteistyölle softakehittäjien ja humanistien välillä. Meidän tarvitsee kehittää yhteinen kieli jolla sosiologit, antropologit, filosofit ja taiteilijat voivat ymmärtää tällaisen uudenlaisen softan perustoimintoja, ja tietokoneinsinöörien ajatella sitä miten sisällyttää etiikka, rauhallinen yhteiselo, oikeudenmukaisuus ja solidaarisuus uuteen softaan. Ehkä jonain päivänä meidän onnistuu kehittää keinotekoinen superäly josta Elon Musk on niin innoissaan. Mutta tällä hetkellä meidän tulee olla enemmän huolestuneita siitä kuinka olemassaolevat ohjelmat voivat kasvattaa rasistisia, ksenofobisia ja seksistisiä vinoumia joita yhteiskunnassamme esiintyy.

 

Lähde:

http://lab.cccb.org/en/algorithmic-injustice/

 

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

This site uses Akismet to reduce spam. Learn how your comment data is processed.