Syrjivät algoritmit nakertavat luottamusta Pohjolan hyvinvointivaltioissa – on aika unohtaa keppi ja panostaa tukeen

Minna van Gerven

Mustavalkoisessa valokuvassa on pitkä jono ihmisiä. Kuvaa on muokattu pikselöimällä se ja piirtämällä konenäköjärjestelmistä tuttuja neliömäisiä ruutuja ihmisten ympärillä. Kuva: alkuperäinen kuva: Reino Kaatonen, Lappeenrannan taidekumuseot, 1959.

Alkuperäinen kuva: Reino Kaatonen, Lappeenrannan taidekumuseot, 1959. Kuvaa muokattu.

Viimeisten muutaman viikon aikana pohjoismainen hyvinvintoivaltio -brändi on saanut uuden algoritmiväritteisen sävyn: niin Tanskasta kuin Ruotsista ollaan julkaistu selvitykset algoritmisten järjestelmien käytöstä etuuspetoksien tunnistamisessa ja näiden järjestelmien laajoista syrjivistä vaikutuksista. Selvitysten mukaan molemmissa tapauksissa tekoälytyökalut ovat käytännössä luoneet EU:n tekoälysäädöksen kieltämän pisteytysjärjestelmän, joka syrjii esimerkiksi vammaisia, pienituloisia sekä maahanmuuttajataustaisia ihmisiä.

Vaikka tapaukset ovat ensimmäisiä pohjoismaissa, ovat ne valitettavasti jatketta kasvavalle listalle samankaltaisista tapauksista ympäri Eurooppaa. Erityisen tunnettuja ovat Alankomaiden tapaukset, joissa petosten ehkäisyyn tarkoitetut algoritmit saivat aikaan tuhoisia seurauksia. SyRI-järjestelmä ja veroviranomaisten lapsilisä-etuuksien algoritmit, joiden tavoitteena oli etuuspetosten tunnistaminen, johtivat laajamittaisiin vääriin petosepäilyihin ja vakaviin seuraamuksiin Alankomaissa. Lapsilisä-skandaali kosketti yli 50 000 perhettä, joilta perittiin perusteetta takaisin saatuja tukia, ja joka johti lopulta yli 1500 lapsen huostaanottoon. Skandaali johti myös pääministeri Mark Rutten hallituksen kaatumiseen. Molemmat järjestelmät syrjivät erityisesti maahanmuuttajataustaisia ja pienituloisia. Samankaltaisia esimerkkejä löytyy myös muualta. Iso-Britannian Työ- ja eläkeministeriö (DWP) on joutunut äskettäin syytösten kohteeksi tiettyjen kansallisuuksien (Bulgarian, Albanian, Romanian, Puolan ja Kreikan kansalaisten) syrjinnästä petosten ehkäisyyn tarkoitetuissa järjestelmissään. 

Tarkoittaako siis algoritmien käyttö sosiaalipalveluiden kontekstissa aina kasvavaa syrjintää ja inhimillisiä kustannuksia? Ei välttämättä. Parhaassa tapauksessa tekoäly ja algoritmiset järjestelmät voivat tehostaa ja tarkentaa sosiaalipalvelujen toimintaa käsittelemällä laajoja tietoaineistoja ja kohdentamalla toimenpiteitä yksilöllisesti. Näiden järjestelmien oikeudenmukaisuus riippuu kuitenkin ratkaisevasti niiden suunnittelusta ja käyttötarkoituksesta. Teknologian kyky kohdistaa interventiot yksilötasolle voi joko edistää haavoittuvassa asemassa olevien ihmisten tunnistamista ja inkluusiota – tai vaihtoehtoisesti vahvistaa syrjiviä ja poissulkevia käytäntöjä.

Niin Tanskan ja Ruotsin tuoreet tapaukset kuin muut esimerkit yllä osoittavat, kuinka laaja-alaisia epäoikeudenmukaisuuksia algoritmien käyttö voi aiheuttaa. Ennakoivat algoritmit eivät ainoastaan toista olemassa olevia rakenteellisia ennakkoluuloja, vaan voivat myös vahvistaa niitä (Mitchell et al., 2021). Investoinnit petosten torjuntaan hyvinvointivaltion modernisoinnin nimissä herättävät vakavia eettisiä kysymyksiä. Keskittyminen valvontaan ja rangaistuksiin tukea ja osallisuutta edistävien järjestelmien sijaan rapauttavat sosiaalista luottamusta – niin yksilöiden välillä kuin instituutioihin, jotka näitä järjestelmiä luovat.

Painopisteen tulisi siirtyä rankaisevista ja valvontakeskeisistä toimenpiteistä kohti tukevia ja osallistavia järjestelmiä. Luottamus hyvinvointivaltiota kohtaani tulisi olla ensisijainen tavoite, jossa riskien hallinta toteutetaan yksilöiden oikeuksia ja ihmisarvoa kunnioittaen.

Seuraava
Seuraava

Kuka korjaa rikkinäisen tietojärjestelmän? Ajatuksia Apotista, oikeudesta ja rikkoumista.