Luottamus algoritmien aikana – keskusteluja SHIELD-päivässä 23.1.2025

Kirsimarja Blomqvist

Kirsimarja Blomqvist.

Luottamusta on tutkittu eri tieteenalojen näkökulmista ja luottamuksen käsitteelle löytyy kymmeniä määritelmiä. Strategisen tutkimuksen neuvoston rahoittaman, turvallisuutta ja algoritmeja käsittelevän SHIELD-ohjelman luottamusta käsittelevä seminaari 23.1.2025 toi yhteen monitieteiset tutkimusryhmät. Päivään osallistui tutkijoita filosofiasta, kognitiivisesta psykologiasta, sosiaalipsykologiasta, sosiologiasta, valtiotieteistä, tietojärjestelmätieteistä, tietojohtamisesta, data-analytiikasta ja juridiikasta.

Eri tieteenalojen tutkijoiden vuoropuhelu on yhteiskunnallisten haasteiden käsittelylle kriittistä, mutta keskustelu puuroutuu helposti yhteisen käsitteistön puutteeseen ja johtaa siihen, että ihmiset eivät keskustele, vaan puhuvat toistensa ohi. SHIELD-päivässä luottamuksesta kiinnostuneet tutkimusryhmät toivat työskentelyyn case-kuvauksia työn alla olevasta tutkimuksestaan.  Tutkimuskontekstit vaihtelivat tekoälyavusteisesta kielenkääntämisestä turvapaikkahakijoiden kohtaamiseen, disinformaatioon ja filosofin digitaaliseen kaksoseen. Case-kuvausten avulla luotu yhteinen konteksti ja kiinnostus luottamusta kohtaan synnyttivät vilkkaan ja kiinnostavan debatin.

Päivän keskusteluissa toistui huoli ihmisen ja yhteiskunnan haavoittuvuudesta. Miten helposti – ja usein tahtomattaan - poliittiset ja organisatoriset päätökset voivat aiheuttaa yhteiskunnan luottamusta murentavan kierteen. Nopeasti muuttuvassa ja kompleksisessa maailmassa liiallinen luottavaisuus on myös riski. Tarvitaan myös analyyttista arviointia siitä, mitä algoritmeilta voi odottaa, ja missä määrin niihin voi luottaa.

Algoritmien hyödyntäminen kehityshankkeissa voi tuoda yhteiskunnalle säästöjä ja hyötyjä, mutta niiden käyttöönotto vaatii monipuolista ymmärrystä ja huolellista harkintaa. Algoritmiset järjestelmät ovat yhä älykkäämpiä ja vaikeasti hallittavia. Kuten SHIELD-ohjelman filosofit muistuttivat, nopeasti kehittyneistä kognitiivista kyvyistä huolimatta algoritmeilla ei ole moraalia. Hyvätkin pyrkimykset voivat johtaa ennakoimattomiin ja haitallisiin seurauksiin.  

Monitieteinen keskustelu ja tutkijoiden vuoropuhelu algoritmisia järjestelemiä kehittävien ja niitä hyödyntävien tahojen kesken on pieni investointi yhteiskunnan luottamuksen säilyttämiseksi. 

Edellinen
Edellinen

Digitaalinen valvonta ja vakuutus paimentajana

Seuraava
Seuraava

Datakeskuksissa on eroja – REPAIR järjestää kolme datakeskustyöpajaa maaliskuussa