Luottamus tekoälyyn on ansa(ittava)

Onko kysymys tekoälyjärjestelmien datan keruun perimmäisestä oikeutuksesta ja sosiaalisesta kestävyydestä jäänyt epäselväksi? Ajaudutaanko datan keruussa ansaan, jossa tekoälytoimijat murentavat kansalaisten luottamusta? 

Massadatan, ennakoivan analytiikan ja tekoälyn hyödyntämisen avulla on mahdollista löytää uusia tapoja helpottaa kansalaisten arkea ja hahmottaa tulevaisuutta. Erilaisten sovellusten, teknologioiden ja alustojen kautta kerätään ja luodaan esimerkiksi hyvinvointi- ja terveysdataa, jota julkiset toimijat käyttävät hyödyksi toimintojensa tehostamiseen ja datanvälittäjät myyvät erilaisiin tarkoituksiin.

Koneoppimisalgoritmien massadatasta rakentamat mallit voivat kuitenkin olla alttiita virhepäätelmille.  Dataan liittyvät käytännöt voivat tuottaa epäoikeudenmukaisia ja haitallisia vinoumia ja vähentää päätösten läpinäkyvyyttä. Teknologisten ratkaisujen käyttö hallinnan muotona voi myös ohjata ihmisen toiminnanmahdollisuuksia – niin yksilön itsensä kuin esimerkiksi viranhaltijan. Siksi on tärkeä tunnistaa teknologisten sovellusten valta ja riskit. Luottamuksen voi menettää vain kerran.

Sosiaalisesti kestävässä Suomessa kansalaisilla on mahdollisuus vaikuttaa tulevaisuuteensa, vaatia oikeuksiaan ja tuoda esille huolenaiheitaan. Sosiaalinen kestävyys, yksi kestävän kehityksen osa-alueista, korostaa ihmisten tasavertaisia mahdollisuuksia voida hyvin, saavuttaa perusoikeudet, hankkia elämän perusedellytykset ja osallistua päätöksentekoon.

Tähän liittyy oleellisesti sosiaalisen hyvinvoinnin käsite, johon luetaan kuuluvaksi mm.  sosiaalinen koherenssi, eli kyky ymmärtää yhteiskunnan ja oman sosiaalisen elinympäristön laatua, sekä sosiaalinen toiveikkuus, eli luottamus siihen, että yhteiskunta pystyy kehittymään hyvään suuntaan. Luottamuksen vallitessa on mahdollista innovoida uutta silloinkin, kun täytyy sopeutua uusiin, muuttuviin olosuhteisiin. Luottamuksen rapautuessa kasvaa yhteiskunnallisen kaaoksen mahdollisuus.

 

Pohdimme luottamusta Data, AI and Public Sector Governance – konferenssissa

Pohdimme luottamuksen ylläpitämistä Data, AI and Public Sector Governance – konferenssissa, joka keskittyi tarkastelemaan tekoälyn mahdollisuuksia YK:n kestävän kehityksen tavoitteiden saavuttamisessa.

Konferenssi kokosi yhteen tutkijoita, julkisen sektorin viranomaisia sekä datan ja tekoälyn asiantuntijoita 100 eri maasta. Konferenssin järjestivät DataLit, Helsingin yliopisto ja FCAI yhteistyössä UNITAR:n, VTT:n, ETAIROS-hankkeen ja muiden merkittävien suomalaisten tutkijoiden ja tutkimusryhmien kanssa. Konferenssin avauspuheenvuorossa Presidentti Tarja Halonen alleviivasi hyvin luottamuksen ylläpitämistä ja ihmisten yksityisyyden suojan säilyttämistä toteamalla, että vaikka teknologia kehittyy huikeasti ja faktat ja mielipiteet muuttuvat, ihmisen perusoikeudet eivät muutu.  

Tekoäly voi palvella ihmisiä hyvinvointia edistävästi, mutta se voi olla myös lisäämässä ihmisten kaltoin kohtelua. Tämä ei koske ainoastaan kansalaisia, joiden on yhä vaikeampi varmistaa tarjottavan tiedon oikeellisuus. Myös poliitikot ja jopa poliisi ovat valheellisten someyökkäysten ja informaatiovaikuttamisen kohteena. Poliittisessa päätöksenteossa olisikin Tarja Halosen mukaan tärkeää huomioida, että digitaalisessa siirtymässä tekoäly valjastetaan hyvään, korjaamaan ihmisten tekemiä virheitä, ja huolehtimaan siitä, että ketään ei syrjitä. 

VTT, ETAIROS-hanke ja Helsingin yliopisto järjestivät konferenssissa kestävää kehitystä käsittelevän seminaarin 

Seminaarissa jaettiin mm. kokemuksia ja ajatuksia siitä, miten hallintokäytäntöjä tulisi kehittää hyödyntämällä suurten tietoaineistojen tarjoamia mahdollisuuksia julkishallinnossa.  

Emad Yaghamei, YAGHMA:n toimitusjohtaja ja vanhempi tutkija Delft University of Technology:ssä toi esiin, että tekoälyn hyödyntäminen kestävän kehityksen tunnistamiseen voi tuottaa yhteiskunnallista hyvää. Tekoälyjärjestelmä voi kuitenkin itsessään olla myös merkittävä uhka kestävän kehityksen tavoitteille. Hänen mukaansa 30-40 prosenttia yritysjohtajista on sitä mieltä, että algoritminen mahdollinen puolueellinen vinoutuminen on heille suuri haaste samalla kun se nostaa esiin sosiaalisia riskejä. Monet yritykset tahtovatkin lieventää ennakkoluuloja ja suunnitella tekoälyä keskeisten arvojen, kuten oikeudenmukaisuuden, selitettävyyden ja yksityisyyden suojelemisen mukaisesti. 

Tekoälypohjaisten sovellusten käyttöönoton toivotaan julkisella sektorilla usein edistävän tehokkaampia palveluja. Toiveikkaat kehitysnäkymät kohdistuvat suurten datamassojen keräämiseen ja käsittelyyn edistyneen teknologian ja analytiikan avulla. Data koostuu nykyään pääasiassa tallennetusta digitaalisesta informaatiosta, kuten tekstistä, kuvasta ja äänestä. Mahdollisuus tietojen yhdistämiseen edesauttaa kehittämään tehokkaampia ja parempia palveluja ja asiakkaan kannalta toimivampia palvelukokonaisuuksia. Se edesauttaa myös uusien, yksilöllisten palveluinnovaatioiden synnyttämistä.  

Kansalaisten kannalta se tarkoittaa esimerkiksi toimivampia, nopeampia ja vaikuttavampia terveyspalveluja sekä parempaa hoitoa ja hoivaa. Koska Suomessa on perinteisesti kerätty kansalaisista tietoa, meillä on valtava määrä henkilötunnuksilla varustettua dataa eri rekisterinpitäjien lukuisissa rekistereissä. Dataa ovat keränneet yksityisten ammatinharjoittajien lisäksi mm. THL, Työterveyslaitos, STM, Kela, Eläketurvakeskus, Tilastokeskus ja Digi- ja väestötietovirasto.  

Suurkaupungit ovat merkittävä massadatan hyödyntäjä

Helsingin kaupungin tietojohtaja Mikko Rusama kertoi Helsingin keskittyvän palveluntarjonnassaan ennakoivaan ja ihmiskeskeiseen palvelutuotantoon käynnistämällä automaattisesti yksilöllisiä palveluita kontekstitietoisuuden avulla. Ennakoivan palveluntarjonnan ajatellaan tuottavan etuja sekä kansalaiselle (esim. ajansäästö tai terveyshyödyt) että kaupungille (esim. kustannusten pieneneminen). Paineet Helsingin palveluntarjonnan kohdistamiseen lisääntyvät mm. väestön ikääntymisen, terveysongelmien kasaantumisen, kasvavan maahanmuuton ja liian pienten resurssien vuoksi. Merkittävää on esimerkiksi se, että 10 prosenttia ihmisistä aiheuttaa 80 prosenttia sosiaali- ja terveydenhuollon kustannuksista. Tunnistamalla ja hoitamalla nämä ihmiset hyvissä ajoin voidaan saada aikaan huomattavia säästöjä kaupungin taloudessa.  

Tässä on oleellista se, että kaupungilla on riittävät henkilötiedot ja tiedot kansalaisten todennäköisestä palvelutarpeesta. Itse asiassa dataa tulisi olla käytettävissä todella paljon kokonaisvaltaisen kuvan saamiseksi ihmisten tarpeista ja toiveista.  

Tekoälyllä ei ole muuta ymmärryksensä polttoaineeksi kuin ihmisen sille syöttämä tieto 

Missä kulkee raja profiloinnin ja esimerkiksi laadukkaan, yksilökeskeisen hoitopalvelun välillä? Sama järjestelmä ja palvelu voidaan tulkita hyvin eri tavoin yksilöstä riippuen. Miten järjestelmästä saadaan hyödyllinen ja luottamusta herättävä? Entä miten opt out –mahdollisuus tarjotaan niille, jotka sen haluavat? 

Massadatan kerääminen erilaisten sovellusten kautta mahdollistaa kerättyjen henkilötietojen yhdistelyn ja erilaisten profiilien luomisen kansalaisista eri tarkoituksiin. Henkilötietoa ovat esimerkiksi henkilön nimi, kotiosoite, valokuva, sähköpostiosoite, sosiaalisen median päivitykset, ostokset, pankkitiedot, käyttäjätunnus ja -salasana, maksukorttinumero sekä IP-osoite. Henkilötietoa voi olla myös esimerkiksi kasvontunnistukseen perustuvassa valvontakamerassa.  

Entä jos dataa ei voi saada riittävästi? Tekoälyalgoritmit ovat ongelmallisia, jos ne koulutetaan liian suppeilla tietokokonaisuuksilla. Ne voivat tuottaa ohjaavia mutta samalla syrjiviä tulkintoja, jotka aiheutuvat puutteellisesta, virheellisestä tai vinoutuneesta datasta, tai datasta, joka heijastaa kerääjiensä ennakkoluuloja.  

Kaikki ihmiset eivät ole tasa-arvoisessa asemassa datan tuottajina esimerkiksi silloin kun dataa tuotetaan tietokoneen tai älypuhelimen avulla. Kaikilla ei ole tietokonetta, sovelluksia, skanneria, tai pääsyä kännykkäpohjaisiin palveluihin vanhanmallisen matkapuhelimen vuoksi. Jos tekoäly kerää tietoa vain hyvinvoivasta ja hyväosaisesta väestöstä, laatii tästä tiedosta hoitosuosituksia, ja näitä suosituksia käytetään heikompiosaisten hoitoon, hoitotulokset eivät silloin ole ehkä parhaita mahdollisia.  Ne voivat jopa olla haitallisia. Elintasoeroista, iästä ja useista muista tekijöistä johtuen sairaudet ja niiden syyt voivat olla eri ihmisillä erilaisia, jolloin tutkittu profiili ei ehkä vastaakaan koko kansan profiilia.   

Kun tietoa saadaan vain kyvykkäiltä ja halukkailta, jotakin olennaista yhteiskunnasta jää varmasti pimentoon

Euroopan komission asiakirjassa Trustworthy AI todetaan, että on tärkeää voida luottaa paitsi siihen, että tekoälyjärjestelmät ovat lainmukaisia ja eettisten periaatteiden mukaisia, myös siihen, että kaikkiin tekoälyjärjestelmän elinkaaren vaiheisiin osallistuvat ihmiset ja prosessit ovat myös vastaavalla tavalla luotettavia. Kansalaisen katse siirtyy siksi tekoälyjärjestelmistä laajemmin yhteiskunnallisiin valtarakenteisiin, etsien vahvistusta toiveelle tekoälyn eettisestä käytöstä, tasa-arvoisesta yhteiskunnasta ja yksilöiden itsemääräämisoikeudesta. 

Kaiken perustana on se, että julkisella toimijalla tulee olla lupa käyttää kansalaisilta keräämiään tietoja. Tietyissä tapauksissa lupa on lakisääteinen (perustuslain mukaan henkilötietojen suojasta säädetään lailla), mutta tarvitaan myös ”sosiaalinen toimilupa”. SLO – social licence to operate tarkoittaa yhteisön organisaatiolle myöntämää epävirallista hyväksyntää. Tällainen lisenssi perustuu luottamukseen organisaation sosiaalisesta vastuunotosta, siihen, että kerätty tieto ei päädy kolmansien tahojen silmiin. Sosiaalista toimilupaa käytettiin alun perin kaivostoimintaan viitaten. Ympäristönsuojelua ja kestävyyttä koskevan tietoisuuden lisääntymisen myötä kaivostoiminnan oikeutusta alettiin kyseenalaistaa. Tuli ilmeiseksi, että kaivosteollisuus voi täyttää kaikki lain mukaiset velvoitteensa, mutta jos se käyttää arvokkaita luonnonvaroja huolehtimatta asianmukaisesti ympäristöstä tai paikallisista asukkaista, se ei ole onnistunut saavuttamaan sen yhteisön luottamusta, jossa se toimii.

Ajan mittaan sosiaalinen lisenssi -käsite on yleistynyt ja sitä käytetään nyt kuvaamaan minkä tahansa yrityksen tai organisaation sosiaalista vastuuta: lakien ja säännösten noudattamisen lisäksi organisaatio tarvitsee yhteisön hyväksynnän toiminnalleen. Hyväksyntä syntyy vuorovaikutuksesta, uskottavuudesta, luottamuksesta ja legitimiteetistä eli yhteisön normien ja pelisääntöjen mukaan pelaamisesta, ja tulevaisuuden tekemisestä yhdessä.  

Luottamus on vaikea saavuttaa, mutta helppo menettää. 

Kirjoittajat Jaana Leikas, Antero Karvonen ja Nina Wessberg ovat ETAIROS-projektin tutkijoita VTT:llä. 

 

Photo by Vishnu Mohanan on Unsplash