UNESCOn tekoälysuosituksen vanavedessä
”Monien etujen ohella tekoälyteknologiat tuovat mukanaan myös riskejä ja haasteita, jotka johtuvat teknologian pahantahtoisesta käytöstä tai eriarvoisuuden ja kuilujen syvenemisestä.” Näin alkaa UNESCOn tekoälyn etiikkaa koskeva suositus Recommendation on the Ethics of Artificial Intelligence, jonka UNESCOn yleiskonferenssi hyväksyi istunnossaan 24. marraskuuta 2021.
UNESCO pyrkii merkittäväksi foorumiksi eettisen ja ihmiskeskeisen tekoälyn kehittämisessä. Se haluaa kehittää tekoälyn vaikutusten ja eettisyyden arvioinnin metodologiaa. Se seuraa myös aktiivisesti tutkimustoimintaa ja organisoi asiantuntijaryhmiä tämän teeman ympärille.
UNESCOn suositus lähtee siitä, että tekoälyjärjestelmien koko elinkaaren kaikkiin vaiheisin liittyy eettisiä kysymyksiä. Suositus tarkastelee tekoälyn eettistä kehittämistä hyvinkin kokonaisvaltaisesti. Tämä näkyy muun muassa siinä, että eettinen tarkastelu on istutettu ihmisten käytännön toimintaan sisällyttämällä – ei vain tekoälyjärjestelmät ja niiden kehittäminen – vaan myös niiden käyttöön liittyvät kysymykset suosituksen piiriin.
Nostan seuraavassa esiin kuusi mielestäni huomion arvoista seikkaa, kun tarkastellaan UNESCOn suositusta Hyvän Elämän näkökulmasta. Nostoni perustuvat 18.5.2022 opetus- ja kulttuuriministeriön, valtiovarainministeriön ja Suomen Unesco-edustuston järjestämässä keskustelutilaisuudessa esittämiini huomioihin.
1. Ensimmäinen nostoni koskee tekoälyn luonnetta. Niin kuin UNESCOn suosituksestakin voi rivien välistä lukea, vaikka tekoäly on teknologinen ratkaisu, se on kuten kaikki teknologiat samalla kiinteä osa inhimillistä toimintaa. Tämän luonteen ymmärtäminen mahdollistaa sen, että tekoälyä koskevissa keskusteluissa ja kehityksessä ei keskitytä ainoastaan teknisiin artefakteihin, vaan tarkastellaan kehitystä systeemisenä kokonaisuutena. Tätä kautta jää paremmin tilaa keskustella toiminnan tavoitteista, riskeistä ja ohjauksen mahdollisuuksista ajoissa, eikä vasta sitten kun teknologia on jo kehitetty.
Jos tätä kokonaisvaltaista keskustelua ei käydä ajoissa, tekoälyn riskit liitetään helposti vain teknisten ominaisuuksien arviointiin. Se voi johtaa siihen, että ohjausta ja sääntelyäkin tarkastellaan suppeasti vain teknisen toteutuksen näkökulmasta. UNESCOn suositus antaa ymmärtää, että mikäli tämä kokonaisvaltainen näkökulma jätetään huomioimatta, käännetään helposti selkä monialaiselle tekoälykeskustelulle ja -kehitykselle. ”Tekoälytoimijoina” suositus viittaa kaikkiin toimijoihin, jotka osallistuvat vähintään yhteen tekoälyjärjestelmän elinkaaren vaiheeseen. Näitä ovat suosituksen mukaan sekä luonnolliset että oikeushenkilöt, kuten tutkijat, ohjelmoijat, insinöörit, datatieteilijät, ja loppukäyttäjät, sekä liikeyritykset, yliopistot, julkisyhteisöt ja yksityiset yhteisöt.
2. Yllä esitetyn kokonaisvaltaisen lähestymistavan kautta on mahdollista tarkastella toisen nostoni, luottamuksen rakentumisen kysymyksiä. Luottamus on merkittävä teema Suomen avoimen hallinnon politiikassa, yksi valtionhallinnon kahdeksasta yhteisestä arvosta, ja tärkeä resurssi muutoksen läpi viemisessä. ”Muutosten läpivieminen onnistuu vain, jos hallinto luottaa kansalaisiin, kansalaiset luottavat hallintoon ja julkisen hallinnon toimijat luottavat toisiinsa, yrityksiin ja kolmannen sektorin toimijoihin” toteaa finanssineuvos Katju Holkeri kolumnissaan. Luottamus ylläpitää sosiaalista yhteenkuuluvuutta ja rakentuu kuulemisesta ja osallisuudesta, mukaan ottamisesta, vaikuttamisesta ja demokratiasta (katso kollegani Marinka Lanteen blogi tällä sivustolla). Luottamuksessa ei siis ole välttämättä kyse tiedon puutteesta (miksi ihmiset luottavat salaliittoteorioihin?), vaan luottamusta rakennetaan tekoälykehityksessäkin sillä, että sidosryhmät osallistetaan yhteiseen kehitystyöhön. Pelkkä mielipiteen kysyminen ei vielä ole osallistamista. Mielipiteeseen reagoiminen on.
OECD:n luottamusarvioinnin mukaan Suomi on ollut todella huono jo kulttuurisesti kansalaisten osallistamisessa. Siksi meidän tulisi edistää laajempaa sosiaalista vuoropuhelua ja miettiä, millä keinoilla aidosti kuuntelemme ja kuulemme eri ihmisryhmien tarpeita ja arvoja. Näistä mahdollisuuksista tarvittaisiin yksinkertaisesti lisää empiiristä tutkimusta ja käytännön esimerkkejä.
3. Kolmas nostoni koskee arvoherkkyyttä. Nykyisin tuntuu yhä enemmän siltä, että talous ja kilpailukyky dominoivat, ja eettiset arvot ovat keskustelussa pinnallisia ja räikeästi päälle-liimattuja. UNESCOn suositus sen sijaan korostaa arvojen ja arvokeskustelun merkitystä. Samalla se viittaa ihmiskeskeiseen lähestymistapaan, jonka määrittely tosin jää tässäkin suosituksessa edelleen pinnalliseksi.
Pidän hyvänä UNESCOn suosituksessa sitä, että samalla kun se painottaa (kohdassa 14), että ihmisten elämänlaatua tulisi pyrkiä parantamaan, se samalla suosittelee, että ”elämänlaadun” määritelmä olisi jätettävä avoimeksi yksilöille tai ryhmille. Tämä edellyttää, että käydään ruohonjuuritason dialogia siitä, mitkä kulloinkin ovat kyseisen ryhmän ja sen yksilöiden hyvän elämänlaadun kriteerit. Tekoälykehittäjien tulee löytää keinot tämän keskustelun käymiseen.
Pidän myös siitä, että suosituksessa korostetaan ihmisen arvoa sosiaalisen ihmisyyden näkökulmasta: ”Jokainen ihminen kuuluu suurempaan kokonaisuuteen, joka kukoistaa vain, kun kaikki sen osat voivat kukoistaa” (kohta 23). Tämä tarkoittaa myös erityisryhmien ja yhteiskunnan marginaalissa elävien ihmisten huomioon ottamista ja polarisoitumisen estämistä. Se merkitsee mm. digitaalisten kuilujen poistamista, sitä, että ”tekoälyn kehittäminen on kaikkien ulottuvilla ja kaikki osallistuvat siihen” (kohta 28).
Suositus pohtii siis tekoälykehitystä myös marginalisaation näkökulmasta. Osallistavuuden teema ei ole jäänyt pelkästään otsikkotasolle. Ydinkysymys onkin, miten kaikki voivat osallistua tekoälyn kehittämiseen. Myönnän, että joskus hieman jo kyllästyttää tämä ”sidosryhmien mukaan ottamisen” mantra, joka liimataan otsikkoon vaivautumatta todella pohtimaa, mitä sillä tarkoitetaan. Nyt tarvitaan konkreettisia näkemyksiä ja harkittuja kokeiluja siitä, miten varmistetaan kansalaisyhteiskunnan täysipainoinen osallistuminen, ja sellaisten ryhmien mielekäs osallistumisen, joiden ääni on olennainen, mutta jota ei aina kuulla.
4. Neljäs nostoni koskee tekoälysovellusten kontekstuaalisuutta. Vaikka tekoäly on geneerinen teknologia, sitä koskeva etiikka on ymmärrettävissä kontekstisidonnaisena ilmiönä. Kontekstin ymmärtäminen tarkoittaa sitä, että tulisi ymmärtää myös tekoälyn dynaamiset vaikutukset. Kontekstin merkityksestä kertoo esimerkiksi se, että biasoitunut data voi olla toisessa kontekstissa lähes merkityksetön (jos sitä ei käytetä mihinkään toimintaan) ja toisessa taas äärimmäisen merkityksellinen. Vaikka tekoälytutkijoille ja kehittäjille on olemassa jo lukuisia työkaluja ja ohjeita eettisesti hyväksyttävän tekoälyn kehittämiseen (katso esim. FCAI:n Ethics Exercise Tool), tarvitaan myös kontekstisidonnaisia hallintamekanismeja luomaan ymmärrystä tekoälyn erilaisista käytöistä, jotta voidaan oikeasti ja täydesti nähdä tekoälyn mahdollisuudet hyvään.
5. Tästä saankin aasinsillan viidenteen nostooni, joka on tekoälyn eettinen potentiaali – tekoälyn tietoinen valjastaminen hyvän tekemiseen. Sen sijaan, että kaikki huomio tekoälyn etiikassa keskittyy vahinkojen välttämiseen, tulisi aktiivisesti pohtia ja kehittää tekoälyn eettisesti positiivista hyötyä, toisin sanoen edistää hyvää elämää. Yritykset keskittyvät tekoälykehityksessään lähinnä kilpailukyvyn parantamiseen ja kielteisten ympäristövaikutusten minimoimiseen. Mutta entä jos lähdettäisiin aktiivisesti pohtimaan sitä, miten tekoälyn voi valjastaa hyvän lisääntymiseen? Yhdistettäisiin aidosti tekoäly sosiaalisiin tavoitteisiin tukemaan ihmisarvoista talouskasvua ja mietittäisiin, miten tämä tehdään ilman, että samalla torpataan yritysten kilpailukykyä.
Timo Honkelan Rauhankone on varmaan ylevin esimerkki tekoälyn hyvään pyrkivästä käytöstä, mutta näkökulma voi olla arkisempikin, jossa lähtökohtana ovat yhteiskunnan ja kansalaisten tarpeet ja arvot. Tämä ei tarkoita ainoastaan yritysten altruistista otetta, vaan sitä, että näkökulmaa siirretään toteavasta ex post -arvioinnista ja vahinkovastuusta enemmän vaikutusten ennakoivaan ymmärtämiseen.
6. Viimeinen nostoni onkin tekoälyn vaikutusten ennakoiva arviointi. Tässä tarvitaan näkemystä niin lyhyen kuin pitkän aikavälin haasteista. UNESCO toivoo, että tekoälyn vaikutuksia peilataan myös YK:n kestävän kehityksen tavoitteisiin (Sustainable Development Goals – SDG). Tämä tekoälyn pohdinta SDG-tavoitteiden kannalta on meillä vielä melko varovaista. SDG-tavoitteiden toteuttaminen vaatii erilaisten vaikutusketjujen systeemistä ymmärtämistä, sekä mahdollisten negatiivisten ja positiivisten ketjureaktioiden hahmottamista. On tärkeää myös pitää pinnalla keskustelua siitä, millainen rooli tekoälyteknologioiden ohjauksella on esimerkiksi viime vuonna julkaistun ICT alan ilmastostrategian toteutumisen kannalta.
Tekoäly kehittyy ja sen käyttökontekstit kehittyvät. Meidän on pysyttävä eettisesti hereillä ja valppaina joka hetki. On mahdollista, että myös ajatuksemme ihmisyydestä muuttuu. UNESCOn suosituksessa puhutaan myös mm. esineellistämisen uhkasta (kohta 15): Kun ihminen nähdään objektina, ihmisen arvo turmeltuu ja vahingoittuu. Siksi arvioinnin tulee olla jatkuvaa ja ketterää – ja hyödyntää akateemista tutkimusta.
Kuten Tommi Himberg Ulkoministeriöstä totesi, UNESCOn suositus eettisestä tekoälystä ei ole oikeudellisesti sitova instrumentti, mutta se on moraalisesti velvoittava. Meillä on kaikilla moraalinen velvollisuus perehtyä siihen ja ottaa se toiminnassamme huomioon.
Blogin kirjoittaja Jaana Leikas on johtava tutkija VTT:llä sekä ETAIROS-tutkimushankkeen VTT:n projektipäällikkö. Keskustelukumppanina blogin teemassa oli väitöskirjatutkija Henrikki Salo-Pöntinen Jyväskylän yliopistosta.
Kuva: VTT.