Tekoäly ja sen käytön sääntely
Ohjelmointitaitojen, informaatiota prosessoivien systeemien suorituskapasiteettien kehitys ja datamäärien kasvu ovat viime aikoina mahdollistaneet joukon uusia toimivia robotiikka- ja tekoälysovellutuksia. Samalla tekoälyn ja älykkäiden systeemien sosiaalisesta sääntelystä on tullut yhä tärkeämpää. Datamassoja käytetään sosiaaliseen, kaupalliseen ja mielipiteiden ohjailuun, minkä seuraukset eivät aina ole positiivisia. Itseohjaavat autot aiheuttavat ajokilometriä kohti enemmän onnettomuuksia kuin nykyiset ja lentokoneiden ohjaussysteemien virheet ovat pudottaneet lentokoneita. Uuden älyteknologian läpimarssiin liittyy kiistattomia riskejä, ja näiden riskien torjunnassa yhteiskunnallinen sääntely on välttämätöntä.
Tekoälyn uusi tuleminen on aktivoinut taas kerran tekoälykeskustelua, mutta siinä menevät usein yhä jo aikaisempina vuosikymmeninä tututuksi tulleella tavalla tavoitteet, unelmat, uskomukset, mainospuheet, scifi ja tosiasiat sekaisin. Nykyinen tekoälynarratiivi on ollut olemassa aika samanlaisena jo 1960-luvulta lähtien. Ei kuitenkaan ole syytä tehdä kalliiksi osoittautuvia yhteiskunnallisia päätöksiä selvittämättä tarkasti millaisista riskeistä käytännön tekoälytyössä ja sen soveltamisessa on todella kyse.
Tuskin kukaan on rajoittamassa tekstinkäsittelyohjelmien tai taskulaskinten käyttöä toimistoissa, vaikka onkin yksittäisiä henkilöitä, jotka eivät suostu kirjoittamaan tekstinkäsittelyohjelmia käyttäen. Harva olisi innostunut lain voimalla estämään tai sallimaan kyseisten työkalujen käyttämistä tai käyttöön ottamista erilaisissa arjen työtehtävissä. Nämä kaikkien käyttämät perusteknologiat eivät periaatteessa eroa tekoälyohjelmistoista, sillä kummassakin tapauksessa kyse on vain mekaanisesti toteutetuista matemaattisista prosesseista. Lähinnä prosessien kompleksisuuden ja suorituskyvyn suhteen.
Tekoälyn ja älykkäiden teknologioiden rajoittamista ja yhteiskunnan suojaamista koskeva keskustelu on monialainen ja -napainen, eikä sitä kukaan yksin kykene hallitsemaan. Otan tässä esille vain pari mielestäni huomion arvoista näkökulmaa ja toivon, että muut jatkavat. Tässä käsiteltävät näkökohdat koskevat tekoälyteknologian ja sen käytön välisen eron tärkeyttä tekoälyä sosiaalisesti säädeltäessä. Teknologiat ovat monikäyttöisiä. Esimerkiksi leipäveitsi on kätevä apuväline aterialla, mutta sen avulla on myös tapettu ihmisiä. Asiaa ei kuitenkaan voi ratkaista leipäveitset kieltämällä. Tällaisessa ihmisen ja tekniikan vuorovaikutustapauksessa sosiaaliset riskit piilevät käyttötavoissa eivätkä tekniikassa.
Tekniikan suorituskyky muuttaa kuitenkin tilannetta. Tekoäly ja datamassojen kasvu tekevät käytännössä mahdolliseksi monet toiminnat, joita aiemmin ei ole voitu tehdä. Kapasiteetin kasvuun liittyy kuitenkin vaikeasti hallittavia riskejä. Harva niistäkään, jotka uskovat ”että ihmiset tappavat eivätkä aseet”, haluaisi antaa ydinasetta jokaisen käyttöön. Vahingontekokapasiteetti olisi liian suuri ja kapasiteetin suuruus on sinänsä riski. Tekniikan ja erityisesti tekoälyn käytön sääntelystä keskusteltaessa haaste on siinä, mihin rajat vedetään. Milloin teknisestä suorituskyvystä tulee merkittävä sosiaalinen riskitekijä? Tekoälyn suhteen ollaan vieläkin hankalammassa tilanteessa kuin ydinaseiden sääntelyä pohdittaessa, koska tekoälyyn perustuvia teknologioita ei todellisuudessa voida rajoittaa samalla tavalla kuin plutoniumin saatavuutta.
Tekoälyn käytön asianmukaisuuden ongelmaa ei pitäisi sekoittaa tämän teknologian kokonaiskäytön kanssa. Esimerkiksi kasvojentunnistusteknologioiden kehittyminen voi olla hyvin hyödyllistä rikollisuuden torjumisessa tai ikääntymisen aiheuttamien vaikeuksien helpottamisessa. Esimerkiksi jos rikoksia ja urheiluhuliganismia ehkäistään hyvän kasvojentunnistustekniikan avulla, poliisin työ helpottuu ja yhteiskunnallinen turvallisuus paranee. Tällaisissa kasvojentunnistusteknologioiden käytöissä on vaikea nähdä mitään moitittavaa. Jos kuitenkin kasvojentunnistustekniikkaa käytetään mielenosoittajien tai vaikka uskonnollisten ja poliittisten yhteisöjen jäsenten identifioimiseen heidän myöhempää painostamistaan varten, käyttö on länsimaisen arvopohjan kannalta moitittavaa. Tällaisissa asioissa tekniikka on aika pitkälle eettisesti ja juridisesti neutraalia ja vasta käyttötapa tekee siitä ongelman. Siksi tekoälyyn pohjautuvien teknologioiden sääntelyssä tulisi kiinnittää päähuomio asiattomaan käyttöön eikä itse tekniikkaan.
Tekniikan ja tekoälyn käyttöön voi liittyä virheitä ja sivuvaikutuksia. Lopputulos voi olla negatiivisella tavalla aivan muuta kuin oli toivottu. Tällaiset poikkeamat edellyttävät tekoälyn toiminnan seurantaa ja toiminnan kehittämistä. Kaikkia teknologioita joudutaan elinkaarensa aikana kehittämään, ja tässä suhteessa tekoäly on samanlaista kuin muukin teknologia. Tekoälyn sääntelykeskustelun kannalta on olennaista, että sääntely motivoi jatkuvaan korjaamiseen ja kehittämiseen.
Tekniikan sivuvaikutuksilla tarkoitetaan käytön seurauksena syntyviä lähinnä negatiivisa vaikutuksia. Esimerkiksi rokotteiden tiedetään aiheuttavan joitakin sairastumisia. Silti rokotekielteisyys on sosiaalisesti epäeettistä, sillä se laskee paitsi omia myös koko populaation puolustautumismahdollisuuksia vaarallisia sairauksia vastaan. Tekoälyn käyttöön liittyy myös tällaisia riskejä, mutta niitä on tarkasteltava konkreettisella tasolla eikä myyttisten teknologiapelkojen pohjalta.
Jos tekoälyteknologiaa käytetään asiallisella tavalla, asiallisiin tarkoituksiin ja asiallisin tuloksin, ei nousevaa tekoälytekniikkaa ja sen käyttöä ole syytä rajoittaa. Sehän säästää inhimillistä työtä ja helpottaa elämistä. Eihän ole tarkoituksenmukaista estää lääkäreitä kehittämästä ja tarjoamasta ihmisille lääkkeitä, vaikka niitä voitaisiinkin käyttää väärin. Lääkkeillä on myös sivuvaikutuksia. Pääasia on kuiteinkin se, että yhteiskunnassa voidaan käyttää tekoälyä mahdollisimman laajalti hyväksi. Tämän edellyttää toimivaa yhteiskunnallista sääntelyjärjestelmää.
Tekoälyn mystifiointi ja sen hyvät puolet ja hyödyt saavat helposti unohtamaan, että kyse on vain tekniikasta. Tehokkaan käytön edellytys on tämän tekniikan käyttötapojen järkevä sääntely, joka voi olla osin tekniikan itsensä toteuttamaa, mutta edellyttää myös tarkkaa sosiaalista, eettistä, juridista, organisatorista ja yksittäisten käyttötilanteiden tarkastelua. On tärkeää, että tekoälyn yhteiskunnalliselle sääntelytoiminalle kehitetään kunnolliset käytänteet.
Tekoälyn näkeminen pelkkänä tekniikkana on harhaista, koska se muuttaa tulevaisuudessa ihmisten elämää laajasti ja syvälle käyvällä tavalla. Monet yhteiskunnallisen toiminnan ja kehityksen vakauden sääntelymekanismit ja käytänteet on uudistettava. Monet toimintatavat, etiikka, elinkeinotoiminta, hallinto, politiikka ja juridiikka joudutaan arvioimaan ja tarpeen vaatiessa rakentamaan osin uudelleen. Vanhoista totutuista ajattelutavoista voi tulla merkittäviä esteitä uuden luomiselle. Toisaalta harkitsematon eteneminen voi johtaa vahinkoihin, kuten on jo voitu todeta. Tekoälyn sääntelydiskurssin avoin ja tehokas toteuttaminen on yksi tapa torjua ennalta turhia harmeja
Blogin kirjoittaja Pertti Saariluoma on kognitiotieteen professori Jyväskylän yliopistossa ja ETAIROS-hankkeen suunnittelu-tutkimusalueen koordinaattori.