Eettistä vai laillista tekoälyä?

Kun sääntelyä ei ole, tarvitaan etiikkaa?

Tekoälyn etiikasta puhutaan paljon, mutta vaatimuksista, jotka oikeusjärjestelmä asettaa tekoälysovelluksille sen sijaan vähemmän.

Etiikan korostumiselle on tietysti hyvät syynsä. Tekoälyllä voidaan tehdä paljon pahaa, mutta myös hyvää. Sovellukset, ajatellaan esimerkiksi kasvojentunnistusta, voivat koskettaa ihmisten elämää syvältä ja muuttaa yhteiskuntaamme perustavalla tavalla. Tekoäly tarvitsee väistämättä eettistä harkintaa, eettisiä valintoja ja vastuullisuutta. Jos tekoälyä kehitetään eettisessä tyhjiössä, dystooppiset tulevaisuudenkuvitelmat voivat helposti muuttua nykyisyydeksi.

Toisaalta etiikan korostumisen taustalla saattaa olla myös toisenlainen, ikävä tarina. Etiikka on tekoälyä kehitteleville toimijoille kiitollinen kehys, ainakin sääntelyyn verrattuna. Kun edellytämme, että jokin toiminta on eettistä, vaatimukset jäävät usein joustaviksi ja toimijoiden subjektiivisen harkinnan varaan, jolloin ne ovat helposti kiistautettavia ja ei-muodollisia, eikä niiden taustalla ole pakkokoneistoa, joka reagoisi ei-eettisiin toimintatapoihin.

Oikeudellinen sääntely, ainakin potentiaalisesti, on jotain aivan muuta. Kunhan oikeudelliset säännöt täsmentyvät tuomioistuimissa ja viranomaiskäytännöissä, ne eivät enää jousta. Kun tuomioistuin antaa päätöksensä, tuomarin subjektiivisesta arviosta tulee objektiivinen. Jos valitusasteita ei ole jäljellä, kiista loppuu ja yksittäistapauksessa annetusta päätöksestä tulee yleinen oikeusohje. Prosessi on tuottanut muotojensa sisällä lainkäyttövallan alle jääviä toimijoita velvoittavan normin, joka ulottuu myös välittömien osapuolten piirin ulkopuolelle. Ei olekaan ihme, kumman kehyksen alle toimijat haluavat päätyä. Etiikassa liikkumavara on suurempi, eikä vaaraa siitä, että häkki heiluisi, ole. Tämä saattaa osaltaan selittää sitä, miksi toimijat haluavat korostaa eettisyytään. Jos toiminta on eettisesti kestävällä pohjalla, sääntelylle ei ole tarvetta.

Näiden käytännön näkökohtien lisäksi on helppoa ajatella, että oikeudella ei ole ylipäätään kovin paljoa sanottavaa tekoälykysymyksissä. Lakeja, jotka nimenomaisesti koskisivat tekoälyä, ei vielä ole. Tilanne ei ole myöskään kohenemassa nopeasti, vaikka lakeja ilmeisesti tarvittaisiin. Eduskunnan perustuslakivaliokunta on esimerkiksi hallinnollisen päätöksenteon osalta huomauttanut, että
automatisoituja yksittäispäätöksiä koskevaa hallinnollista päätöksentekoa ei tulisi pyrkiä sääntelemään yksittäisillä pistemäisillä lakiehdotuksilla.”

Tilannetta pahentaa se, että kysymykset joita uudella lainsäädännöllä olisi ratkaistava, ovat fundamentaaleja, eivät vain teknisiä. Perustuslakivaliokunta huomautti, että

“valtioneuvosto[n tulisi] selvittää huolellisesti ja hyvää lainvalmistelumenettelyä noudattaen automatisoitua päätöksentekoa sääntelevän yleislainsäädännön muutostarpeet, ja valmisteleel[valmistella] tarvittaessa automatisoitua päätöksentekoa koskevan yleisen lainsäädännön, jota voidaan mahdollisesti täsmentää hallinnonalan erityispiirteet huomioonottavalla erityislaeilla.”

Vai onko sääntely sittenkin?

Käsitys siitä, että tekoälyoikeutta ei vielä olisi, saattaa kuitenkin olla harhaa. Vaikka tekoälyä koskevaa nimenomaista lainsäädäntöä ei ole, tekoälysovellukset eivät tosi asiassa kuitenkaan elä oikeudellisessa tyhjiössä. Oikeusjärjestelmästä juontuu merkittäviä rajoitteita tekoälyn suunnittelulle. Jo voimassa olevien sääntöjen puitteissa tila, jossa tekoälyetiikkaa voidaan harjoittaa, on tosi asiassa suhteellisen kapea, ja oikeudellisia rajoitteita eri lopputuloksille on suhteellisen paljon. Etiikan tila on siis oikeuden piirittämä, vaikka siltä ei ensi näkemältä vaikuttaisikaan.

Mitä tarkoitan? Useimpien tutkijoiden mielestä ns. päätösharhat eli bias-vaikutukset ovat tekoälyn käytön tärkeimpiä eettisiä polttopisteitä. Esimerkiksi _Mittelstadt et al_ esittävät, että tekoälyssä on kuusi eettistä ongelmakohtaa. Datavetoisena tekoälyn päätöksenteko voi perustua 1) riittämättömän aineiston (inconclusive evidence), 2) selittämättömän aineiston (inscrutable evidence), ja 3) harhaanjohtavan aineiston (misguided evidence) varaan, 4) johtaa kohtuuttomiin lopputuloksiin, 5) johtaa arvaamattomiin muutoksiin sosiaalisessa toimintaympäristössä (transformative effect), ja 6) tekoälyn päätöksiä voi olla mahdotonta palauttaa niiden tekijöihin.

Moneen edellä mainitusta kuudesta ongelmakohdasta oikeudella ja sääntelyllä on sanottavaa, vähintäänkin eräissä toimintakonteksteissa.

GDPR ja tekoäly

Aloitetaan yleisestä tietosuoja-asetuksesta, GDPR:stä – siitä kun on puhuttu ja kohistu viime vuosina melko lailla. GDPR on tekoälysovellusten kehittäjien kannalta olennainen säännös, ei vain siksi, että se rajoittaa ja sääntelee sitä, miten henkilötietoja saadaan käsitellä, vaan myös siksi, että asetuksesta johtuu merkittäviä, joskin toistaiseksi tulkinnanvaraisia, rajoitteita tekoälyn käyttämiselle ja suunnittelulle.

Näistä ensimmäinen on yksinkertainen: asetus kieltää päätöksenteon, joka on yksinomaan automaattista. Datasubjektilla on, eräitä poikkeuksia lukuun ottamatta, GDPR 22 artiklan nojalla
“oikeus olla joutumatta sellaisen päätöksen kohteeksi, joka perustuu pelkästään automaattiseen käsittelyyn, kuten profilointiin, ja jolla on häntä koskevia oikeusvaikutuksia tai joka vaikuttaa häneen vastaavalla tavalla merkittävästi.”

Lisäksi datasubjektilla on, jos häneen kohdistuu edellä tarkoitettua automaattista päätöksentekoa, GDPR 15(h) artiklan nojalla oikeus saada tietää siitä, sekä saada merkitykselliset tiedot käsittelyyn liittyvästä logiikasta samoin kuin kyseisen käsittelyn merkittävyydestä ja mahdollisista seurauksista rekisteröidylle.

Emme tiedä tarkkaan, millaisiksi näiden kahden säännöksen tulkinnat tulevaisuudessa muotoutuvat, mutta tulkinnoilla on eittämättä vaikutusta siihen, minkälaiset tekoälysovellukset ovat mahdollisia. Jo nyt on selvää, että sovellukset on suunniteltava siten, että niiden tekemien päätösten logiikka on selitettävissä riittävällä tavalla – millaiseksi tuo tapa oikeuskäytännössä muotoutuukaan.

Yhdenvertaisuus ja tekoäly

Tarina ei kuitenkaan lopu GDPR:ään. On muitakin lakeja. Tässä kohtaa haluan nostaa esille yhdenvertaisuuslain. Se on merkittävä tekoälyetiikan oikeudellinen kiinnekohta ja siitä johtuu jo nykyisellään merkittäviä rajoitteita tekoälysovellusten suunnitteluun.

Muistetaan aivan ensin, että lain soveltamisala on laaja. Se koskee kaikkea julkista ja yksityistä toimintaa, lukuun ottamatta yksityis- ja perhe-elämän piirin kuuluvaa toimintaa ja uskonnonharjoitusta.

Lain 8 ja 11 §:t ovat tässä kohtaa tärkeimmät. 8 §:n mukaan
“Ketään ei saa syrjiä iän, alkuperän, kansalaisuuden, kielen, uskonnon, vakaumuksen, mielipiteen, poliittisen toiminnan, ammattiyhdistystoiminnan, perhesuhteiden, terveydentilan, vammaisuuden, seksuaalisen suuntautumisen tai muun henkilöön liittyvän syyn perusteella. Syrjintä on kielletty riippumatta siitä, perustuuko se henkilöä itseään vai jotakuta toista koskevaan tosiseikkaan tai oletukseen.”

Lista kielletyistä perusteista kohdella yksilöitä eri tavoin on kattava ja laaja. Kiellon ulottuvuutta tarkennetaan 11 §:ssä. Sen 1 momentin mukaan
“Erilainen kohtelu ei ole syrjintää, jos kohtelu perustuu lakiin ja sillä muutoin on hyväksyttävä tavoite ja keinot tavoitteen saavuttamiseksi ovat oikeasuhtaisia.”

2 momentissa täsmennetään, että erilainen kohtelu, jolla ei ole perustetta laissa, on sallittua,
“jos kohtelulle on perus- ja ihmisoikeuksien kannalta hyväksyttävä tavoite ja keinot tavoitteen saavuttamiseksi ovat oikeasuhtaisia.”

Joku voisi tietysti kysyä, mitä väliä yhdenvertaisuuslain vaatimuksilla on. Kysymykseen on pakko vastata: ei kovin paljon. Yhdenvertaisuuslaki on suhteellisen hampaaton. Se tuottaa heikon koneiston kaitsemaan käskyjään. Syrjitty voi saada hyvitystä (23 §). Vahingonkorvaustakin, myös kärsimyksestä, voi vaatia ja myös saada. Syrjijän rikosoikeudellinen rangaistusvastuu on kuitenkin varsin lievä. RL 11:11:n mukaan syrjintään syyllistynyt voidaan tuomita sakkoon tai enintään kuuden kuukauden vankeusrangaistukseen, mutta tämä edellyttää, että syrjintä on ollut tahallista ja esimerkiksi sitä, että henkilö on asetettu “ilmeisen eriarvoiseen tai muita olennaisesti huonompaan asemaan”.

Mitä tästä pitäisi oppia? Kun tekoälysovellusta rakennetaan, syrjintäkielto asettaa prosessin lopputuloksille sekä myös sen rakenteelle merkittäviä rajoituksia.
Jos yhdenvertaisuuslain sanoma otetaan tosissaan, tekoälyä rakentavan toimijan on varmistauduttava siitä, että tekoälysovellus ei kohtele yksilöitä eri tavoin, jos kohtelulle ei ole perus- ja ihmisoikeuksien kannalta hyväksyttävää tavoitetta, ja keinot tavoitteen saavuttamiseksi eivät ole oikeasuhtaisia. Käytännön suunnitteluprojektissa tämä tarkoittanee sitä, että kehittäjän on aina arvioitava, johtaako tekoälyn käyttö yksilöiden erilaiseen kohteluun. Jos näin on, tekoälyn käytön vaikutukset on arvioitava perus- ja ihmisoikeusnäkökulmasta. Tämä edellyttää paitsi vaikutusarviointia, myös sitä, että juristit integroidaan osaksi tuotekehitysprosessia. Kun erilaisen kohtelun kielto yhdistetään vaatimukseen selitettävyydestä, ollaan jo aika pitkällä kohti tiukkaakin algoritmisääntelyä.

Palataan tekoälyetiikkaan. Kun yhdenvertaisuuslain olemassaolo tunnistetaan ja lakia ei selitetä pois, tekoälyetiikka saa ainakin yhden kiintopisteen: perus- ja ihmisoikeudet ja yksilöiden yhdenvertaisuuden. Ja tuo kiinnepiste ei jousta.


Kirjoittaja Mika Viljanen toimii yksityisoikeuden apulaisprofessorina Turun yliopiston oikeustieteellisessä tiedekunnassa.