Tekoälyn vastuuta voi verrata ryhmävastuuseen

Taina Kalliokoski

Tekoälyn ja vastuun suhde on klassinen tekoälyn etiikan pulma. Kinkkisiä vastuullisen tekoälyn kysymyksiä ei kuitenkaan kannata rinnastaa ihmisyksilön vastuun vuosituhantiseen keskusteluun vaan ryhmävastuuseen.

 

Tekoälyllä ei ole käsitystä itsestä

Vastuukeskustelussa ihmisyksilöä pidetään perinteisesti kaiken mittana. Vastuullista toimijaa voi moittia, vaatia vastuuseen, tai edellyttää että hän pitää lupauksensa, hoitaa velvoitteensa ja noudattaa sovittuja sääntöjä niin tehdessään.

Näitä kriteereitä ei kuitenkaan ole helposti sovellettavissa tekoälyyn, sillä tekoälyohjelmistoilla ei ole käsitystä itsestään, ei kykyä muodostaa tavoitteita itsenäisesti muutoin kuin annettujen parametrien pohjalta, ei moraalitunteita, kuten ylpeyttä tai häpeää, joiden oletetaan ihmisessä heräävän, kun heitä kiitetään tai moititaan.

Tekoälyn kohdalla ihmistä parempi vertailukohta onkin kollektiiviset toimijat ja niiden vastuullisuuden määräytymistä koskeva keskustelu.


Päätöksiä ilman mieltä

Mikä tekoälysysteemejä ja ihmisryhmiä yhdistää? Paljonkin, vastasi filosofi Christian List Delftin teknillisen yliopiston digitaalisen etiikan yksikön järjestämässä työpajassa. Molempien kohdalla pohditaan, ovatko ne toimijoita ensinkään ja voidaanko niille sälyttää vastuunalaisuuden määrettä.

Ryhmätoimijoilla tarkoitetaan esimerkiksi yrityksiä, kunnallisia ja valtiollisia organisaatioita ja järjestöjä, eli tahoja, joiden nimissä voi toimia monta yksilöä ilman että he henkilöinä ottavat kantaa tai toimivat. Ne voivat ryhmänä muodostaa uskomuksia ja haluja. Niitä voidaan kutsua ryhmän intentioiksi tai kollektiivisiksi intentioiksi (collective intentions), joiden pohjalta ryhmä aikoo, tekee tai päättää jotakin yhdessä tai ryhmänä. Silti meidän ei tarvitse olettaa, että olisi olemassa jokin ryhmämieli, joka olisi fyysisesti olemassa, vaan nuo ryhmän aikomukset ja päätökset ja aikaansaannokset toteuttavat ryhmän jäsenet. Kyseessä on sosiaalisessa vuorovaikutuksesta rakentuva uusi sosiaalisen ontologian taso.

Vastaavalla tavalla tekoälysysteemille ei tarvitse olettaa erillistä tietoista mieltä, mutta silti tekoälysysteemi päättää, suosittelee ja saa aikaan sille koodattujen toimintaperiaatteiden tai sille opetettujen sääntöjen mukaan.

Ryhmätoimijoita ja tekoälysysteemejä yhdistää myös niiden arkkitehtuuri eli järjestäytymisen tapa: molemmat saavat syötteitä useista eri lähteistä. Toimiakseen hyvin muuttuvissa olosuhteissa, molempien on järjestelmätasolla täytettävä tiettyjä järkevän toiminnan ehtoja. Molempien on päivitettävä ja uudelleenarvioitava uskomuksiaan asioiden tilasta sen mukaan, millaisia syötteitä ne saavat ympäristöistään ja mukautettava toimintaansa ympäristön muuttuessa.

 

Ryhmässä ja tekoälysysteemissä voi muodostua vastuuaukko

Ryhmät voivat saada aikaan lopputuloksia ja vaikutuksia, joita kukaan ryhmän jäsen ei ole välttämättä yksin tavoitellut tai halunnut saada aikaan, ja mistä kukaan ei yksin tunne vastuuta. Tilannetta kutsutaan vastuuaukoksi.

Vastuuaukko voi muodostua myös tekoälytoimijoiden kohdalla. Älykkäiden ja autonomisten teknologisten systeemien kehittymisen myötä maailmaan on tullut uusia kausaalisesti asioita aikaansaavia voimia, joilla ei kuitenkaan ole tietoisuutta eikä käsitystä itsestään vastuullisena tahona. Niiden toiminta voi silti näyttää intentionaaliselta, mutta tekoälyohjelmistoja ei voi saattaa vastuuseen aiheutetuista vahingoista eikä niihin ole mielekästä kohdistaa moraalista kiitosta tai kehua.

Älykkäiden ja autonomisten teknologisten systeemien kehittymisen myötä maailmaan on tullut uusia kausaalisesti asioita aikaansaavia voimia, joilla ei kuitenkaan ole tietoisuutta eikä käsitystä itsestään vastuullisena tahona.

Käytännössä esiin tulleet vastuuaukot, jotka ovat aiheuttaneet psykologista tyytymättömyyttä oikeudenmukaisuuden toteutumiseen, ovat pakottaneet filosofeja hahmottelemaan uusia tapoja jäsentää vastuuta ja vastuullisuutta. List huomauttaa, ettei mikään estä käsitteellisesti pitämästä tekoälyä tai ryhmätoimijoita vastuullisina toimijoina, jos vastuullisuuden vain määrittelee sopivalla tavalla. Moraaliteorioita tulee hänen mukaansa kehittää, jotta ei päädytä tilanteisiin, jossa tekoälylle annetaan eri alueilla toimintavaltaa, mutta virheiden tai onnettomuuksien sattuessa vastuunalaiseksi ei määräydy kukaan.

 

Tosielämän vastuuaukot ohjaavat vastuun uudelleen ajatteluun

Näin oli päässyt käymään monen maan lainsäädännössä ryhmätoimijoiden kohdalla. Asiaan havahduttiin 1980-luvulla, kun Herald of Free Enterprise -lautta upposi Englannin kanaalissa vuonna 1987. Lauttayhtiön sisällä havaittiin tutkinnassa vakavaa toimintakulttuuriin pesiytynyttä huolimattomuutta, mutta yhtään sen yksittäistä jäsentä ei voitu juridisesti pitää vastuussa tapahtuneesta.

Ihmisyksilöiden varaan rakentuvat oikeusjärjestelmät eivät Isossa-Britanniassa tunteneet mahdollisuutta haastaa oikeuteen yritystä, vaan ainoastaan henkilöitä yrityksen edustajina.

Voisiko tekoälyohjelmistoa pitää vastaavalla tavalla oikeushenkilönä, jolla voi olla juridisia velvollisuuksia ja johon voidaan kohdistaa juridisia sanktioita, toimintakieltoja tai resurssien rajaamista?

Suomen juridisessa järjestelmässä oikeushenkilön käsite on kattanut sisäänsä erilaiset rekisteröidyt julkiset tai yksityiset kollektiivit, joilla on asemansa perusteella lakisääteisiä oikeuksia ja velvollisuuksia. Voisiko tekoälyohjelmistoa pitää vastaavalla tavalla oikeushenkilönä, jolla voi olla juridisia velvollisuuksia ja johon voidaan kohdistaa juridisia sanktioita, toimintakieltoja tai resurssien rajaamista?

Listin mukaan kyllä voi, mutta ei välttämättä yksistään. Tekoälyohjelmistojen liepeillekin tarvitaan vastuunkannon rakenteita, joissa ihmiskehittäjät, -sääntelijät ja -omistajat voidaan saattaa vastuuseen, mikäli jokin menee pieleen.  Ilman tätä ja jonkinlaista moraalitoimijuutta tekoälysysteemejä ei tulisi Listin mukaan käyttää korkean riskin aloilla.

Listin ehdotuksien perusteella voimme olettaa, että tekoälyn vastuullisuuden aukkokohtien ylittämiseksi on teoriassa löydettävissä sopivat sillanrakennusvälineet. Mutta millä perusteella tekoäly voi olla ja onko se samanlainen moraalitoimija kuin ihminen? Tästä lisää seuraavassa blogitekstissä.

Kirjoittaja Taina Kalliokoski on sosiaalietiikan tutkijatohtori ETAIROS-hankkeessa Helsingin yliopistossa

 

Kuva: Teslariu Mihai on Unsplash