Keskusteltaisiinko hetki tekoälyn arvoista?

Tekoälystä – tai älystä ylipäätään – on perin haastavaa keskustella. Termit tuntuvat vierailta ja sanat loppuvat kesken tai kietoutuvat monimutkaiseksi vyyhdiksi, josta ei oikein ota selvää. Silti tekoälyn hyödyntämiseen liittyy tärkeitä arvokysymyksiä, jotka kaipaavat laajempaa keskustelua monilla eri tasoilla.

Toisen aallon tekoälyn perustana on järjestelmä, joka kykenee havainnoimaan, tulkitsemaan ja oppimaan sekä käyttämään saamaansa tietoa johonkin tiettyyn tarkoitukseen. Meitä kaikkia koskevia tekoälyn sovelluskohteita on lukuisia, kuten mm. automaattisesti ohjautuva liikenne, kasvojentunnistus, pankkipalvelut ja lääketieteellinen diagnostiikka. Siksipä tekoälyyn liittyvistä arvoista ja vaikutuksista olisi tärkeää keskustella mahdollisimman laajasti, kansalaiset huomioiden. Haasteena on monitahoisen asian kattava lähestyminen sekä ihmisten osallistaminen. Miksi, keiden kanssa ja miten tekoälystä tulisi puhua – ja mistä jättää puhumatta? Sovelluskohteen ja tarkastelutilanteen tarkka rajaaminen helpottaa aiheen lähestymistä jonkin verran, mutta toisaalta on myös tiedostettava se, että kehitystä ohjaavat arvot kytkeytyvät väistämättä laajempiin yhteiskunnallisiin suuntaviivoihin.

Haastattelimme taannoin ETAIROS-hankkeessa yhdeksää sosiaali- ja terveydenhuollon tekoälykehityksessä mukana olevaa henkilöä. Haastatteluissa nousi esiin, että tekoälykeskustelua käydään yhä pääsääntöisestiorganisaation sisällä ja organisaation omista lähtökohdista. Eri sidosryhmien osallistaminen keskusteluun koettiin vaikeana. Keskustelun nähtiin myös helposti ryöpsähtävän melko vaikeaksi asiantuntija- tai virkamiestason pyörittelyksi, jolloin kansalaisen ääni ei pääse esiin. Joissakin tapauksissa etiikkakeskustelun koettiin myös hautautuvan lainsäädännöllisiä ja teknisiä haasteita käsittelevien pohdintojen alle. Ulkopuolisen, luotettavan sidosryhmän mukana olo nähtiin tärkeänä, jotta asiakkaiden ja/tai kansalaisten kanssa päästäisiin keskustelemaan teknologia- ja palvelukehitykseen liittyvistä arvoista. Satunnaisista päivittäisistä tilanteista kumpuavaa, pääosin omiin arvoihin tai ammattietiikkaan pohjaavaa keskustelua kerrottiin myös käytävän ”lattiatasolla”, työntekijöiden kesken ja asiakkaiden kanssa. Tällaista keskustelua ei kuitenkaan välttämättä rekisteröity viralliseksi, eettisiä näkökulmia pohtivaksi arvokeskusteluksi. Summaten voidaan sanoa, että tekoälykehittämisen avoimuus ja läpinäkyvyys nähtiin organisaatioissa hyvin tärkeinä, mutta varsinaisen kansalaiskeskustelun toteuttaminen melko vaikeana.

Ihmisyys keskiössä

Tekoälykeskustelun eräs ydinteema on teknologian ja ihmisyyden suhteen ruotiminen. Ihmisyyteen kuuluu tietoisuuden, itsensä tarkastelun ja ruumiillisuuden ohella myös itsensä ylittävä subjektiivinen kokeminen, kestävä identiteetti, moraalinen sitoutuminen ja sosiaalinen kommunikaatio. Lisäksi ihminen käyttää monimutkaisia kykyjä tahdonvapauteen ja käsitystensä jakamiseen voidakseen ylläpitää lämpimiä suhteita toisiin. (Smith 2011, 103.)Ihmisyyteen peilaten tämänhetkinen kapea tekoäly tuntuu jäävän lähinnä työvälineen rooliin. Toki myös ihmisen kaltaisen tietoisuuden ja laajan ymmärryksen omaavan vahvan tekoälyn kehittyminen pilkahtelee keskustelujen liepeillä, toisinaan jopa keskiössä. Keskustelua onkin melko mahdotonta rajata vain nykyisen tai suunnitellun soveltamistilanteen tarkasteluun. Tulevaisuuden uhkia, pelkoja ja teknologian saamia sivumerkityksiä ei voi lakaista maton alle, vaan ne itsessään vaikuttavat tapahtumiin. Lisäksi on hyödyllistä pohtia, millaisia ihmisyyden ydinelementtejä tekoälyn hyödyntäminen kussakin soveltamiskohteessaan tukee tai vaarantaa, sekä sitä, millaisiin arvomaailman muutoksiin soveltaminen voi johtaa. Lähiaikoina ehkä eniten painoarvoa yleistajuisissa keskusteluissa ovat saaneet sosiaalisen kommunikaation muuttuminen mm. tekoälypohjaisten keskustelubottien kautta, sekä tahdonvapaus, jota ohjaillaan erilaisin mainontaan valjastetuin algoritmein.

Myös ihmisen toimijuus ja sen muutos puhututtavat tekoälyn yhteydessä. Ihmisen eksistentiaalinen toimijuus on läsnä kaikessa. Siihen kuuluvat oleellisena kysymykset pyrkimyksistä, tarkoituksesta (intentionaalisuudesta) ja yksilön valinnanvapaudesta (Hitlin & Edgar 2007.) Näistä keskustellaan etenkin autonomisesti ohjautuvien autojen ja terveydenhuollon tekoälysovellusten yhteydessä. Kuka tekee reagointi- tai hoitosuosituksen ja miksi se tuntuu erilaiselta, jos ehdotuksen taustalla on ihmisen sijasta algoritmi? Pragmaattisella toimijuudella puolestaan tarkoitetaan omassa arjessa ja sen eri toimintaympäristöissä toteutuvaa, hetkeen sidottua toimijuutta (Hitlin & Edgar 2007). Tähän liittyvät käytännölliset teot sekä tilanteisiin ja tapahtumavirtaan sulautuvat valinnat. Miten tekoäly voi muuttaa yksilön arjessa toimimista? Kenties se auttaa taivuttamaan ruoka-, lääke- tai terveyspalvelun yksilön arkeen sopivaksi tai saa ihmisen epäilemään ja välttelemään dataa kerääviä palveluja. Toimijuus liittyy myös identiteettiin: eri rooleihin sekä eri toimintaympäristöissä noudatettuihin, sovellettuihin ja kehittyviin sosiaalisiin sääntöihin (Hitlin & Edgar 2007). Oppiiko tekoäly tällaiset säännöt? Entä kommunikoimme itse eri tavoin, jos tiedämme keskustelevamme tekoälyn kanssa? Elämänkulkuun ja eri elämäntilanteisiin – eri aikaan, paikkaan ja historiaan – kytkeytyviä tekoälyavusteisia palvelukulkuja on pohdittu eri kunnissa (mm. OuluBot). Kun tekoäly keskustelee eri ikäisten kanssa eri tavoin, paraneeko palvelu vai voiko tästäkin ilmetä eettisiä ongelmia? Kiinnostavia kysymyksiä on paljon.

Kansalaiset mukaan keskusteluun

Tekoäly on teknologioiden yhdistelmä, joka lävistää useita yhteiskuntamme perustoimintoja: terveydenhuoltoa, turvallisuuden varmistamista, asiointia, tuotantoa, liikennettä, jne. Tällaisiin asioihin liittyviin innovaatioihin kaivataan yleensä kansalaisen ääntä. Esimerkiksi kansalaispaneelin avulla voidaan palvella montaa eri tarkoitusta: priorisoida haasteita, muodostaa kompromisseja, varmistaa moniäänisten ja -arvoisten näkökulmien huomiointia, testata kehityspolkuja sekä varmistaa legitiimiys ja asianmukainen toiminta (Mann et al. 2014). Perinteinen riskejä tarkasteleva teknologia-arviointi ei yksin riitä, vaan nykyteknologioita ja -palveluja suunniteltaessa tulee tarkastella ja arvioida mm. erilaisten merkitysten syntyä, eri näkökulmia, tapahtumaketjuja, menetelmiä, motivaatiota, eri osapuolten etuja, tiedotusvälineiden resonanssia sekä kansalaisten suhtautumista (Grunwald 2020). Tekoälyn vaikutuksia on syytä pohtia myös eri sidosryhmätasoilla: yksilön, yhteisön ja koko yhteiskunnan näkökulmista. Sosiaalisten vaikutusten ymmärtämiseksi innovaatioprosesseja on avattava entistä paremmin myös kansalaisille (Nieminen & Ikonen 2020).

Jotta ihmisen aktiivinen toimijuus yhteiskunnassa taataan, tarvitaan osallisuutta. Sitä kaivataan myös tekoälyn hyödyntämiseen. Isolan ja hänen kollegoidensa (2017) kartoituksen mukaan osallisuus on: liittymistä (involvement),suhteissa olemista (relatedness), kuulumista (belonginess), yhteisyyttä (togetherness), yhteensopivuutta (coherence), mukaan ottamista (inclusion), osallistumista (participation), vaikuttamista (representation) ja demokratiaa. Lisäksi tätä kaikkea on jollakin tapaa järjestettävä ja johdettava (governance). Tärkeää olisi lukea ja kuulla ihmisten tuntoja tekoälykehityksessä sekä päästä hedelmälliseen, keskustelevaan sävyyn. Ensimmäiseksi tulee tietysti mieleen jokin sähköinen alusta, jolle kukin suoltaa omat mietteensä aiheesta. Mutta syntyykö näin riittävää keskustelua? Myös erilaisia asiantuntijavetoisia tilaisuuksia järjestetään tiuhaan eri verkostoissa, mutta usein näissä ovat äänessä asiaan vihkiytyneet ja tilaa avoimelle keskustelulle on varattu niukalti. Kaikki ihmiset eivät myöskään hallitse keskustelussa käytettäviä termejä ja puhetapaa, joilla heidät aidosti hyväksyttäisiin keskustelemaan aiheesta (Isola et al. 2017; Valkenburg et al. 2020). Lisäksi keskustelukanavat ja -foorumit voivat olla sellaisia, etteivät ne tavoita kuin tietyn, teknologian kärjessä kulkevan ryhmän edustajia. Haavoittuvien ja heikoimmassa asemassa olevien ihmisryhmien tasa-arvoinen osallistuminen on kuitenkin huomioitava uusia palveluja ja teknologioita suunniteltaessa (Husch et al. 2014.) Tutkijan tai asiantuntijankaan ei siis parane ripustaa itseään liian korkealle ja keskustella asioista vain omalla mukavuusalueellaan, itselleen tutuin tieteellisin termein.

Mistä tulisi keskustella?

Mistä tekoälyn osalta sitten on oleellista keskustella? Alttius virheille, vastuut sekä läpinäkyvyys eli ymmärrys siitä, mitä tekoäly tekee kiinnostavat ja vaikuttavat myös vahvasti luottamukseen. Muutoin arvokeskustelun kannalta ovat tärkeitä ainakin teemat, jotka liittyvät osallisuuden osatekijöihin: ihmisen autonomiaan (Deci & Ryan 1985); ymmärrettävään, hallittavaan ja ennakoitavaan toimintaympäristöön (Nussbaum 2011); vaikuttamisen prosesseihin yhteiskunnassa; merkityksellisyyden kokemiseen (Antonovsky 1987) sekä vastavuoroisiin sosiaalisiin suhteisiin, joissa tulee kuulluksi, nähdyksi, arvostetuksi ja ymmärretyksi (Deci & Ryan 1985) (Isola et al. 2017.) Digiosallisuuden on pohdittu tarkoittavan kaikilla olevaa mahdollisuutta ja riittävää tukea osallistua yhteiskunnan tärkeisiin prosesseihin sekä sitä kautta myös kykyä huolehtia itsestä ja läheisistään. Samassa yhteydessä vaikuttaviksi tekijöiksi on tunnistettu mm. teknologia, taidot, motivaatio, kokemuksellisuus, ikäryhmät, kulttuuri, terveys ja toimintakyky. Yksilöiden ja ryhmien osallistumisen ohella osallisuuteen liittyy aina myös ihmisen oma kokemus, itse koettu osallisuus, jota ulkopuolinen ei voi määritellä. Osallisuudella on kuitenkin merkitystä myös yhteiskunnalle ainakin toimivien ja kustannustehokkaiden toimintojen sekä demokratian kehittämisen kannalta (Hänninen et al. 2021).

Mitä ilmeisimmin tekoälyä kehitettäessä ja hyödynnettäessä on syytä suunnitella entistä paremmin myös se, miten kansalaiset saadaan mukaan tekoälykeskusteluun hedelmällisellä ja osallisuuden mahdollistavalla tavalla!


 
Blogin kirjoittaja Senior Scientist Marinka Lanne työskentelee VTT:llä ja ETAIROS-tutkimushankkeessa hän tarkastelee erityisesti teköälyn eettistä hyödyntämistä sosiaali- ja terveyspalveluissa.

 

 

 

 

 

Lähteet

Antonovsky, A. 1987. Unraveling the mystery of health. how people manage stress and stay well. San Fransisco: Jossey-Bass Publisher.

Christian Smith. 2011. What is a person? The University of Chicago Press.

Deci, E. L. & Ryan, R. M. 1985. Intrinsic motivation and self-determination in human behavior. New York: Plenum.

Grunwald, A. 2020. The objects of technology assessment. Hermeneutic extension of consequentialist reasoning. Journal of Responsible Innovation, 7(1), 96-112.

Hitlin, S. & Elder, G.H. Jr. 2007. Time, Self, and the Curiously Abstract Concept of Agency. Sociological Theory 25(2), 170–191.

Husch, J., Saner, R., Yiu, L., & Zeitz, P. 2014. Monitoring of SDG Implementation: Infrastructure and methodology: Proposal for action (CSEND Policy Brief 14). Centre for Socio-Eco-Nomic Development. http://www.csend.org/images/articles/files/Monitoring_SDG_Infrastructure__Methodology.pdf

Hänninen, R., Karhinen, J., Korpela, V. et al. 2021. Digiosallisuuden käsite ja keskeiset osa-alueet. Digiosallisuus Suomessa -hankkeen väliraportti. Valtioneuvoston selvitys- ja tutkimustoiminnan julkaisusarja 2021:25. Helsinki: Valtioneuvoston kanslia.

Isola, A-M., Kaartinen, H., Leemann, L., Lääperi, R., Schneider, T., Valtari, S. & Keto-Tokoi, A. 2017. Mitä osallisuus on? Osallisuuden viitekehystä rakentamassa. Helsinki: THL. https://www.julkari.fi/handle/10024/135356

Mann, C.; Voß, J.-P.; Amelung, N.; Simons, A.; Runge, T.; Grabner, L. 2014. Challenging futures of citizen panels. Critical issues for robust forms of public participation. A report based on an interactive, anticipatory assessment of the dynamics of governance instruments, 26 April 2013. Berlin, Technische Universität (TU) Berlin.

Nieminen, M., & Ikonen, V. 2020. A future-oriented evaluation and development model for Responsible Research and Innovation. In Assessment of Responsible Innovation, 248-271. Routledge.

Nussbaum, M. 2011. Creating capabilities: The human development approach. Cambridge: Belknap Press of Harvard University Press.