Insinööri + tekoälyn etiikka = π²?

”Montako insinööriä tarvitaan keskustelemaan tekoälyn etiikasta?” Oma vastaukseni on, että mielelläni kuulisin heitä kaikkia. Eettinen keskustelu on muiden toimijoiden ohella myös insinöörien, suunnittelijoiden, tutkijoiden ja kehittäjien oikeus – sekä velvollisuus. Ei haittaa, vaikka kysymysmerkkejä nousee ilmaan eikä ratkaisuja aina löydy. Välillä voidaan puhua hiukan asian viertäkin, mutta keskustelun ytimessä siintää suurempi ymmärrys. Mitä olemme tekemässä ja miten se meitä ympäröivään yhteiskuntaan sekä yksittäisiin kansalaisiin vaikuttaa? On tärkeää, että tiedämme, minkä äärellä olemme.

Etiikkaohjeistukset luovat raamia

Edistys tekoälyjärjestelmien tutkimuksessa, kehityksessä ja soveltamisessa ovat kiihdyttäneet pohdintoja tekoälyn etiikasta. Teknologian vaikutuksia voi arvioida yleismaailmallisina eettisinä arvoina pidettävien periaatteiden avulla (Leikas ym., 2020). Monet julkiset, yksityiset ja kansalaisjärjestöt sekä asiantuntijaryhmät ovat muodostaneet eettisen teknologian ja eettisen tekoälysuunnittelun ohjeita. Eräitä tunnettuja ohjeistuksia ja visioita ovat julkaisseet mm. Euroopan komission eettisen tieteen ja uusien teknologioiden eurooppalainen ryhmä (EGE, 2018), Tekoälyn korkean tason asiantuntijaryhmä (AI HLEG, 2019) ja AI4People (Floridi et al., 2018). Kyseiset etiikkaa ohjaavat korkean tason julkilausumat ja ohjeistukset sisältävät normatiivisia periaatteita ja suosituksia, joiden tarkoituksena on pitää aisoissa uusien tekoälytekniikoiden riskit. Tekoälyratkaisujen tulee tähdätä hyvään ja välttää pahaa; mahdollistaa autonomia eli itsemääräämisoikeus ja valinnan mahdollisuus; olla oikeudenmukaisia ja tasa-arvoisia sekä toiminnaltaan ja päätöksiltään selitettävissä (Floridi et al., 2018). Kaikki lienee siis hyvin?

Ehkä – tai ehkä ei. Tutkimusten mukaan eettiset periaatteet ja arvot toteutuvat tekoälyjärjestelmien tutkimuksessa, kehittämisessä ja soveltamisessa melko heikosti. ” AI ethics is failing in many cases”, Hagendorff (2020) toteaa tutkittuaan 22 erilaista ohjeistusta ja perehdyttyään empiirisiin tutkimuksiin. Säännöistä poikkeamisesta ei seuraa mitään. Etiikan integroinnissa toimintaprosesseihin on haasteita ja silloinkin, kun käytäntöön vienti toimii, on ennemminkin kyse markkinointistrategiasta. Empiiristen kokeiden perusteella eettisillä ohjeilla ei myöskään ole merkittävää vaikutusta ohjelmistokehittäjien päätöksentekoon. Vastuu hajaantuu ja seuraukset ovat jossakin kaukana. Myös taloudelliset kannustimet voivat ohjata toimijoita tyystin toiseen suuntaan: nopeaan ja tehokkaaseen toteutukseen, jossa moraalisiin pohdintoihin ja riskien läpivalaisuun ei ole aikaa. (Hagendorff, 2020.) Tuntuu kuin tekoälyn etiikka olisi ulkoa tuotu kehys, joka ei oikein istu osaksi teknologian kehitystä. Mikä siis ratkaisuksi?

Hyvä tahto ja käytännön keinot

Hagendorff (2020) pohtii siirtymistä tilanneherkkään eettiseen lähestymistapaan, joka perustuu enemmän hyveisiin ja persoonallisuuden taipumuksiin, tiedon laajentamiseen, vastuulliseen autonomiaan sekä toimintavapauteen. Toisaalta hän näkee, että tarvitaan voimakkaampaa keskittymistä tekoälyn ja koneoppimisen eri menetelmien ja teknologioiden teknologisiin yksityiskohtiin, jotta kavennetaan etiikan ja teknisten keskustelujen välistä kuilua. Abstraktien arvojen ja teknisten toteutusten välille on rakennettava konkreettisia siltoja: on löydettävä tasapainoa teknisen lähestymisen sekä toimintatapoihin ja vastuuseen liittyvien näkökohtien välillä. (Hagendorff, 2020.)

Myös Whittlestone kollegoineen (2019) tuo esiin tekoälyn eettisiin periaatteisiin liittyvän huolen. Korkean tason periaatteet antavat vaikutelman siitä, että ne ovat seurausta tekoälyn kehittämisen tapoihin liittyvästä huolellisesta keskustelusta, mutta kirjoittajien mukaan ne todellisuudessa vain lykkäävät tällaista keskustelua. Toisaalta ainakin Flordi kollegoineen (2018) puhuu ”elävästä asiakirjasta”, joka huomioi jatkuvan muutoksen ja joka vaatii jatkuvia ponnisteluja haluttujen vaikutusten ylläpitämiseksi. Whittlestone ja kollegat (2019) nostavat esiin myös jännitteiden tunnistamisen tärkeyden. Vaikka jotakin arvoristiriitaa ei voitaisi noin vain poistaa, niin ainakin tulee huolella pohtia ja tiedostaa, millaisten arvojen välillä valintaa ollaan tekemässä ja tehdään. Tämä voisi käytännössä tarkoittaa esimerkiksi sitä, että tekoälysovellusta kehitettäessä arvioidaan, mitä riskejä yksityisyydelle hyväksytään kansanterveyden vuoksi. Voidaan myös pohtia sitä, millaisissa tilanteissa innovatiiviset tekoälytekniikat on syytä hylätä, koska niiden aiheuttamat uhat ihmisten taidoille ja autonomialle ovat liian suuria. Kustannushyödyn tarkastelun ohella on pohdittava laajaa julkista sitoutumista ja sidosryhmien osallisuutta sekä eri sidosryhmien etujen ilmaisemista tarkasti ja kunnioittavasti. (Whittlestone et al. 2019.) Sidosryhmien, kuten kansalaisten osallisuuden merkityksestä tekoälyn etiikalle on kirjoitettu tarkemmin myös blogitekstissä Keskusteltaisiinko hetki tekoälyn arvoista?

Dialogi nostaa riskejä näkyviksi

Väitämme, että suunnittelijoiden, tutkijoiden ja kehittäjien käsitykset ja käytännöt etiikan huomioimisesta voivat kehittyä keskustelemalla ymmärtävään sävyyn erilaisista arvoista, jännitteistä ja ristiriidoista. Sen sijaan, että ainoastaan normitetaan toimintaa ulkoa käsin, voidaan herättää keskustelua suunnittelutyöhön soveltuvista tavoista käsitellä etiikkaa ja nostaa epäkohtia esiin. Jotta tämä mahdollistuu, on löydettävä sopivat kohdat, joissa keskustelua käydään, ja sopivat kehikot, joihin pohdinta upotetaan. Eräs vaihtoehto on hyödyntää riskienhallinnan ja turvallisuusjohtamisen menetelmiä, kuten riskimatriisia eettisten näkökohtien kartoittamiseen. Myös esimerkiksi testausvaiheen skenaariotyöskentely on hyvä kohta nostaa esiin eettisiä kysymyksiä. Huolien ohella on lisäksi pohdittava hyötyjä eli sitä, mikä jäisi ko. tilanteessa saavuttamatta ilman tekoälyratkaisua. Mikäli organisaatiossa ei ole rakennettu käytäntöjä siihen, miten eettistä keskustelua käydään ja eettisiä valintoja tehdään, jää korkeatasoisiin periaatteisiin sitoutuminen melko tulkinnanvaraiseksi tai kosmeettiseksi.

Syksyllä 2021 toteutimme osana ETAIROS-hanketta kaksi suunnittelu- ja kehitystyöhön osallistuville asiantuntijoille suunnattua työpajaa, joissa keskusteltiin tekoälyn etiikasta. Tilaisuuksissa keskityttiin tiettyyn tutkimuscaseen, joista toinen käsitteli biomonitorointia hoivakodin julkiseen tilaan sijoitetun, antureita sisältävän tuolin kautta. Toinen puolestaan käsitteli itseohjautuvia henkilöautoja. Tilaisuuksien perusteella vaikutti siltä, että suunnittelijoilla on kiinnostusta käsitellä tekoälyyn liittyviä eettisiä haasteita, kasvattaa omaa tietämystään ja jakaa ymmärrystään. Eettisten kysymysten nähtiin kietoutuvan suunnitteluun ja kehittämiseen, mutta toisaalta niistä keskusteleminen eriytyi ”normaalista työstä”. Uupui työkaluja, kanavia ja vaikutusvaltaa. Etenkin kyberturvavaatimusten nähtiin tuovan etiikkakysymyksiä myös osaksi käytännön suunnittelu- ja kehitystyötä. Tämä mm. siksi, että kaupallisilla toimijoilla on maineenhallinnan ja juridisten vastuiden myötä intressinsä vähentää kuluttajien huolta datan joutumisesta vääriin käsiin tai ilkivallan mahdollisuuksista. Vastuullisen liiketoiminnan korostuminen (niin ympäristön kuin sosiaalisen näkökulman osalta) onkin herättänyt yrityksiä pohtimaan yhä enemmän toiminnan vaikutuksia myös lyhytnäköisiä taloudellisia hyötyjä pidemmälle.

Monet kehitystyötä tekevät yritykset toimivat vahvasti globaalissa ympäristössä, jossa eettisiin tarkasteluihin suhtaudutaan eri kulttuureissa eri tavoin. Paljonko sääntelyä Euroopassa voi vaatia, jottei vaaranneta liikaa kilpailua, on yleinen kysymys. Yksittäisissä hankkeissa haasteena voi olla myös se, että tutkimusta suunniteltaessa tehty eettinen tarkastelu ei päivity projektin mukana. Kun asioista on kerran päätetty, niitä kohti suunnataan, ellei jotakin todella vakavaa ilmaannu. Hankkeen erillinen eettinen ohjausryhmä voi ottaa kontolleen eettisten asioiden huomiointia, mikä on toki hyvä asia, mutta saattaa samalla osaltaan kuolettaa suunnittelijoiden ja sidosryhmien aktiivisuutta eettisiin keskusteluihin: ”Asia ei kuulu meille”. On huomattavaa, että kiireetön, pohdiskeleva ja ratkaisuja rakentava keskustelu myös kiinnostaa ainakin osaa suunnittelijoista. Saattaa jopa olla, että omat ennakkoluulomme rakentavat kuilua ”teknisten ihmisten” teknisten kiinnostusten sekä ” empaattisten ihmisten” moraalisen kiinnostuksen välille. Keskustelufoorumeja ja käytännön vaikuttamisprosesseja tarvitaan, jotta tekoälyn etiikasta päästään keskustelemaan konkreettisella ja samalla myös toimintaan oikeasti vaikuttavalla tavalla.

Blogin kirjoittaja Senior Scientist Marinka Lanne työskentelee VTT:llä. ETAIROS-tutkimushankkeessa hän tarkastelee erityisesti teköälyn eettistä hyödyntämistä sosiaali- ja terveyspalveluissa.

Lähteet

AI HLEG. (2019). European Commission’s High-Level Expert Group on Artificial Intelligence. Ethics Guidelines for Trustworthy AI. April 2019. https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html

EGE. (2018). European Group on Ethics in Science and analysis in case study research. Forum of qualitative social research. http://www.qualitative-research.net.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chaz­erand, P., Dignum, V., Luetge, C., Madelin, R., Pa­gallo, U., Rossi, F, Valcke, P., & Vayena, E. (2018). AI4People – An Ethical Framework for a Good AI Society. Minds and Machines, 28(4), 689-707.

Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99-120.

Leikas, J., Sigfrids, A., Stenvall, J., & Nieminen, M. (2020). Good Life Ecosystems – Ethics and Responsibility in the Silver Market. In: Rauterberg M. (Ed.) Culture and Computing. HCII 2020. Lecture Notes in Com­puter Science, vol 12215. Springer, Cham, pp. 105- 122

Whittlestone, J., Nyrup, R., Alexandrova, A., & Cave, S. (2019). The role and limits of principles in AI ethics: towards a focus on tensions. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, 195-200.

Kuva: Pixabay