Tekoälyn vastuullisuus kaipaa johtamista

Kävin juttelemassa tallenteelle tulevaa Tampereen yliopiston järjestämää Johtajuussymposiumia varten. Symposiumin teemana on tänä vuonna turvallisuus, ja se järjestetään 5.9. Itse puhun tapahtuman yhteydessä siitä, millaista johtamista tekoälyn vastuullinen kehittäminen ja hyödyntäminen organisaatioilta edellyttää ja miksi se on tärkeää.

Miksi vastuullisuuden johtaminen on tärkeää myös tekoälyn yhteydessä?

Tekoälysovellukset ja tekoälyn hyödyntäminen ovat yleistyneet organisaatioissa etenkin ChatGPT:n ja sen kilpailijoiden myötä. Esimerkkejä löydät esimerkiksi Forbesin kokoamalta listalta. Tekoälyn käytön yleistymisen myötä osa organisaatioista on herännyt tilanteeseen, jossa on otettava kantaa myös vastuullisuuteen. Kuka organisaatiossa pohtii tekoälyn etiikkaa, kenelle tekoälyn vastuullisuusasiat kuuluvat? Yritykset kertovat, että systemaattinen prosessi, ohjaus ja asian ”kotipesä” usein puuttuvat (kts. Tekoälyn vastuullisuus murroksessa). Tällöin asian aktiivinen kehittäminen ja arviointi on mahdotonta. Aktiivisempaa johtamista siis kaivataan.

Jos yhteisiä pelisääntöjä ja toimintatapoja ei organisaatiossa ole tai niitä ei tunneta, kukin soveltaa omia eettisiä periaatteitaan arvioidessaan tekoälyn käytön vastuullisuutta. Tämäkin voi toki toimia. Näin ei kuitenkaan ole mahdollista varmentaa sitä, että organisaatio toimisi yhdessä määriteltyjen ja yhteiskunnan asettamien vastuullisuusperiaatteiden mukaisesti. Tällöin ei myöskään sidosryhmille eli asiakkaille, kansalaisille ja arvoverkoston muille osapuolille voida osoittaa, että organisaatio varsinaisesti olisi vastuullinen toimija.

On myös tunnetusti tehokkaampaa toimia etukäteen – arvioida vaikutuksia, riskejä, hyötyjä sekä luoda näihin tarkoituksiin prosesseja – kuin ihmetellä jälkikäteen, ”miten tässä näin kävi”. Tarvitaan siis ennakoivaa otetta, jottei ylipäätään kehitettäisi tai käytettäisi teknologiaa vastuuttomalla ja epäeettisellä tavalla. Tämä edellyttää johtamista. Lisäksi tekoälyteknologiaa kehittävien tulee varmistaa, etteivät kehittämisprosessit missään elinkaarensa vaiheessa riko vastuullisuusperiaatteita. Ei siis esimerkiksi niin, että seulottaessa pois jotakin vahingollista materiaalia tekoälyn koulutusdatasta, käytettäisiin työvoimana kolmansien maiden alihankkijaa varmistamatta työoloja.

Myös teknologiaratkaisuja hankkivalla ja käyttävällä organisaatiolla on vastuunsa (vähintäänkin moraalinen) selvittää, ettei teknologiaa ole tuotettu epäeettisesti. Tämä logiikka toimii yritysvastuun ja kestävyyden saralla, missä tulee tuntea tuotteen ja palvelun koko elinkaari ”kehdosta hautaan”. Mikseipä tämä siis yhtä lailla pätisi myös teknologian kehittämisen, hankinnan ja hyödyntämisen kohdalla. Vastuullisuudesta osana liiketoimintaa voit lukea tarkemmin:

Sosiaalinen vastuullisuus on liiketoiminnan kulmakivi.

Eettinen ja kestävä tekoäly osana vastuullista liiketoimintaa.

Mitä ja miten johdetaan, kun johdetaan tekoälyn vastuullisuutta?

Ensinnäkin on tärkeää valita henkilö tai henkilöt, jotka vievät vastuullisuusasiaa organisaatiossa eteenpäin. Tämä ei tarkoita sitä, että vastuullisuusperiaatteiden kirjoittaminen ja prosessien hoitaminen jätettäisiin yksinomaan kyseisen henkilön harteille, vaan sitä, että organisaatiossa on taho, joka ottaa asiaa aktiivisesti esiin ja seuraa vastuullisuuden kehittämistä. Jos tällaista henkilöä ei ole, asia helposti unohtuu. Keskeistä on se, miten tekoälyn etiikasta ja vastuullisuudesta keskustellaan organisaatiossa niin ulkoisten kuin sisäisten sidosryhmien kanssa. Tämä keskustelu on monelle organisaatiolle haasteellista, mutta keinoja on hyvä vähitellen opetella. Tähänkin tarvitaan johtamista ja käytäntöjä. Sidosryhmäkeskustelujen avulla voidaan mm. määrittää sitä, mitä vastuullinen tekoäly organisaatiolle tarkoittaa, ts. millainen tekoälyn käyttö ja hyödyntäminen on eettistä ja vastuullista.

Vastuullisen tekoälykehittämisen ja -hyödyntämisen puitteet on hoidettava kuntoon. Tämä tarkoittaa sitä, että luodaan yhteisiä toimintaperiaatteita peilaten tilannetta organisaation arvoihin ja toimintatapoihin. Tarvitaan myös arviointimenetelmiä ja mittareita siihen, että tekoälyn vastuullisesta hyödyntämisestä voidaan raportoida sidosryhmille ja seurata toiminnan edistymistä. Myös sitä on hyvä miettiä, kuinka syvällä vastuullinen toiminta ylipäätään on organisaation strategiassa eli miten tekoälyn vastuullisuus nivoutuu liiketoimintaan. Organisaation on ymmärrettävä, kuinka tärkeää vastuullisuus on sen asiakkaille ja muille sidosryhmille nyt ja tulevaisuudessa. Muutokset voivat olla nopeitakin tällä rintamalla. Tekoälyä ei näin ollen kannata jättää ”sokeaksi pisteeksi” organisaation kokonaisvastuullisuudessa.

Yleisesti niin yritykset kuin julkiset toimijat ovat tekoälyn hyödyntämisessä ja tuntemisessa vasta alkutaipaleella, vaikka yksittäisiä kokeneita tekoälyhyödyntäjiäkin löytyy. Eurooppalaisen säädösten ja ohjeistusten tunteminen organisaatioissa on tärkeää, mutta samalla vastuullisuusasiaa on otettava haltuun itse, omissa arvoverkostoissa ja tulevaa ennakoiden. Toimintatavat on myös vietävä konkreettiselle tasolle pohtien yhdessä sidosryhmien kanssa parhaat käytännöt vastuullisuuden toteuttamiseen. Aktiivisiin toimiin ja keskusteluihin ryhtyneillä organisaatiolla on huomattavasti paremmat valmiudet ja mahdollisuudet hyödyntää tekoälyä onnistuneesti ja vastuullisesti.

Kuva: Pixabay

Kirjoittaja

Marinka Lanne, Senior Scientist, Dr sc.

Ethics and Responsibility of Innovations

VTT TECHNICAL RESEARCH CENTRE OF FINLAND

P.O. Box 1300 (Visiokatu 4) FI-33101 Tampere, Finland

Tel. +358 20 722 3633

Mobile +358 40 068 0361

www.vtt.fi, marinka.lanne@vtt.fi

https://www.linkedin.com/in/marinkalanne/