Tekoälyn möröt ja mahdollisuudet – huomioita AI’n vastuullisesta hyödyntämisestä
Tekoälyn käyttöön liittyy monia kysymyksiä ja huolia – osin perusteltujakin. Miten vastuu AI-järjestelmiä käytettäessä määritellään, miten tietosuojakysymykset ratkaistaan ja miten tekoäly muuttaa työtä sekä inhimillistä toimijuutta?
Miten saisimme mörön muuttumaan mahdollisuudeksi ja huolet hälventymään? Tutkimus tarjoaa ratkaisuja tekoälyn turvalliseen ja vastuulliseen suunnitteluun sekä käyttöön. ETAIROS-hanke avasi AI Finland & AI DAY 2021: Reboot with AI -tapahtumapäivän 4.11.2021. Seuraavassa tieto- ja tunnelmapaloja, jotka tarkastelevat AI’n roolia esimerkiksi liikenne- ja kauppakeskusturvallisuudessa.
Ajatus itseohjautuvista ajoneuvoista on houkutteleva; autonomisessa ajoneuvossa kuljettajan aika on käytettävissä muuhun ja teknologian tulisi vähentää inhimillisiä virheitä. Mutta miten turvallisuutta voidaan edistää autonomisen liikkumisen ratkaisuissa? Apulaisprofessori Mika Viljanen Turun yliopistosta näkee fyysisten ja simulaatiotestausvaatimusten asettamisen todennäköisesti ainoana toimivana sääntelystrategiana, vaikkakin fyysiset testaukset ovat kalliita ja sensoridatan tarve todellisesta maailmasta on suuri. Moneen suureen kysymys edellytetään kuitenkin vastauksia. Kuka esimerkiksi testaa ja verifioi tulokset? Mikä on toimialan ja toimijoiden vastuu? Riskitöntä maailmaa ei tulevaisuuskaan tarjoa, vaan joidenkin riskien vähentyessä toiset riskit voivat nostaa päätään. Riskien kohdentamisessa vastausta etsitäänkin siihen, kehen riskit kohdentuvat? Mika Viljanen ei kuitenkaan koe, sääntelyä kannattaisi rakentaa rikosoikeudellisen järjestelmän varaan. Turvallisuudesta on kyettävä huolehtimaan muuten.
Haastavien valintojen äärellä ollaan myös kauppakeskusturvallisuudessa, johon kuulijat johdatti ETAIROS-hankkeen konsortiojohtaja, professori Jyrki Nummenmaa Tampereen yliopistosta. ETAIROS tutkii ja tukee AI-järjestelmien suunnittelua kauppakeskuskontekstissa, missä tavoitteena on taata turvallisuus liiketoimintaa haittaamatta. Päämääränä on tekoälyjärjestelmä, joka on eri osapuolien hyväksyttävissä. Ratkaisuja turvallisuuden edistämiseen tarjoaa mallintaminen (toimijatasolla), sekä mallin analysoiminen ja simuloiminen. ETAIROS-hankkeessa tehtävä mallinnus perustuu käsitykseen toimijoiden toiminnasta (toimijoiden uskomukset, halut ja aikomukset keskiössä). Vaikeusastetta kuitenkin lisäävät mm. toimijoiden toimintojen vaikutukset (hyvä/huono/neutraali) niin toimijoihin itseensä kuin muihin toimijoihin. Tekoälyjärjestelmän tulee tarjota ratkaisumalleja myös häiriö-/poikkeustilanteisiin.
Professori Pertti Saariluoma Jyväskylän yliopistosta muistutti, että teknologia on aina eettisesti neutraalia, mutta eettinen tarkastelu kulminoituu tapaan, miten tekoälyä hyödynnetään. Tekoäly on avannut enemmän mahdollisuuksia kuin moni muu aiempi kehitys, mutta näihin mahdollisuuksiin liittyy aina riski.
Etiikka säätelee toimintaamme (prioriteetit ja preferenssit), ja eettisten perusperiaatteiden (oman ja toisten elämän laadun parantaminen sekä vaikeuksien välttäminen niin itselle kuin muille) integroiminen tekoälyn suunnitteluun ja käyttöön vähentää rikollista ja sortavaa käyttöä sekä vahinkoja ja onnettomuuksia. Tekoäly mahdollistaa mm. ihmisen välittömän kontrollin tarpeen vähenemisen, tehokkaat tuotantorobotit, älykkäät tukipalvelut, terveysteknologian laaja-alaisen hyödyntämisen ja turvallisuuden tunteen vahvistamisen.
Tavoitteena on, että ihmisten elämä muuttuu toisenlaiseksi – paremmaksi.