Päivän polttavia puheenaiheita turvallisuudesta, riskeistä ja moraalista ETAIROS-virtuaalitapahtumassa
![](https://etairos.fi/wp-content/uploads/2022/06/kuva1.jpg)
31.5. järjestetyssä virtuaalitapahtumassa ’Turvallisuus, riskit ja moraali – Tutkimustuloksia ja huomioita tekoälyn vastuullisesta hyödyntämisestä’ pohdittiin eri näkökulmista tekoälyn suunnittelun ja käytön eettisiä kysymyksiä. Seuraavassa on tiivistettyjä nostoja viidestä asiantuntijapuheenvuorosta.
Tampereen yliopiston tietojenkäsittelytieteen professori Jyrki Nummenmaa lähestyi aihetta ostoskeskusvalvontaesimerkin kautta. Ostoskeskuksissa hyödynnettävien tekoälyratkaisujen, kuten kameravalvonnan, hälytyslaitteiden ja hissien, on tarkoitus ennen kaikkea hallita turvallisuusriskejä, mutta samalla näihin ratkaisuihin kohdistetaan suuria vaatimuksia. Ratkaisujen tulee toimia niin, että ne eivät haittaa ostoskeskusten asiakkaita ja liiketoimijoita. Lisäksi ratkaisujen suunnittelussa on huomioitava eettiset ja moraaliset aspektit. Usein nähdään, että eettiset ongelmat tekoälyn käytössä olisivat luonteeltaan tilastollisia, vaikka oikeastaan yksilötason tarkastelu eettisessä pohdinnassa on keskeinen. Esimerkkinä tällaisista tilavalvontaan liittyvistä monimenetelmällistä tarkastelua vaativista eettisistä haasteista ovat muun muassa päätöstä tekevän tahon ja vastuun hämärtyminen, valvonnan läpinäkymättömyys, käyttäjien ymmärtämättömyys järjestelmästä sekä tietosuojaan ja lupiin liittyvät kysymykset.
Jaana Hallamaa, sosiaalietiikan professori Helsingin yliopistosta käsitteli puheenvuorossaan, kuinka eettinen lähestymistapa voitaisiin yhdistää tekoälyn suunnitteluun ja hyödyntämiseen. Hänen mukaansa tekoälyn eettiset mallit ovat vielä liian erillään tekoälyn suunnittelusta. Pohdinnassa keskitytään usein yksittäisiin sovelluksiin ja yksilöiden toimintaan. Sääntely on puutteellista, koska kehitys on niin nopeaa. Ihmiset eivät useinkaan kiinnitä huomiota siihen, että heidän hyödyntämänsä digitaaliset ilmaispalvelut keräävät käyttäjistään dataa, jota yhtiöt käyttävät oman liiketoimintansa raaka-aineena. Yksilönäkökulmaa olisi laajennettava systeemisen ajattelun avulla ja tarkasteltava tekoälyn käyttöönoton laajoja yhteiskuntavaikutuksia. 1900-luvun kuluessa kehitetty turvallisuustutkimus tarjoaa monia hyödyllisiä työkaluja ja lähestymistapoja siihen, miten käytännön tekoälyratkaisuja voidaan suunnitella eettisesti kestävällä tavalla. Samalla on syytä pitää mielessä turvallisuustutkijoiden havainto, ettei ihanteellisia olosuhteita ole, että kaikessa toiminnassa tehdään virheiltä ja ettei kaikkia riskejä voida eliminoida.
Työterveyslaitoksen tutkimusprofessori Anna-Maria Teperi avasi osallistujille ihmisen toiminnan (Human Factors) ymmärtämistä edellytyksenä tekoälyn eettisyydelle. Teperin mukaan teknologisia systeemejä, kuten tekoälyratkaisuja, suunnitellessa on pitkään jätetty huomiotta ihmisläheinen ja käyttäjälähtöinen näkökulma. Ongelmatilanteissa käyttäjä on nähty huolimattomana, ja ratkaisuna on pidetty lisäkoulutusta tai -ohjeita systeemin käyttöön. Ihmisnäkökulma korostaa ihmisen suoriutumisen vaihtelua, ja sen lähtökohtana on teknologioiden suunnittelu palvelemaan ihmistä ja tarjoamaan käyttäjälle edellytykset onnistua. Ihmisnäkökulma onkin keskeinen osa tekoälyratkaisujen eettistä suunnittelua, kun pyritään vastaamaan esimerkiksi Nummenmaan esille nostamaan käyttäjien ymmärtämättömyyteen järjestelmän toiminnasta, ns. mustan laatikon ongelmaan.
Väitöskirjatutkija Henrikki Salo-Pöntinen paneutui esityksessään ymmärryksen johtamiseen ja tiedolla johtamiseen julkishallinnossa. Myös hän tunnisti muissa puheenvuoroissa esiin nousseen ongelman: ei-reflektoiva automaattisten päätöksentekojärjestelmien hyödyntäminen osana organisaation tiedolla johtamisen toimintoja voivat karrikoiden johtaa siihen, että kukaan organisaatiossa ei todellisuudessa ymmärrä, miksi joku päätös on tehty. Tämän haasteen ratkaisemiseksi tulisikin keskittyä ymmärryksen johtamiseen. Salo-Pöntinen korostaa, että päätöksenteon tukijärjestelmien kehittämisessä vastataan väistämättä vähintään neljän päättelyn/ongelmanratkaisun alueen haasteisiin: 1. kontekstispesifi 2. Arvioitavan ilmiön ymmärtäminen 3. Tekninen 4. Aiempien alueiden integrointi. Tämän hetken tiedolla johtamisen lähestymistavat korostavat teknisen alueen merkitystä muiden kustannuksella. Näin ollen meillä on tarve monitahoisemmalle tiedolla johtamisen mallille, joka tukisi tarkoituksenmukaisten tukijärjestelmien kehittämistä.
Tampereen yliopiston hallintotieteiden professori Jari Stenvall nosti omassa esityksessään näkemyksiä Suomen koronatoimiin liittyvästä turvallisuustutkimuksesta tekoälyn ja etiikan näkökulmasta. Viimeisten vuosien aikana tapahtuneesta kriisitilanteen hallinnasta ja koronan hoitoon liittyvästä päätöksenteosta on opittu, että Suomessa ei olla eettisestä näkökulmasta valmistauduttu koronakriisin kaltaisiin tilanteisiin, ja oikeastaan turvallisuustoimiin liittynyttä eettistä tieteellistä taustaselvitystä voidaan pitää riittämättömänä. Koronatoimet saivat myös kritiikkiä tekoälyyn pohjautuneista ennusteista, joiden avulla päätöksiä tehtiin, ja jotka eivät lopulta käyneet toteen ennustetulla tavalla. Voidaan todeta, että tämänlaiset tilanteet eivät ole helppoja eettisestä näkökulmasta, ja esimerkiksi päätöksenteon vastuuta, tekoälyn käyttöä kriisinhallinnassa ja eettisiä valintoja tulisi tulevaisuudessa taustoittaa enemmän.
Keskustelu tekoälyn etiikasta, turvallisuudesta ja moraalista jatkuu syyskuussa Helsingissä lähitapaamisessa. Ajankohta ja paikka tarkentuvat myöhemmin, ja niistä tiedotetaan ETAIROS-verkkosivulla. Lämpimästi tervetuloa mukaan!
ETAIROS-hanke Porin SuomiAreenalla!
11.7.2022 klo 11.00–11.45 paneelikeskustelussa kysymme, minkä hinnan maksamme tekoälyn tarjoamista mahdollisuuksista.
Kuuntele ETAIROS-podcastia! 10 pulmaa tekoälystä -podcastin kaikki jaksot ovat nyt kuunneltavissa Spotifyssa, Apple Podcastsissa ja Suplassa!
![](https://etairos.fi/wp-content/uploads/2022/06/kuva1.jpg)