Tekoäly, turvallisuus ja jaetut kertomukset

Yhä autonomisemman teknologian hallitsemassa maailmassa koneet hoitavat monet tehtävät ihmistä paremmin. Turvallisuudenhallinnassa ja poikkeustilanteissa tarvitaan kuitenkin ihmiselle ominaista luovuutta ja asioiden symbolista hallintaa.

Turvallisuuskysymykset ovat nousseet tekoälykeskustelussa vahvasti esille. Autonominen ja oppiva teknologia on monella elämänalueella parantanut turvallisuutta, mutta samalla synnyttänyt uudenlaisia ongelmia. Järjestelmät ovat yhä kompleksisempia ja aikaisemmin turvallisuusajattelua hallinneet selvät kausaalimallit ovat osoittautuneet riittämättömiksi.  Tutkija Jari Nisula kuvaa tilannetta osuvasti, kuinka ”monet tuntemattomat tekijät ovat tuntemattomalla tavalla tuntemattomia”.[1]

Kaupallinen ilmailu on korkeateknologian hallitsema elämänalue, jossa vaativassa ympäristössä on onnistuttu saavuttamaan ultraturvallinen toiminta. Ilmailu onkin tekoälyn ja turvallisuuden näkökulmista kiinnostava tutkimuskohde. Sen historia on lyhyt, mutta dynaaminen. Kehitys on tapahtunut usein kriisien kautta ja samalla onnettomuudet sekä vaaratilanteet on hyvin dokumentoitu ja niistä otettu opiksi.  Korkeaan luotettavuuteen pyrittäessä uutta teknologiaa on otettu käyttöön vasta perusteellisten testausten ja sertifiointien jälkeen. Ilmailu voikin antaa tärkeitä malleja tekoälysovellusten kehittämiseen ja käyttöön.

Tunnettu turvallisuusteoreetikko Jens Rasmussen on erotellut toisistaan taito-, määräys- ja tietopohjaisen toiminnan.[2] Näistä taito ja määräyspohjaiset toiminnot on yhä helpompaa ja tarkoituksenmukaisempaa siirtää koneiden vastuulle. Modernin lentokoneen autopilotti pystyy ohjaamaan vaativaa kulkuneuvoa ihmistä tarkemmin ja taloudellisemmin, samoin tarvittaessa noudattamaan tehokkaasti määräyspohjaisia rajoituksia. Ihmisen eriytyinen rooli on tietopohjainen toiminta.

Tietopohjaisuutta tarvitaan, kun on tehtävä ratkaisuja eri vaihtoehtojen välillä ja joissa ei ole olemassa selkeitä ratkaisumalleja. Vaativien järjestelmien turvallisuus perustuu ihmisen luontaiseen haluun ja kykyyn selviytyä kiperistä paikoista. Tässä selviytymistaistelussa ihmisen kyky tarkastella asioiden tilaa symbolisella ja kuvitteellisella tasolla on keskeistä.  Automaattinen toiminta perustuu ennalta ohjelmoituihin malleihin ja on siten taaksepäin suuntautunutta.  Ihmiselle ominainen kyky on menneisyyteen kuuluvien arvojen ja mallien lisäksi toimia intentionaalisesti suuntautuen eteenpäin.

Uusissa turvallisuusteorioissa painopiste onkin selvästi muuttunut. Ihmistä ei nähdä vain systeemien epäluotettavana komponenttina, vaan luovana, oppivana ja eteenpäin katsovana ongelmaratkaisijana. Tämä tulevaisuuden analysointi ja ennakointi ovat keskeisiä tekijöitä kriisitilanteissa selviämisessä. Ilmailussa ne ovat vanhastaan ymmärretty turvallisuustekijöiksi, joka on tallennettu myös lentäjien viisausperinteeseen: ”Älä koskaan salli lentokoneen viedä sinua sinne, mihin ajatuksesi ei ole matkannut viittä minuuttia aikaisemmin.”

Tekoälyn yhä voimakkaammin hallitsemassa maailmassa tarvitaan yhä enemmän ihmisen kuvitteellista ja samalla arvopohjaista toimintaa. On yllättävää, kuinka vahvasti sekä ilmailu- että yleiseen teknologiseen turvallisuuteen keskittyneissä periaateohjelmissa on viime vuosina korostunut klassisen hyve-etiikan merkitys. Ohjelmissa peräänkuulutetaan ihmiskeskeisyyttä, luottamuksellisuutta, läpinäkyvyyttä, mutta myös rohkeutta tunnustaa omat virheensä ja rajallisuutensa.[3]

Keskeinen turvallisuustekijä turvallisuuskriittisessä toiminnassa on toimiva kommunikaatio. Kommunikaatioon kuuluu selkeän ja ymmärrettävän viestinnän lisäksi yhteisesti jaetut kokemukset, tarinat ja myös pelot. Karl E. Weick (1987) mukaan elävä kohtaaminen ja yhteisesti jaetut kertomukset ovat keskeinen tekijä selviytymisessämme yhä monimutkaisemmaksi muodostuvassa maailmassa.

”Siksi kertomuksia ja niihin liittyviä arvoja jakava yhteisö on potentiaalisesti luotettavampi, koska sen jäsenet pystyvät kuvittelemaan minkälaisia mahdollisia uhkia on olemassa. Samalla he ovat luottavaisempia sen suhteen, että pystyvät käsittelemään näitä ongelmia, koska yhteisössä on kerrottu tarinoita vastaavista selviytymistilanteista.”[4]

Blogin kirjoittaja Raine Haikarainen toimii tutkijatohtorina ETAIROS-konsortion etiikkaryhmässä.
Teksti on lyhennelmä hänen pitämästään puheenvuorosta Taivaalla opittua – Ilmailu ja turvallisuusajattelun kehittyminen (BoD) -kirjan julkistamistilaistilaisuudessa 11.3.2022.[5]

Kirjallisuus

[1] Nisula, Jari M. (2018). A risk management framework for a complex adaptive transport system. Multiagent Systems [cs.MA]. Université Paul Sabatier – Toulouse III, 2018.

[2] Rasmussen, Jens (1997). Risk Management in a Dynamic Society: A Modelling Problem. Safety Science, 2/3: 183–213.

[3] Eurocontrol 2020. The FLY AI Report. Demystifying and Accelerating AI in Aviation/ATM. 5.3.2020.

[4] Weick, Karl E. (1987). Organizational Culture as a Source of High Reliability. California Management Review, 2: 112–127.

[5] Haikarainen, Raine (2022). Taivaalla opittua – Ilmailu ja turvallisuusajattelun kehittyminen. BoD.