Tekoälyn eettinen soveltaminen edellyttää johtamista
Tampereen Johtajuussymposium 5.9.2023
ETAIROS-hankkeen seminaari: ”Tekoälyn mahdollisuudet ja uhat”
ETAIROS järjesti Tampereen johtajuussymposiumissa seminaarin tekoälyn mahdollisuuksista ja siihen liittyvistä uhista. Tekoälyn kehittämiseen ja hyödyntämiseen liittyy merkittäviä vastuullisuuden alalle lankeavia kysymyksiä, joiden tulee olla osa yrityksen tai organisaation laajempaa vastuullisuusstrategiaa. Toiminnan vastuullisuudesta huolehtiminen on modernin johtajuuden kulmakiviä. Tästä näkökulmasta tekoälyn kysymykset eivät voi olla ”sokea piste” vastuullisuuden kokonaisuudessa, ja siitä huolehtiminen on lopulta johtajuuskysymys.
Jyväskylän yliopiston kognitiotieteen tutkijatohtori Mari Myllylä nosti avauspuheenvuorossaan esiin tekoälyn potentiaalin vastuullisuudessa. Myllylä valotti vastuullisuutta useasta näkökulmasta, niin yritysvastuuta, sääntelyä, kehitysprosesseja kuin työn lopputulosta tarkastellen. Vastuullisessa johtajuudessa on oleellista omistajien ja johdon aktiivinen osallistuminen vastuullisuuden edistämiseen siten, että vastuullisuus otetaan osaksi yrityksen strategiaa ja käytännön kehitystyötä. Kuten Marinka Lanne , yrityksen toimintatavat on vietävä konkreettiselle tasolle niin, että vastuullisuus integroituu luontevaksi osaksi kunkin työntekijän työtä.
Tampereen yliopiston professori Jyrki Nummenmaa demonstroi käytännössä, miten ChatGPT:tä voi hyödyntää osana johtamista, ja toisaalta miten ei. Kielimalli voi tarjota varsin asiallisia toimintaohjeita esimerkiksi haastaviin kurinpidollisiin tilanteisiin, mutta itse toimintaa sillä ei luonnollisestikaan voi tehdä. Onko ChatGPT hyöty vai riesa riippuu paljolti asenteista, siitä, kuinka ennakkoluulottomasti teknologian käyttöön suhtaudutaan. Nummenmaa heitti ChatGPT:lle rennosti kysymyksiä johtajuudesta, ja sai “aika hyviä” neuvoja esimerkiksi juopuneen alaisen puhutteluun. Toisaalta ChatGPT generoi kaikenlaista soopaa. Nummenmaa totesikin, ettei ihmiskunnan kollektiivinen viisaus todellakaan ole vielä integroitu järjestelmän generoimiin teksteihin. Tekstit vaikuttavat yleisesti ottaen järkeviltä, mutta niitä tarkemmin arvioimalla huomaa, että osa teksteistä on puuta heinää. Kysyttäessä Kalle Päätalon vaimoja saa monia erilaisia vastauksia. Toisaalta Nummenmaa demonstroi kuinka GPT antaa muutamassa sekunnissa hyviä vinkkejä liiketoimintasuunnitelman sisältöön tai johtoryhmässä toimimiseen. Yleisön toiveesta Nummenmaa kirjoitti GPT:lle “kuinka mitata tekoälyn vastuullisuutta?” ja sai kolmessa sekunnissa “kohtalaisen hyvän” kymmenen kohdan toimintalistan. Samoin kysymykseen “mihin johtajan kannattaa käyttää ChatGPT:tä” kielimalli tuotti hyvin monipuolisen vastauksen. Nummenmaa rohkaisikin kaikkia kokeilemaan ennakkoluulottomasti ja mielenkiinnolla uusia teknologioita.
Helsingin yliopiston tutkija Raine Haikarainen kuvaili esityksessään ilmailualan turvallisuuskulttuurin kehitystä. On suorastaan hätkähdyttävä fakta, että vuonna 2017 reilusta 4 miljardista myydystä lentolipusta huolimatta suurten lentoyhtiöiden osalta kuolemaan johtaneiden ilmailuonnettomuuksia määrä oli nolla. Miten ilmailuala päätyi tilanteeseen, jota voidaan pitää äärimmäisen turvallisena? Ajallisesti lentoliikenteen historia on melko lyhyt, mutta tekninen ja kulttuurinen kehitys on ollut varsin suurta. Haikarainen eritteli esityksessään joitakin syitä, jotka ovat edesauttaneet nykytilan saavuttamista. Eräs on sääntely. Ns. Chicagon sopimus 1944 loi perustan nykyiselle turvallisuuskulttuurille. Vaikka sääntely ja kontrolli ei ole aina ihmiselle mieluisaa, etenkään nopean teknisen kehityksen ja innostuksen aikana, lentoilmailun nykytila turvallisuudessa osoittaa sen arvon. Haikarainen huomauttikin, että tekoälyn nykytilanteeseen voi tässä suhteessa tehdä analogian ja kenties jotain oppiakin. On varsin mahdollista, että ilmailuala ei olisi saavuttanut nykyistä kokoaan ja suosiotaan ilman korkeaa turvallisuutta. Myös ihmisen ja koneen yhteistoiminnan tutkimus on ollut tärkeä osa ilmailua. Vaikka suuri osa lentokoneissa käytettävästä teknologiasta ei kuulu varsinaisesti tekoälyn piiriin, on kuitenkin huomattava, että automaation ja tekoälyn rajankäynti on usein varsin häilyvää. Olennaista on aina kun tekninen järjestelmä nivoutuu osaksi ihmistoimintaa varmistua sen laadusta ja toisaalta käyttäjien ja muiden toimijoiden kyvystä hahmottaa järjestelmän toimintaa riittävällä tasolla. Ilmailututkimus on myös osoittanut viestinnän ja avoimuuden merkityksen yhteistoiminnassa. Tältä pohjalta muihinkin konteksteihin, kuten leikkaussaleihin, levinnyt turvallisuuskulttuurin mallit ovat yleishyödyllisiä johtajuuden näkökulmasta, mutta myös tekoälyn erityiskysymysten kohdalla. Esimerkiksi modernissa turvallisuuskulttuurissa ihmistä ei nähdä ”heikkona lenkkinä” vaan luovana, oppivana ja eteenpäin katsovana ongelmanratkaisijana. Tämä tulisi muistaa myös tekoälyn aikakautena, jotta vältetään ajatusta siitä, että koneiden tehtävä olisi saavuttaa täydellinen korvaavuus ihmistoiminnalle. Maailman monimutkaistuessa ilmailussa pitkälle viedyillä turvallisuusmalleilla on käyttöä.
VTT:n Jaana Leikas johdatti seminaarin paneelissa keskustelijat pohtimaan ihmisluonnetta ja sen raadollisia puolia. Aihetta avasi Helsingin yliopiston professori Jaana Hallamaa verkon rakkaushuijausten kautta. Verkkohuijausten järjestelmällisyys ja ammattimaisuus on hämmästyttävää ja psykologisessa osaamisessaan raadollista. Ihmisluonnon ennakoitavat piirteet ja tekoäly mahdollistavatkin huijausten ja hyväksikäytön nostamisen teolliselle tasolle. Useilla ”silmä” on jo harjaantunut tunnistamaan räikeimmät huijaukset ja liian hyvät tapaukset ollakseen totta tunnistetaan. On kuitenkin muistettava, että verkkokäyttäjien kokonaismäärä on valtava ja siitä riittävä prosentti on haavoittuvaisempia kuin toiset. Kenties jokin rakkaudenkipeä sokaistuu tosiasioille. Kenties toisen silmä ei ole harjaantunut tunnistamaan huijauksia. Kenties kolmannella ikä tai muistisairaudet luovat haavoittuvuuden huijauksille. Yhtä kaikki, on selvää, että tekoäly voi kasvattaa huijausten määrää ja on tärkeää kysyä miten heikoimmissa asemissa olevia voidaan turvata? Tekoäly voi olla tässä suhteessa niin ”hyvis” kuin ”pahiskin” – vaikka lopultahan kone ei konna olla voi, vain ihminen. Mutta kenen tulisi tällaista vastuuta kantaa? Esimerkiksi ei EU:n tekoälyasetus ota kantaa rakkaushuijauksiin, vain ”ison riskin” käyttötapauksiin. Toisaalta ei kai rikollisia sääntely kiinnosta, vain rikoksen tuottama hyöty ja rangaistuksen mahdollisuus ja seuraukset. On toinen kysymys, miten ja millä tasolla verkkohuijaukset mahdollistava maaperä saadaan poistettua: tässä teknologialla voi olla rooli. Toisaalta kuten Jyrki Nummenmaa huomautti, voi tapahtua myös sosiaalinen käänne: kun suurten kielimallien ja synteettisen kuvamateriaalin kehitys tekee kaiken sisällön epäilyksenalaiseksi, kenties alamme kääntyä takaisin luotettavaan tosimaailman kontaktiin. Mihin suuntaan maailma kääntyykään, johtajuuden rooli tulee säilymään. Mitä ilmeisimmin ihmistä voidaan kyllä johdatella, mutta johtaminen on tekoälynkin aikakaudella perimmiltään eettistä toimintaa.
Voit katsoa tapahtuman tallenteen Yle Areenasta. Seminaari alkaa kohdasta 5:17. Tapahtuma poistuu Areenasta 5.10.2023.