Suomen kannattaa panostaa laajaan tekoälylukutaitoon

Pelkkä tehokkuuden tavoittelu johtaa lähtökohtaisesti huonoihin tuloksiin ja jättää organisatoriset jännitteet sekä eettiset kysymykset huomiotta.

Kirjoittajat: Taina Kalliokoski ja Henrikki Salo-Pöntinen

Tästä kirjoitimme myös Helsingin Sanomien mielipidetekstissä

 

”Suuri osa julkishallinnosta voitaisiin jo nyt automatisoida”, lausui Mikko Alasaarela Helsingin Sanomissa 9.3.2025. Lausahdus osoittaa tekoälylukutaidon puutetta, vaikka se on tullut huippuhakkeriksi nimitetyn teknologia-asiantuntijan suusta. Tekoälylukutaito ei tarkoita vain itse teknisen sovelluksen toiminnan ymmärrystä, vaan myös kykyä arvioida ja raamittaa tekoälyteknologioille tarkoituksenmukaisia, turvallisia ja eettisiä hyödyntämistapoja. Näin linjaa UNESCO jatkuvan oppimisen ohjelmiin ja nuorten koulutukseen sisällytettävästä tekoälylukutaidosta. Tarkoituksenmukaiset hyödyntämistavat ovat sellaisia, joissa sovellukset ja ihmiset toimivat yhdessä ihmisten asettamien päämäärien edistämiseksi. Tehokkuus on välinearvo ja tarkoituksenmukaisen toiminnan sivutuote.

Vaikka tekoälyn käyttöönottoa pitäisi sprinttinä, 100 m pikajuoksunkin voittaa vain juoksemalla oikeaan suuntaan.

Tuottavuuden ja tehokkuuden tavoittelu osana organisaation toimintojen kehittämistä on tietysti hyvä asia. On kuitenkin myös olemassa niitä ylikorostavia johtamismalleja, joissa organisaatioiden ydintoiminnoista irrallaan kehitettyjen ”universaalien” tuottavuus- ja tehokkuussovellusten käyttöönotto saa kehitystoiminnassa itseisarvon aseman. Esimerkiksi 2000-luvun alussa projektijohtamisen työkalut olivat tällaisessa asemassa, 2010-luvulla digitaaliset toiminnanohjausjärjestelmät ja nyt 2020-luvulla erityisesti kielimallipohjaiset tekoälysovellukset. Ongelma ei ole kulloinkin esillä olevissa artefakteissa, vaan tavassa, joilla organisaation toiminnan kehittäminen ja artefaktien rooli tuossa kehityksessä mielletään. Aatehistoriallisesti tällaiset organisaatioiden kehitystoiminnan mallit edustavat kapeaa tulkintaa Frederick Taylorin 1900-luvun alussa kehittämästä tieteellisen johtamisen teoriasta, jonka Taylor kehitti tehdastyön tehostamista varten.

Ulkoisten sovellusten käyttöönoton varaan nojaavien johtamismallien haasteeksi on osoittautunut, että objektiivista tehokkuutta tavoitellessaan ne eivät kykene huomioimaan organisaatioiden inhimillisiä ja sosiaalisia piirteitä. Sen vuoksi ne eivät myöskään hahmota toimintaa, johon kulloisiakin sovelluksia yritetään ”istuttaa”. Samanlaista kritiikkiä kohdistettiin tieteellisen johtamisen teoriaan jo 1900-luvun ensimmäisellä puoliskolla. Alasaarelan lausahdus voidaan nähdä tieteellisen johtamisen kapean tulkinnan perinteen jatkona ja toisaalta osana tehostamishuumaa, jota viimeisen 8 vuoden aikainen laajojen kielimallien yleinen esiinmarssi on tuottanut.

Kielimallit ja niihin läheisessä yhteydessä olevat multimodaaliset perustamallit* ovat yleishyödyllisiä. Se tarkoittaa, että teoriassa niitä on mahdollista hyödyntää kaikkialla, missä ihminen käyttää kieltä. Mallien hyödyntämisen järkevät ja tarkoituksenmukaiset käyttötavat riippuvat kuitenkin muun muassa tarkasteltavien yksittäisten tehtävien luonteesta, tavoista, joilla ne yhdistyvät yhtenäisiksi toiminnan kokonaisuuksiksi, organisaation toimialasta ja julkisella puolella oikeusvaltio- ja hyvän hallinnon periaatteiden noudattamisesta. Jos tekoälyä otetaan käyttöön kiireessä, lopputulos ei todennäköisesti huomioi käyttöalueen erityiskysymyksiä vaan tuottaa toiminnan päämääriin nähden näennäistä (tavoitteista poikkeavaa) tai jopa haitallista toimintaa. Sivutuotteena organisaation toimintakulttuuriin voi muodostua käsittelemättä jääviä jännitteitä.

Kiireessä ei myöskään huomaa, että tekoälyn hyödyntämisestä ei seuraa aiemman toiminnan kanssa analogista, mutta tehokkaampaa toimintaa. Tekoälyn hyödyntämisen aloittaminen muuttaa aina organisaation toiminnan muotoja ja asettaa perustavanlaatuisen kysymyksen, kuinka ihmisillä pysyy tarpeeksi hyvä ymmärrys organisaation toiminnan kokonaisuudesta ja vaikutuksista. Ymmärrystä kun ei voi automatisoida, se tulee aina sijaitsemaan organisaation ihmisten mielissä.

Maailmalta on varoittavia esimerkkejä, kuten Alankomaiden lastenhoidon tuen skandaalina tunnettu tapaus, jotka osoittavat, miten ihmisten perusoikeudet voivat vaarantua, jos julkishallinnon automatisointia toteutetaan kiirehtien, kapealla osaamisalojen yhdistelmällä ja erehtyen rinnastamaan automaatio arvoneutraaliuuteen. Alankomaiden lastenhoidon tuen skandaalissa automatisoidun tukihakemusten analyysin ja sitä seuranneen automatisoidun päätöskäsittelyn perusteella kymmeniltä tuhansilta rahallisesti heikossa tilanteessa olevilta perheiltä perittiin virheellisesti takaisin vuosien tukimaksuja, ajaen heidät vuosiksi velkahaasteisiin.

Tarkoituksenmukaisuuden hämärtymisen lisäksi kiireessä ja tekoälykehityksen kyydistä jäämisen pelossa unohtuu, että tekoälysovellusten käyttöönottoon liittyy myös vaikeita eettisiä kysymyksiä. Esimerkkejä eettisesti arveluttavasta toiminnasta löytyy erityisesti generatiivisten tekoälysovellusten kehittämistavoissa, vaikka ohjelmistojen tarjoajat lupaavat sovellusten tuottavan eettistä sisältöä. Sopimaton ja käyttäjien turvallisuutta uhkaava sisältö on saatu seulottua ihmisten tekemällä koulutusdatan luokittelutyöllä. Usein työ on tehty pienellä palkalla ja heikoissa työoloissa Länsi-Afrikan maissa.

Vastaavasti uusimpien kielimallien kouluttamiseksi ja laadukkaan tekstin takaamiseksi opetusmateriaalina on käytetty kirjallista materiaalia, johon kehittävillä yrityksillä ei ole ollut käyttöoikeutta. Maaliskuussa 2025 tuli julkisuuteen, että Meta-yhtiön isoa kielimallia Llama 3:a oli koulutettu yhtiön käyttöön luvatta imuroidulla kirjallisuudella. The Atlantic -lehden paljastamat yhtiön työntekijöiden keskustelut osoittavat, että kyseessä oli yhtiön tietoinen valinta. Myös ChatGPT-kielimalliperheestään tuttu OpenAI on ollut tekijänoikeusrikkomusten vuoksi oikeudessa.

Jos sovelluksen koulutusmateriaali on ollut kirjailijoiden, tutkijoiden, mediatalojen ja kustantajien tekijänoikeuksien alaista eikä heiltä ole kysytty sen käyttöön lupaa, miksi organisaation moraalisesti vastuullisten työntekijöiden tulisi ottaa sovellus kritiikittä käyttöön? Tekijänoikeusloukkauksen ohella on kyse luovan ja ajattelua vaativan työn mielekkyydestä ja kannattavuudesta sekä kulttuurisesta arvojen muutoksesta.

Varkautta ja toisten tekemästä varkaudesta hyötymistä on pidetty rikoksena ja moraalisesti tuomittavana hyvin pitkään, mutta nyt tilanne näyttää muuttuvan.

Generatiivisten tekoälyjen kohdalla maailman rikkaimmat yhtiöt ovat haluttomia maksamaan kulttuuri- ja tiedetoimijoiden kovalla työllä tekemästä sisällöstä. Organisaatiot, jotka ottavat käyttöön generatiivisia tekoälysovelluksia yleensä tietävät, että niiden mallien toimivuus on rakennettu tekijänoikeusrikkomusten ja viime kädessä varkauden varaan. Silti tästä huomauttaja saa helposti otsaansa teknologiavihamielisen tai muutosvastarintaisen leiman.

Tarvitaan aikaa, rauhaa ja toiminta-alueen ihmisten osaamisen arvostamista ja osallistamista, jotta tekoälysovelluksia otetaan käyttöön organisaatioissa tarkoituksenmukaisesti ja turvallisesti, kuten Tiina Kangas ja Pinja Valkonen hyvin totesivat (HS  22.3.2025). Aikaa ja tilaisuuksia keskustella tarvitaan myös, jotta voidaan ratkoa eettisiä ristiriitoja ja arvioida tekoälyn käytön pidempiä ja ennakoimattomiakin vaikutuksia. Hyvän ja laajalle levinneen Unescon hahmotelman mukainen tekoälylukutaito on näistä syistä lähivuosien aikana monelle organisaatiolle kultaakin arvokkaampaa.

* Perustamallien avulla voidaan yhdistää useisiin toimintoihin, kuten kielen, puheen, äänen, kuvan, liikkeen yms. käsittelyyn keskittyvien mallien kyvykkyydet yhdeksi kokonaisuudeksi.

Kuva: Shantanu KumarUnsplash

 

Lähteet

Amnesty (2021). https://www.amnesty.org/en/documents/eur35/4686/2021/en/

Bender, E.M., Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell, (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, NY, USA, 610–623. https://doi.org/10.1145/3442188.3445922

Engwall, M. (2003-05-01). No project is an island: Linking projects to history and context. Research policy, 32(5), 789-808. https://doi.org/10.1016/S0048-7333(02)00088-4

Kangas, T. & Valkonen, P. (2025). Tekoälyn käyttöönotto ei ole sprintti vaan maraton. Helsingin Sanomat. Moni työpaikka kuulee nyt viestin, joka saa paniikkia aikaan | HS.fi

Koenecke, A., Choi, A. S. G., Mei, K. X., Schellmann, H., & Sloane, M. (2024) Careless Whisper: Speech-to-Text Hallucination Harms. In: Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’24). Association for Computing Machinery, New York, NY, USA, 1672–1681. https://doi.org/10.1145/3630106.3658996

Lanne, M., Nieminen, M. & Leikas, J. (2025). Organisational tensions in introducing socially sustainable AI. AI & Soc. https://doi.org/10.1007/s00146-025-02293-y

Noponen, N., Feshchenko, P., Auvinen, T. et al. Taylorism on steroids or enabling autonomy? A systematic review of algorithmic management. Manag Rev Q 74, 1695–1721 (2024). https://doi.org/10.1007/s11301-023-00345-5

Penttilä, A., Holkko, P., Mäkilä, N. ja Tammes-Peters, H. (2024). Generatiivisen tekoälyn kokeilut julkisessa hallinnossa: Raportti. Valtiovarainministeriön julkaisuja. http://urn.fi/URN:ISBN:978-952-367-840-8

Storås, N. (2025). Keikahduspiste. Helsingin Sanomat. Tekoälyn tuntija käänsi kelkkansa: Työpaikkoja tulee tuhoutumaan tavalla, jota kukaan ei ole osannut ennustaa | HS.fi

UNESCO: AI competency framework for students – UNESCO Digital Library

Vaswani, A., Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin (2017). Attention is all you need. In: Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 6000–6010. https://dl.acm.org/doi/10.5555/3295222.3295349

https://time.com/7201516/kenya-president-meta-lawsuits/

https://time.com/6297403/the-workers-behind-ai-rarely-see-its-rewards-this-indian-startup-wants-to-fix-that/

https://time.com/6275995/chatgpt-facebook-african-workers-union/

https://time.com/6247678/openai-chatgpt-kenya-workers/

https://www.npr.org/2025/01/14/nx-s1-5258952/new-york-times-openai-microsoft