Edistyksellinen ja ainutlaatuinen AI Act on hampaaton ja vanhanaikainen
EU:n parlamentti hyväksyi oman kantansa EU:n tekoälysäädökseen 14.6.2023. Säädös etenee nyt ns. trilogi-menettelyyn, jossa sen lopullisesta sanamuodosta päätetään. Tavoitteena on päästä sopimukseen vuoden loppuun mennessä.
Tekoälysäädös on pioneerityötä. Muu maailma tulee tekoälysääntelyssä kaukana EU:n perässä. Suurimmassa osassa maailmaa ei ole päästy edes lähtökuoppiin.
Vaikka tekoälysäädös on uusinta avantgardea, se vaikuttaa tästä huolimatta jo nyt hampaattomalta ja vanhanaikaiselta. Kaupallisten motiivien ajama tekoälyn nopea kehitys näyttää ajaneen ohi sääntelystä.
Ongelmakohtia on lukuisia. Tekoälysäädöksen pehmeillä sääntelykeinoilla tuskin päästään siihen, että tekoälysovelluksista tulisi vastuullisia ja ihmiskeskeisiä. Säädöksen keinot eivät riitä edes järjestelmien välittömien vaikutusten hallintaan, saati ohjaamaan sosiaalisia muutoksia, joita järjestelmät todennäköisesti tulevaisuudessa laukaisevat.
Sääntelytapa on auttamattoman pehmeä ja innovaatiomyönteinen. Tosi asiassa säädöksellä varmistetaan, että useimpia tekoälysovelluksia saa käyttää EU:ssa rajoituksetta ja estetään jäsenvaltioita sääntelemästä tekoälysovelluksia, muutamaa poikkeustapausta lukuun ottamatta. Vaikka säännöksellä pyritäänkin ohjaamaan ns. korkean riskin järjestelmien kehittäjiä kohti tietoisia ja vastuullisia valintoja, sääntelytapa on viritetty erittäin yritys- ja innovaatiomyönteiseksi. Kehittäjien on muun muassa analysoitava ja hallittava järjestelmiensä riskejä, datalähteitä ja luotettavuutta. Valvontaa on vähän. Suurimmaksi osaksi riittää, että tekoälyjärjestelmän kehittäjä kiinnittää CE-merkin järjestelmäänsä, jos pitää sen riskejä hyväksyttävinä.
Kun generatiiviset, sisältöä tuottavat yleiskäyttöiset tekoälyjärjestelmät ovat yleistymässä, säädöksen vähät hallintakeinot näyttävät jäävän historiallisiksi muinaismuistoiksi, muistutuksiksi tekoälystä, jota ei enää ole. Generatiivisten järjestelmien riskejä on esimerkiksi haastavaa tunnistaa, vähentää ja hallita, kun mahdollisia käyttötapauksia on suuri määrä. Generatiivisten mallien kouluttamiseen käytetään valtavia määriä dataa, eikä datan laadusta huolehtimalla voida enää merkittävästi vaikuttaa mallien toimintaan.
Läpinäkyvyyssääntelyn hyödyt ovat rajattuja, kun järjestelmät ovat äärimmäisen monimutkaisia. Esimerkiksi OpenAI:n kehittämä GPT-3.5:ssa on 175 miljardia parametria ja lähes sata kerrosta, uusimman GPT-4:n teknisiä tietoja yritys ei ole edes julkaissut. Näissä oloissa järjestelmien luotettavuutta on ylipäätään vaikeaa, ellei jopa täysin mahdotonta varmistaa.
Huolestuttavinta on, että säädöksessä ei pyritä tarjoamaan ratkaisuja tekoälyn välillisiin makrotason vaikutuksiin. Ketään ei velvoiteta kartoittamaan, minkälaisia kauaskantoisia muutoksia tekoälyn käytöllä voi olla. Fokus on tiukasti mikrotasolla ja lähitulevaisuudessa.
Tekoälysäädös tarvitsisikin rajun päivityksen jo ennen kuin se on tullut voimaan. Sääntelijöiden olisi löydettävä itsestään rohkeus tehdä varovaisia ratkaisuja, vaikka varovaisuus voisikin hidastaa innovaatioiden kehitystä. Pehmeästä tönimisestä olisi siirryttävä kieltoihin ja ohjaukseen, joilla voitaisiin varmistaa, että tulevaisuudessakin elämä olisi ihmisarvoista. Tämä edellyttäisi tekoälyn välillisten vaikutusten esiin nostamista ja laajaa demokraattista keskustelua siitä, minkälaisissa tekoälytulevaisuuksissa haluamme elää, sekä rohkeita toimia näiden tulevaisuuksien rakentamiseksi.
Maailman ensimmäinen tekoälyn sääntelyä koskeva huippukokous järjestetään syksyllä Iso-Britanniassa. Toivottavasti osallistujilla riittää rohkeutta käytännön toimiin.
Mika Viljanen, OTT / LLD
Yksityisoikeuden apulaisprofessori
Turun yliopisto
Kuva: DALL-E