Generatiivisen tekoälyn sääntelyssä vaihtoehdot ovat vähissä

ChatGPT, Gemini, Midjourney, Dall-E ovat kaikki generatiivista tekoälyä. Ne tuottavat sisältöä: tekstejä, kuvia, videota ja ääntä. Reilu vuosi sitten generatiivisen tekoälyn taustalla olevat ns. transformer-teknologiat näyttivät vielä lupaavilta menetelmiltä. GPT-3:lla pystyi tuottamaan järjellisiä tekstejä. Midjourney oli varsin hyvä tuottamaan kuvia, vaikka sormet ja jalat menivätkin usein sekaisin. Nyt tilanne on kokonaan toinen. Teknologiat ovat kehittyneet hurjaa vauhtia. Näyttää siltä, että niistä on tullut tulevaisuuden teknologioiden sijaan käyttökelpoisia tämän päivän työkaluja. Ja jos kehitys jatkuu samaa vauhtia, olemme nopeasti aivan uuden tilanteen äärellä. Maailma tulee muuttumaan.

Generatiivisesta tekoälystä eli EU:n tekoälysäädöksen terminologiassa ns. perustamalleista tai yleiskäyttöisistä tekoälyjärjestelmistä näyttää tulevan sääntelynäkökulmasta erittäin ongelmallinen teknologiarypäs. Ongelmat juontuvat sääntelykeinojen ja teknologian ominaispiirteiden yhteensopimattomuudesta. Tavallisten ratkaisujen eli riskienhallintajärjestelmä-, data- sekä selittämis- ja läpinäkyvyyssääntelyn teho näyttää rapautuvan.

Yleiskäyttöisistä tekoälyjärjestelmistä näyttää tulevan sääntelynäkökulmasta erittäin ongelmallinen teknologiarypäs.

Riskienhallintajärjestelmäratkaisuissa tekoälykehittäjät ohjataan tunnistamaan ja minimoimaan riskejä, joita järjestelmistä aiheutuu, kun niitä käytetään suunniteltuun käyttötarkoitukseensa. Sääntelytapa ei istu generatiivisiin järjestelmiin. Esimerkiksi ChatGPT:lla on lukemattomia käyttötarkoituksia. Järjestelmä taipuu periaatteessa mihin tahansa, mitä promptaaja keksii siltä pyytää. Tällaisen järjestelmän riskien tunnistaminen ja minimoiminen on käytännössä lähes mahdoton tehtävä.

Datasääntelyssä järjestelmiin pyritään vaikuttamaan sääntelemällä sitä, mitä dataa niiden kouluttamisessa, testaamisessa ja validoinnissa käytetään. Ajatuksena on, että erityisesti koneoppimisjärjestelmät ovat luotettavia, jos niiden kehittämisessä käytettävä data on virheetöntä, edustavaa ja kattavaa. Datasääntelyssä ollaan vaikeuksissa. Esimerkiksi GPT-4:n koulutusdata oli käytännössä koko internet ja vähän päälle. Koulutus- ja validaatiodatan kuratointikäytännöillä ei näyttäisi olevan tällaisissa järjestelmissä enää vipuvoimaa. Laadunvarmistuskäytänteissä painottuvat muut tekijät.

Tavallisten ratkaisujen eli riskienhallintajärjestelmä-, data- sekä selittämis- ja läpinäkyvyyssääntelyn teho näyttää rapautuvan.

Selittämisvaatimuksissa kehittäjät pakotetaan avaamaan järjestelmien toimintaperiaatteet ja päätösperusteet ymmärrettävässä muodossa ainakin päätöksenteon kohteille. Tämän ajatellaan vahvistavan luottamusta tekoälyjärjestelmiin ja auttavan oikeuttamaan päätöksiä ja niiden seurauksia. Läpinäkyvyyssääntely jatkaa samalla polulla. Siinä järjestelmän toiminnasta kerrotaan sidosryhmille. Erityisesti läpinäkyvyyssääntelyn taustalla on eräänlainen markkinakurimekanismi. Sidosryhmät voivat arvioida järjestelmiä ja tunnistaa niiden mahdollisia ongelmia ja viime kädessä vaikuttaa tekoälykehitykseen.

Selitettävyysvaatimuksissa ongelma syntyy siitä, että järjestelmät ovat äärimmäisen monimutkaisia ja toimintaperiaatteiltaan pitkälti tulkitsemattomia. Esimerkiksi ChatGPT:n ensimmäisessä julkaisuversiossa järjestelmän neuroverkossa oli lähes sata kerrosta ja mallissa noin 175 miljardia parametria. Vaikka esimerkiksi erilaisilla post hoc -menetelmillä neuroverkon eri kerrosten funktioista voidaan saada tietoa, nämä selitykset eivät täytä esimerkiksi oikeutustarpeita. Kukaan ei pysty selittämään ihmisille ymmärrettävällä tavalla, miksi järjestelmä päätyi tuottamaan juuri tietyn tekstin tietyllä promptilla. Läpinäkyvyyssääntelyssä tilanne on pitkälti sama kuin selitettävyysvaatimuksissa. On vaikea kuvitella, että järjestelmistä voitaisiin antaa suurelle yleisölle tai edes asiantuntijoille sellaista tietoa, joka käynnistäisi relevantteja julkisia tai yksityisiä keskusteluja.

Edes testaussääntely ei vaikuta tehokkaalta sääntelyvaihtoehdolta. Kun järjestelmät ovat monikäyttöisiä ja prompti- ja tuotosavaruudet lähes loputtomia, on vaikea edes kuvitella, minkälaisia relevantit tehokkaat testausjärjestelyt voisivat olla. Näyttää joka tapauksessa siltä, että järjestelmien toimivuuden varmistamiseksi tarvittaisiin lukemattomia testejä ja järjestelmät täytyisi jollakin keinoilla lukita siihen käyttöön, jota varten ne on testattu.

Sääntelijät näyttävätkin olevan tekemättömän paikan edessä. Siksi on jännittävää kuukauden-kahden päästä nähdä, mitä komission, neuvoston ja parlamentin maratonikolmikantaneuvottelut tuottivat. Toivottavasti Brysselin joulukuisten öiden pimeinä tunteina keksittiin jotain uutta ja mullistavaa.

Kuva: MidJourney

 

Mika Viljanen, OTT / LLD

Yksityisoikeuden professori / Professor of private law

Oikeustieteellinen tiedekunta / Faculty of Law

Turun yliopisto / University of Turku

+358405934210