Blogi: Mitä on tekoäly ja mistä tekoälyyn liittyvät eettiset ongelmat johtuvat?

Edinburghin yliopistossa vaikuttaneen tekoälyprofessori Alan ”Al” Bundyn mukaan tekoälyongelmina pidettiin ongelmia, joista ei tiedetty, miten niitä pitäisi ratkaista. Näin esimerkiksi shakinpeluuta pidettiin tekoälyongelmana. Nyttemmin ratkaisuja tietokoneen shakinpeluuseen voi pitää enemmänkin laskentana.

Vierailin 1980-luvun loppupuolella Alan Turing -instituutissa Glasgow’ssa. Silloin tekoälyjärjestelmät sisälsivät ihmisten suunnittelemia sääntöjoukkoja. Esimerkiksi shakinpeluussa säännöt kertovat, mitkä nappuloiden siirrot ovat yleensä mahdollisia. Erilaisia mahdollisia siirtoja voi kuitenkin olla suuri määrä ja niistä pitäisi valita jollakin tapaa paras tai lupaavin. Perinteisesti valinta on tapahtunut arvioimalla siirtojen lopputuloksena saatavaa asetelmaa. Tähän shakkipelissä on omat tapansa.

Tietokoneen laskentavoima on suuri ja sillä voidaan tarkastella kaikkia mahdollisia siirtojonoja useita siirtoja eteenpäin, kauemmaksi kuin ihminen ehtii käytännössä tehdä. Näistä voidaan sitten valita esimerkiksi sellainen siirto, että jos vastustaja valitsee siirtonsa mahdollisimman hyvin, niin lasketun siirtojonon jälkeen saadaan paras mahdollinen asema, eli optimoidaan pahin mahdollinen lopputulos. Vastaavasti voidaan valita se siirto, jolla vastustajan valitessa siirtonsa varomattomasti päästään parhaaseen mahdolliseen asemaan eli optimoidaan paras mahdollinen lopputulos. Tällainen laskenta voi hyödyntää myös todennäköisyyttä.

Todennäköisyydet ja koneoppiminen astuivat kuvaan mukaan

Tom Verhoeff, tuttavani Eindhovenin teknillisestä yliopistosta, oli osallistunut nopilla pelattavan Yatzy-pelin pelistrategian analysointiin. Laskemalla kaikki mahdolliset pelitilanteet ja käyttämällä nopanheiton todennäköisyyksiä oli laskettu todennäköisyyksien kannalta parhaat mahdolliset tavat valita uudelleen heitettävät nopat eri tilanteista.

Tällaisista klassisista järjestelmistä puuttuu kuitenkin tekoälyn keskeinen komponentti eli koneoppiminen. Muistan kun joskus 90-luvulla valmensin Suomen tietotekniikkaolympialaisryhmää ja siellä silloin lahjakas koululainen Tero Karras kertoi minulle tehneensä ohjelman, joka pelaa klassista kivi-sakset-paperi -peliä ihmisen kanssa ja (pitemmän päälle) voittaa. Miksi tietokone voi voittaa ihmisen tuollaisessa pelissä? Siksi, että ihminen toistaa samoja tapoja pelata eli valinnat seuraavat toisiaan tietyillä säännönmukaisuuksilla, ja hänen tietokoneohjelmansa oppi ne ja käytti niitä hyväkseen pelatessaan, arvatakseen mikä on ihmisen seuraava valinta.

Vastaavasti shakkia pelaava tietokoneohjelma voi tallentaa vastustajaansa vastaan pelaamiaan pelejä ja oppia niistä vastustajansa pelitapaa ja näin oppia välttämään vastustajalleen edullisia peliasetelmia. Erityisesti Kaukoidässä suositussa Go-pelissä on shakkiin verrattuna valtavasti suurempi määrä mahdollisia siirtosekvenssejä ja Go-pelin menestyksellistä pelaamista on pidetty shakkia merkittävästi suurempana tekoälyhaasteena. Koneoppimista käyttäen on kuitenkin päästy Go-pelissä erittäin hyviin tuloksiin. Go-peliä tietokoneohjelma voi oppia myös pelaamalla peliä toista tietokoneohjelmaa vastaan. Tässä on se etu, että näitä pelejä voidaan pelata suuria määriä ja vieläpä samanaikaisesti eri tietokoneilla, jonka jälkeen pelattuja pelejä voi analysoida.

Neurolaskenta jäljittelee alkeellisesti aivojen mekanismeja

Koneoppimisessa ns. neuroverkot ovat olleet menestyksekäs teknologia. Neuroverkko jäljittelee alkeellisella tasolla ihmisaivojen hermoston toimintaa. Se sisältää toisiinsa kytkettyjä laskentayksiköitä tai oikeastaan laskentakertoimia, joilla tietoja käsitellään. Tiedot siirtyvä hermoverkossa laskentayksiköiltä toisille. Menemättä yksityiskohtiin, hermoverkkojen laskentayksiköt toteuttava monimutkaisia laskentafunktiota ja hermoverkko opetetaan oikeaksi ajatelluilla tai todetuilla syötetieto-tulostieto -pareille eli opetusdatalla.

Hermoverkkoa opetettaessa funktioita säädetään syötetieto-tulostieto -parien mukaan siten, että ne saadaan antamaan mahdollisimman paljon oikeita vastauksia. Esimerkiksi hermoverkkoa opetetaan kuvilla (jotka on koodattu numeroiksi), joista joissakin näkyy kissa ja joissakin ei. Käytännössä hermoverkko voi tunnistaa monitasoisesti asioita, kuten alemmalla tasolla tunnistetaan vaikkapa korva, häntä, jne., ja ylemmällä tasolla tunnistetaan, koostuuko noista ominaisuuksista kissa.

Opetusdatan lisäksi opetustulosta yleensä testataan erillisillä syöte-tulos -pareilla, joita ei ole käytetty opetukseen, eli esimerkiksi kuvilla, joissa on tai ei ole kissaa. Kun hermoverkkoa sitten käytetään uusien, ennalta näkemättömien syötetietojen käsittelyyn, kuten vaikkapa näytetään uusia kuvia, niin toivotaan, että ne tuottavat toivottavia vastauksia.

Käytännössä hermoverkoilla on saatu erinomaisia tuloksia kuvien lisäksi muun muassa luonnollisen kielen käsittelyssä. Käytännössä opetusdataa tarvitaan kuitenkin valtavia määriä; yleisesti ottaen, mitä monimutkaisempi ongelma, sen enemmän. Toinen ongelma on se, että tuloksena saatava laskentafunktio on erittäin monimutkainen. Käytännössä laskentayksiköt ovat valtavia numerotaulukoita. Jos järjestelmältä vaaditaan perusteluita valintoihin eli niin sanottua läpinäkyvyyttä, niin sitä ei noista taulukoista niin vaan voi löytää. Käytännössä voidaan ehkä paikallistaa se, että mitkä syötteen sisältämistä arvoista ovat olleet keskeisiä vastauksen löytämisessä.

Monimutkaiset kokonaisjärjestelmät tekevät tuloaan

Edellä olleet esimerkit ovat yksinkertaisia. Toki usein uutisoidaan siitä, että ”tekoäly on löytänyt sitä” tai ”tekoälyllä on luotu tuota” ja yleensä kyse on varsin suoraviivaisesta koneoppimisesta. Kuitenkin esimerkiksi itseajava auto on jo varsin monimutkainen kokonaisuus, joka joutuu tunnistamaan ulkopuolisia ilmiöitä kameroiden ja tutkien avulla, jolloin luultavimmin käytetään koneoppimisella kehitettyjä järjestelmiä. Toisaalta auton toimintaa voidaan ohjata säännöillä (esim. älä aja punaista valoa päin), joita auton on noudatettava (auton pitää navigoida, liikkua muita varoen, tunnistaa auton ulkopuolelta hahmoja ja kommunikoida auton käyttäjän kanssa).

Tekoälyn ihmisenkaltaisuus nousee usein esille. Samoin kuin se, milloin tekoäly jotenkin ohittaa ihmisen älykkyyden. Tietokoneiden laskentakyky on voittanut ihmisen ja tämä ero on vain kasvanut. Vaikka tietokoneet suorittavat tehtäviä, joihin ihmiset eivät pysty, niin varsinaisesta älykkyydestä on kuitenkin vaikea puhua.

Kysymys ihmisen vapaasta tahdosta on mielenkiintoinen. Tietokoneella vapaata tahtoa ei kuitenkaan ole. Jos tietokonejärjestelmä ohjelmoidaan samalla tavalla ja opetetaan samalla datalla samalla tavoin uudestaan, niin järjestelmä toimii identtisesti ja tulee tekemään samat päätökset. Onko sellainen järjestelmä edes älykäs? Enemmänkin nuo järjestelmät ovat kehittäjiensä älykkyyden osoitus.

Kirjoitukseni otsikossa kysytään, mitä tekoäly on. Tekoäly ei kuitenkaan vaikuta mahdolliselta määritellä. Sitä voidaan toki luonnehtia – mutta järkevän ja tarkan rajan vetäminen siihen, millainen monimutkaisia sääntöjä ja oppimista hyödyntävä järjestelmä on tekoälyä ja mikä ei, tuntuu mahdottomalta.

Tekoäly ja etiikka

Tekoälyjärjestelmät ja eettiset ongelmat liittyvät toisiinsa. Esimerkiksi USA:ssa ennustettiin koneoppimisen avulla sitä, millaisia tuomioita rikoksista annetaan. Järjestelmä, joka käytti kaikkea saamaansa tietoa hyväkseen, testaustilanteessa ennusti samasta rikoksesta tummaihoiselle henkilölle pidemmän vankilatuomion kuin vaaleaihoiselle. Jos järjestelmää olisi käytetty tuomarina, niin sitä olisi helpostikin voitu pitää epäeettisenä. Tällaisenaan se pikemminkin teki näkyväksi yhteiskunnan eettisen ongelman.

Yleensä tekoälyjärjestelmien eettisinä ongelmina pidetään ”läpinäkymättömyyttä” eli sitä etteivät järjestelmät perustele ymmärrettävästi ratkaisuitaan, sekä vinoumia ja epätasapuolisuutta, kuten tumma- ja vaaleaihoisten välistä eroa edellisessä esimerkissä.

Eettisiä ongelmia syntyy, koska jotain tekoälyjärjestelmän rakentamisessa tai käytössä on jäänyt huomaamatta. Eettiset näkökohdat pitää huomioida, kun tekoälyjärjestelmän

  • käyttötarkoitus valitaan
  • rooli suhteessa ihmiseen selkeytetään
  • säännöt valitaan ja testataan
  • ohjelmisto ohjelmoidaan
  • opettamiseen käytettävä data valitaan
  • käyttäjät koulutetaan
  • käyttäjät kommunikoivat tekoälyjärjestelmän kanssa.

Eettiset ongelmat ovat siis huomattavasti laajempi ongelma kuin tekoälyteknologian läpinäkyvyyden ja epätasapuolisuuksien ratkaiseminen. Eettisten ongelmien ratkaisemiseen liittyy myös järjestelmien käyttöä koskeva säätely ja lainsäädäntö. Lisäksi tietokonerikollisuus on erityinen uhka tekoälyjärjestelmien käytölle. Jos rikolliset pääsevät esimerkiksi sotkemaan opetusdataa ja testausdataa, niin seuraukset ovat täysin arvaamattomat.


Blogin kirjoittaja Jyrki Nummenmaa tietojenkäsittelyopin professori Tampereen yliopistossa ja ETAIROS-tutkimuskonsortion johtaja.