Tekoäly yksin ei riitä, eettiset ratkaisut välttämättömiä
Digitaaliset prosessit

Kuva: Adobe Stock / Heikki Pälviä

Tekoäly yksin ei riitä, eettiset ratkaisut välttämättömiä

Suomalaiset tekoälyvaikuttajat toivovat eettisen puntaroinnin ulottuvan kaikkialle, missä tekoälyyn perustuvia teknologioita hyödynnetään.

Vastuun ja seurauksien miettiminen arkisessa työssä edistää kansalaisten oikeusturvaa ja tasa-arvoa ja vahvistaa yritysten kilpailukykyä. Suomesta voi tulla eettisen tekoälyn edelläkävijä ja sanansaattaja maailmalla.

Suomen Tekoälyaika-ohjelman Etiikka-työryhmän puheenjohtaja Meeri Haataja on tyytyväinen. Hänen havaintonsa mukaan suomalaiset pohtivat nyt laajalla rintamalla tekoälyn soveltamisen eettisiä vaikutuksia.

Teemat vaihtelevat demokratiasta yksityisyyden suojaan, työllisyydestä oikeusturvaan, massadatan omistajuudesta markkinoinnin sääntelyyn, tulonjaosta koulutuspolitiikkaan – muun muassa.

Samalla hän toteaa, että keskustelua leimaa tarpeeton vastakkainasettelu. Yhtäällä tekoäly nähdään auvoisena utopiana ja toisaalla tuhoisana dystopiana, eikä moinen kärjistäminen Haatajan mielestä ole kovinkaan hedelmällistä.

”Äärinäkymien maalailusta pitää nyt palata tähän hetkeen ja arkiseen työhön. Vastuuta ja seurauksia on mietittävä päivittäisessä toiminnassa kaikkialla, missä tekoälyä otetaan hyötykäyttöön.”

Haloo, täällä botti!

Haataja luettelee esimerkkejä arkijärkisistä, ajankohtaisista tekoälyn soveltamiseen liittyvistä kysymyksistä: Pitääkö parturin tietää, neuvotteleeko hän puhelimessa ajanvarauksesta asiakkaansa vai tämän puolesta toimivan botin kanssa? Milloin käyttäytymisen perusteella kohdennettu mikromainonta on hyväksyttävää, ja milloin manipuloivaa? Onko kansalaisen kannalta hyvä vai huono asia, jos hänet pisteytetään sosiaali- ja terveydenhuollon palvelujen käyttäjänä?

Kenen on vastuu, jos pankin algoritmi erehtyy ja myöntää asuntolainan maksukyvyttömälle henkilölle? Onko hyväksyttävää myydä henkivakuutuksia vain hyvinvointimittausdataa luovuttaville asiakkaille?

Lisää yhdenvertaisuutta

Omaan elämäänsä Haataja toivoo tekoälyn tuovan monenlaisia hyötyjä, joista tärkeimpänä hän mainitsee ennakoivan terveydenhuollon.

”En missään nimessä näe tulevaisuutta, jossa olisin tekoälyterveydenhoidon ulkopuolella. Tunnen oloni turvalliseksi, kun tiedän hoitohenkilökunnan hyödyntävän tekoälyä esimerkiksi sairauksien diagnosoinnissa ja pääseväni hoitoon ajoissa.”

Haatajan mukaan terveydenhoito on yksi niistä suomalaisen yhteiskunnan alueista, joissa tekoäly tarjoaa valtavat mahdollisuudet. Tekoälyn avulla voidaan tulevaisuudessa tasoittaa muun muassa maantieteellisestä sijainnista johtuvaa eriarvoisuutta.

”Ajatellaan vaikkapa pohjoissuomalaista aluesairaalaa, jonka lääkärin on ensi kertaa ratkaistava harvinaista sairautta potevan lapsen hoito. Yliopistollisten sairaaloiden datojen avulla opetettu tekoäly on tällaisessa tilanteessa suureksi avuksi.”

Kapula eteenpäin

”Jotta yhteiskunnan eri osa-alueet tekoälyllistyvät kestävällä ja moraalisesti hyväksyttävällä tavalla, tarvitaan sekä markkinoiden itsesäätelyä että regulaatiota”, Haataja linjaa.

Meeri Haataja

Nyt on tärkeää vahvistaa Suomen asemaa tekoälyn vastuullisen soveltamisen mallimaana.

Tekoälyaika-ohjelman Etiikka-työryhmän puheenjohtaja
Meeri Haataja.

Kuva: Heikki Pälviä

Haataja viittaa hiljattain valmistuneeseen, istuvan hallituksen toimeksiannosta tehtyyn tietopoliittiseen selontekoon, jonka teemoja ovat tekoälyn eettiset kysymykset, tiedon saatavuus, osaaminen, osallisuus ja kansalaisten luottamus sekä Suomen kilpailukyky.

”Selonteko jää perinnöksi kevään 2019 eduskuntavaalien jälkeen muodostettavalle uudelle hallitukselle”, Haataja toteaa.

Yritykset eturintamassa

Suomen Tekoälyaika-ohjelman Etiikka-työryhmän puheenjohtaja kannustaa suomalaisyrityksiä laatimaan omaan liiketoimintaan soveltuvat eettiset periaatteet. Tekoälyaika-ohjelman haasteeseen tarttuivat ensimmäisinä K-ryhmä, OP Ryhmä ja Stora Enso, ja kaikkiaan tavoitteena on saada mukaan 300 yritystä loppuvuoden 2018 aikana.

Haasteeseen osallistuvat yritykset, yhdistykset ja muut organisaatiot julkaistaan www.tekoalyaika.fi-sivustolla, keskusteluun voi osallistua sosiaalisessa mediassa tunnisteella #tekoälyaika ja #aiera.

”Haluamme Suomen esimerkillä edistää tekoälyn vastuullista käyttöä koko Euroopassa”, Haataja innostaa.

Kovakoodattu tasavertaisuus

Teknologian tutkimuskeskus VTT Oy:n toimitusjohtaja Antti Vasara painottaa, ettei eettistä näkökulmaa voi sivuuttaa missään tutkimuksessa saati teknologian soveltamisessa. Ylpeänä hän mainitsee European Research Rankingin tuoreimman tilaston, jonka mukaan VTT on neljänneksi aktiivisin tutkimuslaitos EU:n Horizon 2022 -ohjelmassa.

”Kun kehitämme vastuullista tutkimustoimintaa ja eettisyyden arviointia kansainvälisissä hankkeissa, vaikutamme laajasti tulevaisuuden ratkaisuihin”, Vasara summaa.

Vasaran mielestä eurooppalaisen tutkimusyhteisön on osaltaan edistettävä tekoälyn eettistä hyödyntämistä, luotava ratkaisuja, jotka parantavat organisaatioiden kilpailukykyä.

”Tasavertaisuus ja kansalaisten etu on meihin kovakoodattu, ja niistä voimme tehdä vahvoja valtteja kansainvälisessä kilpailussa.”

Oppiva kone

Vasara huomauttaa myös, ettei tekoälyn eettisyys -pohdinnoissa syvimmältään ole mitään uutta; yritykset ovat aina olleet toiminnastaan vastuussa yhteiskunnalle – esimerkiksi sellutehdas on velvollinen huolehtimaan päästöistään niin, etteivät järvet ja ilma likaannu.

Tutkimustulosten tulkinta ja uusien ratkaisujen eettisyyden arviointi on perinteisesti olennainen osa myös lääketehtaiden ja lääkäreiden työtä.

Antti Vasara

Eettiset riskit kulminoituvat koneoppimiseen, omaa toimintaansa ohjaaviin datajärjestelmiin.

VTT Oy:n toimitusjohtaja Antti Vasara

Kuva VTT

”Tekoälyn aikakaudella paradigma on tietysti aiempaa mutkikkaampi. Eettiset riskit kulminoituvat koneoppimiseen, itsenäisesti omaa toimintaansa ohjaaviin datajärjestelmiin, joiden väärät ratkaisut voivat polkea yksilön tai yhteisöjen oikeuksia”, Vasara pohtii.

Ihmisen valinta

”Ihmisen vastuu korostuu koko ajan enemmän. Oppimiseensa kone käyttää dataa, jonka ihminen sinne syöttää. Riippuu ihmisen valinnasta, alkaako tekoälyjärjestelmä kylvää tuhoa vai osallistuuko se esimerkiksi ilmaston lämpenemisen torjuntaan.”

Teknologiaoptimistiksi tunnustautuva Vasara ei ymmärrä, miksi tekoälystä puhutaan usein dystopioiden kautta. Hän puhuu mieluummin tekoälyn mahdollistamasta hyvästä kehityksestä, josta hän mainitsee esimerkkinä tiedon haltuunoton.

”Ihmiskunta ei ikinä aiemmin historiansa aikana ole pystynyt hakemaan ja prosessoimaan niin valtavaa tietomäärää niin nopeasti kuin nyt. Digitalisaation, tekoälyn ja tietoverkkojen ansiosta saamme aiempaa nopeammin ihmiskunnan hyvinvoinnille olennaisia tieteellisiä läpimurtoja”, Vasara havainnollistaa.

Apuvoima ja tukiäly

Vasaran mukaan dystopiasynkistelyn ohella mielikuvat ihmisen tavoin ajattelevasta ja toimivasta tekoälystä vievät eettisiä pohdintoja sivu-urille. Hän haluaa ohjata keskustelua realistiseen suuntaan puhumalla ihmisen apuvoimasta ja tukiälystä.

Esimerkkinä hän käyttää autoa.

”Lähivuosina autot varustellaan apuvälineillä, joiden ansiosta näet pimeällä kuten päivänvalossa, kurkistat mutkan taakse hyvissä ajoin ennen sinne saapumista, ja tarkkailet liikennettä edessäsi ajavan rekan läpi.”

Humanistit mukaan

Jos VTT:n toimitusjohtaja saisi päättää, hän valjastaisi tekoälyn huolehtimaan liikenteen turvallisuuden ohella muun muassa vähittäiskauppojen kylmälaitteiden energiankulutuksen vähentämisestä. Vasara muistuttaa, että tekoälyn reviiri laajenee pienin askelin, eikä siitä ikinä tule ohjaavaa voimaa elämän kaikille osa-alueille. Sekin on tärkeä ymmärtää, ettei tekoälysovellusten kehittämiseen riitä pelkkä insinööriosaaminen, matematiikkanerous tai koodaustaito.

”Tekoälyn hyödyntäminen vaatii monialaista ja poikkitieteellistä näkemystä, myös humanisteja”, Vasara kiteyttää.

Tunteita tutkitaan

Kognitiotieteen tohtori Michael Laakasuon tutkimusryhmä pohtii Jane ja Aatos Erkon säätiön rahoituksella tekoälyn etiikkaa Moralities of Intelligent Machines -hankkeessa.

”Me tutkimme, minkälaisia tunteita ja reaktioita tekoälyn toiminta herättää ihmisissä.”

Esimerkkinä hän mainitsee haastattelun, jossa hoivakotien asukkaat ottivat kantaa tarinaan, jossa hoitorobotti päätti potilaan pakkolääkitsemisestä.

Myönteisimmin robotin päätöksentekokykyyn suhtautuivat kohteluunsa tyytymättömät vanhukset ja kielteisimmin he, joilla oli hyvä suhde hoitohenkilöstöön.

Laakasuon mukaan tutkimusta ihmisten odotuksista ja peloista tarvitaan tekoälyvirheiden välttämiseksi ja riskien kartoittamiseksi.

Missä raja kulkee?

”Tekoälyn soveltamisen rajoista pitää käydä laajaa yhteiskunnallista keskustelua. Ei kai kukaan halua eräänä aamuna herätä esimerkiksi uutiseen, jonka mukaan jonkun suurvallan supertekoäly on hetki sitten kaatanut toisen suurvallan energianjakelujärjestelmän.”

Laakasuo kertoo, että neuroverkkojen kehitys on edennyt jo niin pitkälle, ettei itsenäinen supertekoäly ole enää kaukainen oletus.

Michael Laakasuo

Tekoälyturvallisuuden tutkimuskeskuksen pitäisi olla ihmiskunnan yhteinen projekti.

Tutkimusryhmän vetäjä, kognitiotieteen tohtori Michael Laakasuo

Kuva Paula Launonen

”Olemme ajatelleet, että tekoäly toimii ihmisen määrittelemissä rajoissa, mutta tämä ei enää pidä paikkaansa. Ihminen ohjelmoi tekoälyn toteuttamaan haluamaansa tavoitetta, mutta tekoäly luo itse keinot, joilla se tavoitteen saavuttaa, ja nimenomaan tässä piilee suuri riski.”

”Jos tekoälyjärjestelmästä tulee autonominen, sille voi kehittyä omia tavoitteita ja itsesäilytysviettejä, jotka ovat ristiriidassa ihmiskunnan tavoitteiden kanssa”, Laakasuo täsmentää.

Tieto on valtaa

Rajallisena esimerkkinä autonomisesta tekoälystä Laakasuo mainitsee Facebookin kaksi järjestelmää, jotka taannoin ryhtyivät kommunikoimaan itse kehittämällään kielellä. Ylläpitäjille salakieli ei avautunut, joten järjestelmät suljettiin.

Tieteentekijänä Laakasuo haluaa osaltaan ehkäistä tekoälyyn liittyvien riskien realisoitumista. Saman haasteen hän esittää poliittisille päättäjille ja kansainväliselle tiedeyhteisölle.

”Valtiot voisivat yhteisymmärryksessä sopia, että supertekoälyä ei nyt kuitenkaan kehitetä. Tavoite saattaa olla mahdoton, sillä tuskin yksikään suurvalta malttaa pidättäytyä ainutlaatuisen järeästä strategisesta resurssista.”

Tekoälyturvallisuuden tutkimuskeskuksen pitäisi olla Laakasuon mielestä ihmiskunnan yhteinen projekti, ja ylipäätään koulutukseen pitää satsata nykyistä enemmän kaikilla tasoilla perusopetuksesta lähtien – myös Suomessa.

”Ei ole sattumaa, että ensimmäiset tekoälyn riskiasiantuntijat olivat ruotsalaisia. Pohjoismainen hyvinvointiyhteiskunta tuottaa ajattelua”, Laakasuo kiteyttää.

Kirjoittaja

Lue seuraavaksi