Tyhmä ilman eettistä ulottuvuutta
Digitaaliset prosessit

Tyhmä ilman eettistä ulottuvuutta

Ihmiset päättävät, käytetäänkö tekoälyä hyvään vai pahaan. Akuutit riskit liittyvät yksityisyydensuojaan, algoritmien virhetulkintoihin ja niiden tuottamiin vääriin päätöksiin.

Tekoälyä on helppo puolustaa, kun se auttaa lääkäreitä diagnosoimaan syöpiä ja muita vakavia sairauksia. Samoin Amazonin asiakkaat kiittävät varastorobotteja, jotka mahdollistavat tuotteiden kustannustehokkaan jakelulogistiikan.

Isoveli valvoo

Ääni kellossa muuttuu, kun tekoälyn avulla päätellään työntekijöiden sitoutumista firmaan esimerkiksi tietokoneen käyttöaktiivisuuten perusteella. Näin tehdään muun muassa yhdysvaltalaisessa data-analytiikkapalveluja tarjoavassa Veriatossa, jossa rekisteröidään työntekijöiden käyttäytyminen näppäinkomentojen tarkkuudella.

Kiinassa pilotoidaan pisteytysjärjestelmää, jossa kansalaisia lokeroidaan luotettavuuden perusteella. Parin vuoden kuluttua järjestelmän odotetaan keräävän ja analysoivan informaatiota sadoista erilaisista datalähteistä.

Maltillisestikin arvioiden näyttää ilmeiseltä, että kansalaisten saamat luotettavuusluvut vaikuttavat heidän mahdollisuuksiinsa työelämässä ja politiikassa. Harvinaisia eivät ole nekään puheenvuorot, joissa ennakoidaan teknologista singulariteettia eli tekoälyn kehittymistä yli-inhimilliseksi toimijaksi, joka alistaa myös vallanpitäjät palvelukseensa.

Oikein vai väärin?

Se, käytetäänkö tekoälyä hyvään vai pahaan, on edelleen ihmiskunnan omissa käsissä. Dystopia ei vaani kulman takana, eikä singulariteettikaan ole tulevaisuutta työkseen ennakoivien ensimmäisillä kalvoilla. Akuuteimmat tekoälyuhkat liittyvät ihmisten yksityisyydensuojaan, algoritmien virhetulkintoihin sekä niiden tuottamiin päätöksenteon vinoumiin.

Tekoälyllä on sormensa pelissä myös sosiaalisen median kuplissa, sillä algoritmit filtteröivät informaatiota tehokkaasti. Kuplat eivät ole tekoälyn syytä, mutta tekoäly on kärjistänyt somekeskusteluja ja mahdollisesti vaikuttanut myös ihmisten äänestyskäyttäytymiseen.

Käsitys oikeasta ja väärästä ei synny yritysten tuotekehitysosastoilla vaan yhteiskunnallisessa keskustelussa.

Tekoäly on teknologiaa, ja sen haittojen minimointi on eettinen haaste. Näin siksi, koska etiikka käsittelee ensisijaisesti sitä, mikä on oikein, eikä sitä, mikä on mahdollista. Tekoälyn juuret ovat 1940- ja 1950-lukujen taitteessa, mutta etiikkaa pohdittiin jo antiikin Kreikassa.

Käsitys oikeasta ja väärästä ei synny yritysten tuotekehitysosastoilla vaan yhteiskunnallisessa keskustelussa. Esimerkiksi konenäön soveltaminen vaikkapa ihmisvirtojen monitorointiin julkisissa tiloissa edellyttää huolellista pohdintaa, jossa arvioidaan erilaisia yhteiskunnallisia kehityskulkuja ja niiden suhdetta teknologiaan.

Robotti ei ole ihminen

Tekoälyllä ei ole tietoisuutta, eikä tekoäly tee robotista ihmistä. Tekoäly voi tehdä eettisesti kestämättömiä ratkaisuja, mutta sitä ei voida itsessään pitää vastuullisena.

Massachusetts Institute of Technologyn professori Iyad Rahwanin mukaan tekoälyn eettisten haasteiden jäsentämisessä on korostettava teknologian ja yhteiskunnan suhdetta. Tämä sen vuoksi, että tekoälyn vaikutukset kohdistuvat osapuoliin, joilla ei ole ollut sananvaltaa teknologiaa koskevissa päätöksissä.

Tekoälyn soveltaminen esimerkiksi itseohjautuvissa autoissa ei voi olla autoteollisuuden sisäinen asia, sillä kysymys on lukuisista liikenteen vaikutuspiirissä olevista sidosryhmistä, joiden odotukset ja vaatimukset tekoälyä kohtaan ovat usein ristiriidassa. Siinä missä yhdet painottavat matkanteon vaivattomuutta, ovat toiset huolissaan turvallisuudestaan.

Vaikeita valintoja

Riittävätkö nykyiset lait, normit ja markkinat tekoälyn sääntelyyn?

Periaatteessa kyllä, mutta se edellyttää tekoälyn erityisluonteen syvällistä ymmärtämistä.

Tekoäly ei pode tunnontuskia, eikä iloitse onnistumisista. Tekoäly ei myöskään ole sorvin kaltainen passiivinen työkalu, joka tarvitsee ihmistä toimiakseen.

Tekoäly noudattaa algoritmeja, mutta sen ja ympäristön vuorovaikutus voi johtaa ratkaisuihin, joita kaikkia on vaikea ja jopa mahdotonta ennakoida.

Eettiset valinnat eivät ole aina helppoja. Kokeile vaikka itse osoitteessa moralmachine.mit.edu.

Lue seuraavaksi