AI tutkijat Minkkinen, Viljanen ja Mäntymäki

Tekoäly päättää puolestamme

11.04.2022

Päätöksenteon ulkoistaminen tekoälylle ei ole enää scifiä. Maailmalta löytyy hurjiakin esimerkkejä tekoälyn kehittämisestä, mutta sen hyödyntäminen on myös arkipäivää monessa suomalaisessa yrityksessä ja organisaatiossa. Tutkijat haluavat auttaa yrityksiä, jotta ne pystyvät teettämään tekoälyllä päätöksiä vastuullisesti.

Tekoäly tulee vastaan kaikkialla. Suoratoistopalvelut, verkkokaupat, sosiaalinen media ja hakukoneet tarjoavat meille räätälöityjä sisältöjä. Monissa yrityksissä tekoälyjärjestelmät hoitavat työhakemusten tai sopimusasiakirjojen läpikäynnin. Tekoäly voi olla myös lääkärin tukena sairauden tunnistamisessa tai insinöörin apuna asuinalueiden suunnittelussa.

Tekoälyyn perustuva päätöksenteko kiinnostaa Turun yliopiston koordinoiman Artificial Intelligence Governance and Auditing (AIGA) -hankkeen tutkijoita, joiden tavoitteena on luoda yrityksille keinoja hyödyntää tekoälyä vastuullisesti.

– Yrityksissä on trendinä, että mennään kohti automatisoidumpaa päätöksentekoa. Suomessa erilaisia algoritmeja hyödynnetään esimerkiksi pankki- ja vakuutusalalla sekä rekrytoinnissa. Tällä hetkellä algoritmit tyypillisesti hoitavat pohjatyötä ja voivat antaa suosituksen, mutta ihminen tekee lopullisen päätöksen. Onkin mielenkiintoinen kysymys, kuinka usein ihmisen tekemä päätös poikkeaa algoritmin suosituksesta, toteaa AIGA-hankkeen vastuullinen johtaja, apulaisprofessori Matti Mäntymäki Turun kauppakorkeakoulusta.

Matti Minkkinen, Mika Viljanen ja Matti Mäntymäki puolilähikuvassa, kuvaan lisätty virtuaalisia elementtejä.

Matti Minkkisen (vas.), Mika Viljasen ja Matti Mäntymäen mukaan tekoäly tulee todennäköisesti muuttamaan elämäämme lähivuosikymmeninä hieman samaan tapaan kuin internet 30 vuotta sitten.

Euroopassa yleinen tietosuoja-asetus eli GDPR rajoittaa tekoälyn itsenäisesti tekemiä päätöksiä silloin, kun päätökset vaikuttavat yksilöiden oikeuksiin. Lisäksi EU on laatinut tekoälyteknologioiden yleissääntelyä koskevan ehdotuksen, joka kulkee nimellä tekoälysäädös. Tavoitteena kuitenkin on, että yrityksissä voitaisiin tulevaisuudessa hyödyntää nykyistä itsenäisemmin päätöksiä tekeviä tekoälyjärjestelmiä.

Euroopan ulkopuolelta löytyy karmiviakin esimerkkejä siitä, mitä tapahtuu, jos tekoälyn hyödyntämistä ei säännellä. Kiinassa kansalaisia valvotaan muun muassa Cloud Police -nimisellä tarkkailujärjestelmällä, joka seuraa rikosrekisterejä ja valvontakameroiden dataa, mutta myös ostettuja matkalippuja, lääkereseptejä ja hotelliyöpymisiä. Näiden tietojen perusteella järjestelmä luo ihmisestä tarkan profiilin.

”Euroopassa tekoälyn kehitys ja hyödyntäminen nojaa eurooppalaisiin perusarvoihin, kuten yksityisyyden kunnioittamiseen.”

– Matti Mäntymäki

– Euroopassa tilanne on hyvin erilainen kuin esimerkiksi Amerikassa tai Kiinassa. Yhdysvalloissa suurten teknologiayritysten intresseillä on merkittävä rooli, kun taas Kiinassa tekoälyä on kehitetty valtiojohtoisesti yksityisyydestä piittaamatta. Euroopassa tekoälyn kehitys ja hyödyntäminen nojaa eurooppalaisiin perusarvoihin, kuten yksityisyyden kunnioittamiseen sekä lainsäädäntöön niin EU:n tasolla kuin kansallisestikin. Euroopassa sosiaalinen vastuullisuus on keskeinen ulottuvuus teknologioiden, kuten tekoälyn, kehittämisessä ja hyödyntämisessä, Mäntymäki huomauttaa.

Yksi paljon huomiota saanut esimerkki tekoälyn hyödyntämisestä Suomessa on Espoon kaupungin ja ohjelmistotalo Tiedon vuonna 2017 tekemä kokeilu, jossa selvitettiin, voiko tekoälyä hyödyntää perhe- ja sosiaalipalvelujen kohdentamiseen ennaltaehkäisevästi. Tekoäly löysi lähes 300 riskitekijää, jotka ennakoivat lastensuojelun asiakkuutta, jos useampi tekijä osui saman lapsen kohdalle. Kokeilun ansiosta työntekijät havaitsivat, että kevyet lastensuojelun palvelut eivät tavoittaneet vieraskielisiä asukkaita, joten näitä palveluita kehitettiin. Tämän jälkeen vieraskielisten lasten osuus vastaanottokodeissa putosi 45 prosentista 24:ään.

– Eurooppalainen tulevaisuuskuva nojaa ajatukseen, että tekoälyllä pyritään tekemään hyvää yhteiskunnassa ja ihmisten arkielämässä. Näkisin, että tekoäly voisi tulevaisuudessa esimerkiksi antaa ihmisille suosituksia erilaisissa elämäntilanteissa. Jos olet vaikkapa muuttanut uudelle paikkakunnalle, niin tämä voisi rekisteröityä muutokseksi, jolloin tekoäly suosittelisi sinulle kiinnostavia harrastuksia, visioi erikoistutkija Matti Minkkinen Turun kauppakorkeakoulusta.

Matti Mäntymäki puolilähikuvassa puhumassa.

Matti Mäntymäen mukaan suomalaiset yritykset haluavat hoitaa tekoälyn päätöksentekoon liittyvät asiat sosiaalisesti vastuullisesti, ja tutkijat tarjoavat tähän apua.

Ymmärrettävyys asettaa tekoälylle rajoituksia

Tulevaisuuden teknologiat ja digitaalinen maailma on yksi Turun yliopiston strategian kuudesta temaattisesta kokonaisuudesta, joissa tehdään tutkimusta ja koulutusta yli tieteenalarajojen. Monitieteisen AIGA-hankkeen tutkijoiden tavoitteena on auttaa yrityksiä ja organisaatioita, jotta niiden käyttämän tekoälyn tuottamat päätökset olisivat luotettavia, läpinäkyviä ja ymmärrettäviä. Vastuullisuuden toteutuminen on erityisen tärkeää silloin, kun tekoälyä hyödynnetään niin sanotun korkean riskin alueilla, kuten liikenteessä, terveydenhoidossa ja finanssisektorilla.

– Suomalaisissa yrityksissä on yleisesti ottaen vahva tahto hoitaa asiat sosiaalisesti vastuullisesti, ja me tarjoamme jotain kättä pidempää, jotta nämä hyvät aikeet ja eettiset periaatteet menevät käytäntöön. Tällaiselle työlle on organisaatioissa kova kysyntä ja me vastaamme tähän tarpeeseen, Mäntymäki kertoo.

”Jos yrityksen tekoälyjärjestelmä osoittautuu syrjiväksi, yritykselle voi tulla merkittäviä ongelmia.”

– Mika Viljanen

Tutkijat ovat kehittäneet yhdessä yhteistyökumppaneidensa kanssa ohjeistuksia siitä, miten tekoälyjärjestelmien toimintaa kannattaisi valvoa. He ovat luoneet myös kuvauksen käytännön toimenpiteistä, joita yritysten tulisi noudattaa, kun ne kehittävät tekoälyjärjestelmiään. Näitä työkaluja tutkijat ovat testanneet muun muassa OP-ryhmän ja Verohallinnon kanssa.

– Jos yrityksen tekoälyjärjestelmä osoittautuu vaikkapa syrjiväksi, yritykselle voi tulla merkittäviä ongelmia. Media saattaa nostaa asian esiin ja asiakkaat voivat äänestää jaloillaan. Yritysten kannattaa olla kiinnostuneita siitä, miten heidän järjestelmänsä toimivat, toteaa oikeustieteen apulaisprofessori Mika Viljanen.

Tekoälyjärjestelmien hyödyntäminen on yrityksille ja organisaatioille houkuttelevaa, koska niiden avulla voidaan parantaa joidenkin prosessien laatua ja vähentää ihmistyövoiman tarvetta. Terveydenhuolto on yksi osa-alue, jossa tekoälyjärjestelmien käytöllä on paljon mahdollisuuksia.

Turun yliopiston biolääketieteen laitoksen tutkijat ovat olleet mukana laajassa kansainvälisessä tutkimuksessa, jonka hiljattain julkaistut tulokset osoittivat tekoälyn diagnosoivan eturauhassyöpiä tarkasti. Tekoälyn ei ole tarkoitus korvata lääkäriä päätöksenteossa, vaan toimia varmistavana apuvälineenä, jotta syöpätapauksia ei jäisi havaitsematta ja jotta diagnostinen määritys yhdenmukaistuisi. Sama tutkimusryhmä on aiemmissa tutkimuksissa osoittanut, että tekoälyjärjestelmät kykenevät tunnistamaan kudosnäytteissä olevan syövän, arvioimaan biopsialeikkeellä olevan syöpäkudoksen määrän ja gradeeraamaan eturauhassyövän haitallisuusasteen kansainvälisen asiantuntijapaneelin tarkkuudella.

Mika Viljanen katselee kättään ikkunan edessä, taustalla kuvaan lisättyjä virtuaalisia elementtejä.

Mika Viljasen mukaan tekoälyltä ei välttämättä voi edellyttää täydellistä ymmärrettävyyttä. 

Kun tekoälyä hyödynnetään terveydenhuollossa, on tärkeää, että niin lääkäri kuin potilaskin ymmärtäisivät, miksi tekoäly tulkitsee potilaan kärsivän tietystä sairaudesta.

– Tekoäly ei välttämättä toimi lainkaan niin kuin ihmismieli, ja siksi sen toimintaa on joskus vaikea ymmärtää, Minkkinen huomauttaa.

– Onkin alkanut kuulua myös sellaisia äänenpainoja, että hukkaamme teknologioiden hyvät ominaisuudet, jos edellytämme niiltä ymmärrettävyyttä. Jos ihmiselle ymmärrettävä järjestelmä tunnistaa esimerkiksi 90 prosenttia tautitapauksista, mutta käsittämätön järjestelmä 98 prosenttia, uhraammeko toimintakyvyn ymmärrettävyyden nimissä, Viljanen kysyy.

Hänen mukaansa tekoälyltä ei välttämättä voikaan edellyttää täydellistä ymmärrettävyyttä, mutta luotettavuuden kannalta on tärkeää, että järjestelmän toimintaperiaatteet ymmärretään edes jollain tasolla. Muuten järjestelmässä saattaa olla vinouma, jota ei huomata. Surkuhupaisa esimerkki tästä on Yhdysvalloissa työnhakijoiden ansioluetteloiden läpikäyntiin kehitetty tekoälytyökalu, joka tulkitsi, että pätevimmät hakijat olivat Jared-nimisiä ja pelasivat haavipalloa.

– Asiantuntijalle voi riittää, että hän saa jossain määrin kiinni tekoälyn perusteluista, vaikka ei tiedä tarkalleen, mitä ne ovat. Toisaalta potilaalle tai työnhakijalle voi olla tärkeää saada pitävät perustelut sairaudesta tai siitä, ettei tullut valituksi työhön. Täytyykö asia perustella heille? Tämä on eettinen ja joissain tapauksissa myös oikeudellinen kysymys. Tästä syystä yrityksissä ei välttämättä haluta tehdä päätöksiä, jotka eivät ole selitettävissä, mikä asettaa rajoituksia sille, mistä tekoäly voi päättää, Viljanen sanoo.

Tavoitteena vastuullisen tekoälyn ekosysteemi

Syrjimättömyys on yksi eettisesti toimivan tekoälyn keskeinen periaate. Haasteena on jälleen tekoälyn ymmärtäminen: jos emme ymmärrä, miten tekoäly tekee päätöksiä, voimme huomaamattamme luoda järjestelmän, joka tekee päätöksiä syrjivillä perusteilla.

Suomessa eräs luottoyhtiö sai yhdenvertaisuus- ja tasa-arvolautakunnalta vuonna 2018 kiellon käyttää tekoälyyn pohjautuvaa menetelmää, joka syrji hakijoita muun muassa äidinkielen ja sukupuolen vuoksi. Valituksen lautakunnalle teki mies, joka oli vuonna 2015 hakenut luottoa, mutta sitä ei ollut hänelle myönnetty. Suomea puhuvalle mieshakijalle olisi myönnetty luotto, jos hän olisi ollut nainen tai puhunut äidinkielenään ruotsia.

– Myös tieto lisää syrjinnän riskiä. Yksilöiden terveydestä ja esimerkiksi geneettisistä alttiuksista erilaisille sairauksille kerätään jatkuvasti enemmän dataa ja samalla saadaan parempi käsitys riskeistä. Tarkastelussa voidaan jatkuvasti mennä kohti yksilöllisempää käsitystä ihmisen tilanteesta. Tavallaan tiedetään liikaa, jotta voitaisiin olla syrjimättä, Viljanen toteaa.

”Haemme vastausta siihen, miten vastuullinen tekoäly voidaan sisällyttää yritysten bisnesmalleihin.”

– Matti Minkkinen

Yksi vastuullisuutta nakertava riskitekijä on mittakaava, sillä tekoäly voi tehdä valtavan määrän päätöksiä hyvin nopeasti.

– Tekoälyjärjestelmät on luotu skaalautuviksi, eli niiden ei tarvitse pähkäillä jokaista päätöstä erikseen. Järjestelmä voi käsitellä vaikkapa miljoona päätöstä yhtä nopeasti kuin se käsittelisi yhden. Kun ihmiset tekevät päätöksiä, mittakaava on huomattavasti pienempi, joten systeemiriskitkin ovat pienemmät, Mäntymäki sanoo.

Tutkijat ovat hahmotelleet yhdessä yrityskumppaneidensa kanssa yritysten bisnesmallien ja vastuullisen tekoälyn yhdistämistä. Tekoälyn käyttöönotto ja vastuullisuuden huomioiminen on yrityksille paitsi haaste myös mahdollisuus uusiin avauksiin ja kansainväliseen kasvuun.

– Tekoälyn vastuulliseen käyttöön liittyy muitakin arvoja, kuin se, ettei rikota lakia. Tällaisia arvoja ja vastuullisen tekoälyn arvolupauksia olemme etsineet yritysten kanssa. Reiluutta ja ymmärrettävyyttä ei pitäisi nähdä vastakohtana voiton tekemiselle. Haemme vastausta siihen, miten vastuullinen tekoäly voidaan sisällyttää yritysten bisnesmalleihin, Minkkinen kertoo.

Matti Minkkinen puhuu puhelimeen puolilähikuvassa, kuvaan lisätty virtuaalisia elementtejä.

Matti Minkkisen mukaan tutkijoiden tavoitteena on, että yhteiskuntaamme muodostuisi vastuullisen tekoälyn yritys- ja innovaatioekosysteemi.

Tutkijat laativat parhaillaan tiekarttaa vastuullisen tekoälyn ekosysteemin edistämiseksi. Tavoitteena on, että noin viiden vuoden päästä yhteiskunnassamme olisi vastuullisen tekoälyn ympärille muodostunut yritys- ja innovaatioekosysteemi, jossa olisi tilaa erilaisille kaupallisille toimijoille. Tässä ekosysteemissä esimerkiksi konsulttiyritykset voisivat tehdä auditointia ja varmistaa, että yritykset hyödyntävät tekoälyä vastuullisesti.

– Kaiken kaikkiaan vastuullisuuden merkitys kasvaa tässä ajassa, muun muassa ESG-sijoittamisen näkökulmasta. Monet institutionaaliset sijoittajat ovat kiinnostuneita siitä, millaiset olosuhteet yritysten työntekijöillä on ja miten ympäristöasiat on hoidettu. Voisi olettaa, että kun ymmärrys tekoälystä lisääntyy, sijoittajat ja kuluttajat kiinnostuvat siitä, miten yritys esimerkiksi varmistaa asiakkaiden tietojen säilymisen tai syrjimättömyyden rekrytoinnissaan, Mäntymäki toteaa.

AIGA-hankkeen yhteistyökumppanit ovat DAIN Studios, Helsingin yliopisto, Loihde Advisory, OP-ryhmä, Siili Solutions, Solita, Verohallinto ja Zefort.

Ota tekoäly haltuun Tekoälyakatemian avoimilla kursseilla

Turun yliopiston Tekoälyakatemia tarjoaa monitieteistä tekoälyyn liittyvää koulutusta ja tutkimusta. Yliopisto-opiskelijoiden lisäksi kenellä tahansa on mahdollisuus suorittaa Tekoälyakatemian opintoja avoimessa yliopistossa.

Itsenäisesti suoritettava opintojakso AI & Cybersecurity MOOC on tarjolla ympäri vuoden. Kurssi antaa kokonaiskuvan tieto- ja kyberturvallisuuden sekä tietosuojan aiheuttamista haasteista ja niiden vaikutuksesta erilaisten tekoälysovellusten toimintaan ja käyttöön.

Syksyllä 2022 tekoälyyn voi perehtyä syvemmin suorittamalla useista opintojaksoista koostuvan tekoälyn monitieteisen opintokokonaisuuden. Opintojaksoilla tarkastellaan, mitä tekoäly on, millaisia tekoälysovelluksia on olemassa ja miten tekoäly vaikuttaa yhteiskunnan eri osa-alueisiin. Opintokokonaisuuden tavoitteena on antaa opiskelijoille valmiuksia ymmärtää tekoälyn merkitystä työelämässä erilaisissa asiantuntijatehtävissä.

–  Tekoäly koskettaa jo nyt monilla aloilla työskenteleviä ihmisiä ja tulevaisuudessa sen merkitys tulee vain kasvamaan. Opintokokonaisuutemme kautta haluamme vastata työelämän tarpeisiin ja tarjota kaikkien alojen opiskelijoille valmiudet ymmärtää tekoälyä, sanoo Tekoälyakatemian opintokoordinaattori Heta Tossavainen.

> Katso ajankohtainen opintotarjonta: tekoälyakatemia & avoin yliopisto

> Katso Turun yliopiston Tiedelinja-lähetys, jossa tutkijat keskustelevat vastuullisesta tekoälystä

Teksti: Jenni Valta
Kuvat: Hanna Oksanen

Artikkeli on julkaistu Aurora-lehdessä 1/2022.

Luotu 11.04.2022 | Muokattu 05.06.2022