Tekoälyn ongelmiin on puututtava nyt eikä vasta sitten, kun on myöhäistä

25.10.2023

Tekoälyn käyttö lisääntyy nopeasti niin yrityksissä, julkishallinnossa kuin arkielämässä. Tekoälyn kehittäjät ovat verraten yksimielisiä siitä, että alaa on säänneltävä. Syynä ovat teknologian isot yhteiskunnalliset vaikutukset sekä tahattomat riskit ja järjestelmäriskit, kuten vähemmistöjen syrjintä, kirjoittavat Matti Minkkinen ja Matti Mäntymäki Turun yliopistosta. Artikkeli on julkaistu alunperin MustRead Akatemiassa.

Artikkelin kirjoittajat Matti Minkkinen ja  Matti Mäntymäki

Teknologian kehittyessä tekoäly kykenee asioihin, joiden ei aiemmin uskottu olevan mahdollisia koneille, sanovat Matti Minkkinen ja Matti Mäntymäki.

Kiinnostus tekoälyyn on kasvanut viime vuosina, koska algoritmit ovat kehittyneet, grafiikkaprosessorien hinta on tullut alas ja käyttöön on tullut suuria tietokantoja. Viimeisin askel on niin sanottujen generatiivisen tekoälyn chatbottien synty. Näistä ehkä ChatGPT on saanut eniten julkisuutta.

Tekoälyn eli AI:n (artificial intelligence) sovellusalueita on lukuisia, esimerkiksi teollisuus, terveydenhuolto, liikenne ja rahoitus. Kun musiikkisovellus tarjoaa uutta kuunneltavaa, some suosittelee sisältöä tai suoratoistopalvelu katsottavaa, taustalla puksuttaa tekoäly.

Tekoäly on teknologia, jolla on kyky tulkita tietoja, oppia ja mukautua tiettyjen tavoitteiden saavuttamiseksi. Toisaalta se voidaan nähdä myös abstraktina teknologisen kehityksen tavoitteena. Alan tutkimuksen taustalla on yleisesti pyrkimys kehittää koneita, joilla on joitakin ihmisen kaltaisia kykyjä.

David Chalmers julkaisi 1990-luvulla vaikutusvaltaisen artikkelin ”Facing Up to the Problem of Consciousness” (Tietoisuuden ongelman kohtaaminen), jossa popularisoitiin erottelua tietoisuuden ”helppojen” ja ”vaikeiden” ongelmien välillä.

”Helppo ongelma” koskee ihmisen tai koneen kykyä reagoida informaation perusteella. Tämä voidaan selittää tieteellisesti ja hahmottaa jo arkijärjellä. ”Vaikea ongelma” on monimutkaisempi: se koskee tietoisuuden subjektiivista kokemusta, jonka kanssa tiede kamppailee jatkuvasti. Mitä tietoisuus on ja miten se toimii?

Ehdotamme, että tekoälyn hallinnan helppo ja vaikea ongelma on syytä erottaa tekoälykeskustelussa toisistaan. Hallinnalla tarkoitamme sitä, että ihmisinä pyrimme hallitsemaan tekoälyn toimintaa.

Toinen tapa olisi tarkastella tekoälyä työkaluna, jota käytetään hallinnan apuna. Tämän näkökulman jätämme kuitenkin tässä artikkelissa vähemmälle.

Jako helppoon ja vaikeaan ongelma-alueeseen on yksinkertaistus, jonka tarkoituksena on edistää keskustelua, organisaatioiden strategiatyötä sekä kansallista ja valtioiden välistä politiikan suunnittelua.

Tekoälyä voi olla kahdenlaista, kapeaa ja yleistä. Nykyinen tekoäly on kapeaa sorttia, yleinen on vasta kuvitelmien tasolla. Helpot ja vaikeat ongelmat koskevat jo nykyistä eli kapeaa tekoälyä. Kun tai jos yleinen, kaiken kattava tekoäly joskus kehitetään, se tuo varmasti mukanaan omat ja uudenlaiset haasteensa ja ongelmansa.

”Helppo ongelma” koskettaa organisaatioita

Kasvava tieteellisen kirjallisuuden mielenkiinto kohdistuu haasteisiin, joita organisaatioilla on tekoälyjärjestelmien hallinnassa. Helppo ongelma käsittelee sitä, miten organisaatioiden tekoälyjärjestelmien käyttö on linjassa yhteiskunnan lakien, arvojen ja normien kanssa.

Tämä ongelma-alue kattaa esimerkiksi mekanismit, joilla hallitaan dataa, algoritmeja ja algoritmisia järjestelmiä. Siihen kuuluvat myös tekniset menetelmät, joilla sosiaalisesti vastuullinen tekoälyn kehitys pyritään varmistamaan.

Lisäksi tekoälyn hallinta liittyy yritysten yhteiskuntavastuuseen ja liike-elämän eettisiin kysymyksiin. Esimerkkinä voidaan mainita rekrytointialgoritmit, joiden tulee kohdella työnhakijoita tasavertaisesti.

Tekoälyn hallinnan helppo ongelma liittyy siis yksittäisen organisaation käyttämiin tekoälyjärjestelmiin. Se on mahdollista ratkaista ainakin tilapäisesti: tekoälyjärjestelmä voidaan saada toimimaan lain ja sille mahdollisesti määriteltyjen eettisten periaatteiden mukaisesti. Tämä voidaan varmistaa esimerkiksi auditointien avulla.

”Vaikea ongelma” on yhteiskunnan laajuinen

Sen sijaan tekoälyn hallinnan vaikea ongelma koskee tekoälyä yleiskäyttöisenä teknologiana, joka muuttaa organisaatioita, yhteiskuntia ja yksilöiden arkea. Tämä muutosvoima saattaa olla samaa luokkaa kuin 1700-luvun lopulla alkanut teollinen vallankumous.

Pienemmässä mittakaavassa 1900-luvun mekaanista kirjoituskonetta voidaan verrata nykyaikaisiin taskussa kulkeviin supertietokoneisiin eli kännyköihin.

On joka tapauksessa selvää, että tekoäly on kehittyvä teknologia, jonka yhteiskunnalliset vaikutukset ulottuvat yksittäisiä organisaatioita ja aloja laajemmalle.

Yhteiskunnallisella tasolla tekoälyn laajamittainen käyttö herättää kysymyksiä esimerkiksi:

* demokratian tulevaisuudesta (julkisen keskustelun manipulointi ja sitä kautta vaikuttaminen vaalitulokseen)

* työn tulevaisuudesta (automaatio lisääntyy erityisesti asiantuntijatyössä)

* sodankäynnistä (autonomiset tappavat robotit).

Eräänä tärkeimmistä vaikutuksista on nostettu misinformaation lisääntyminen, kun tekoälyn luomat ”deepfake”-väärennöskuvat ja -videot voivat vakavasti uhata kansalaisten luottamusta mediaan.

Kuka vastaa tekoälyn laajemmista vaikutuksista?

Siinä missä helppo ongelma on organisaatioiden vastuulla, vastuu vaikeasta ongelmasta on vaikeampi kysymys. Kun tekoälyn yhteiskunnalliset haitat syntyvät verkostomaisesti lukemattomista pienistä haitoista ilman suurta suunnitelmaa, kuka vastaa kokonaisuudesta?

Tällä hetkellä yhdysvaltalaisilla teknologiajäteillä kuten Microsoftilla, Metalla ja Alphabetilla (Googlella) on merkittävä valta vaikuttaa yhteiskunnan tason tekoälyn hallintaan esimerkiksi alustojensa ja ohjelmistojensa ominaisuuksien kautta. Nekään eivät kuitenkaan voi yksin määrittää tekoälyn suuria kysymyksiä.

Tekoälyn hallinnan vaikean ongelman rajojen määrittäminen on haastavaa. Onko kyseessä yksi monimutkainen ongelmakenttä, joka voidaan ratkaista kattavalla lainsäädännöllä, kuten Euroopan Unionin ehdottamalla tekoälyasetuksella? Vai onko ”vaikea ongelma” itse asiassa ongelmakimppu, jota voidaan ratkoa vain pala kerrallaan?

On myös vaikeaa määrittää kriteerejä sille, milloin vaikea ongelma olisi tyydyttävästi ratkaistu, varsinkin kun tekoälyteknologiat ja niiden vaikutukset kehittyvät jatkuvasti. Ehkäpä tekoälyn hallinnan vaikeaa ongelmaa ei tulisikaan nähdä ratkaistavana pulmana, vaan jatkuvana keskustelu- ja harkintaprosessina, jossa yritetään ymmärtää käynnissä olevia yhteiskunnallis-teknisiä muutoksia.

Miten helppo ja vaikea ongelma eroavat toisistaan?

Näiden kahden ongelman aikahorisontit ovat erilaiset. Organisaatioiden tekoälyn hallinta keskittyy nykyhetkeen ja lähitulevaisuuteen – siihen, miten lainmukaisuus ja sidosryhmien tyytyväisyys varmistetaan nykyhetkessä prosessien ja teknisten työkalujen avulla.

Vaikea ongelma puolestaan vaatii pidemmän tähtäimen tarkastelua. Tarvitaan pohdintaa siitä, miltä laki ja eettiset kysymykset näyttävät tulevaisuudessa, miten lakia pitäisi muuttaa ja millaisia uusia instituutioita tarvitaan.

Pidemmällä tähtäimellä myös se, mitä ymmärrämme ”tekoälynä” tulee muuttumaan. Teknologian kehittyessä tekoäly kykenee asioihin, joiden ei aiemmin uskottu olevan mahdollisia koneille.

Toimijakenttä näyttää myös kovin erilaiselta, kun verrataan helppoa ja vaikeaa ongelmaa. Helpon ongelman ratkaisijoita ovat johtajat, kehittäjätiimit ja valvovat tahot, jotka vastaavat tekoälyn hallinnan käytännön toteutuksesta. Näitä ovat valvontaviranomaiset ja tekoälykehittäjien ammatilliset yhdistykset.

Vaikea ongelma sen sijaan vaatii yhteistyötä laajan toimijajoukon kesken. Näihin toimijoihin kuuluvat esimerkiksi valtiot ja kansainväliset elimet, kuten Euroopan unioni. Siihen voi liittyä myös esimerkiksi standardisointiorganisaatioita ja tutkimuslaitoksia.

EU onkin profiloitunut ekosysteemien luomisessa vastuullisen tekoälyn edistämiseksi. Ekosysteemit ovat vielä syntyvaiheessa, mutta jatkossa ne voivat olla ratkaisevia tekijöitä maailmanlaajuisessa tekoälyn hallinnassa: vaikean ongelman ratkaiseminen vaatii globaalia sääntelyä ja koordinointia.

Tekoälyn hallinnan helpon ja vaikean ongelman taustalla piilevät myös erilaiset eettiset lähestymistavat. Helpon ongelman ratkominen perustuu pitkälti velvollisuusetiikkaan eli vaatimukseen periaatteiden ja sääntöjen noudattamisesta. Hyvä esimerkki ovat tekoälyn etiikan usein mainitut periaatteet reiluus, tilivelvollisuus ja läpinäkyvyys.

Vaikea ongelma taas liittyy läheisemmin uusien teknologioiden etiikkaan ja seurauseettiseen pohdintaan.

Molemmat ongelmat kytkeytyvät vastuulliseen tutkimus- ja innovaatiotoimintaan, joka pyrkii teknologisen kehityksen ohjaamiseen kohti yhteiskunnallisesti hyväksyttyjä päämääriä.

Tekoälyn hallintaongelmia pitää purkaa tulevina vuosina

”Vaikeat ongelmat” ovat suuren mittakaavan haasteita, kuten automaation mukanaan tuoma työttömyyden uhka. Niitä ei ehkä milloinkaan ratkaista lopullisesti, mutta keskustelua on tärkeä pitää yllä. Tekoälyn vastuullisen kehittämisen ja käytön onkin säilyttävä yhteiskuntaa ohjaavana visiona.

Sen sijaan tekoälyn hallinnan ”helppoa ongelmaa” voi osaltaan ratkoa jokainen organisaatio, joka käyttää näitä edistyneitä analytiikkateknologioita. Jokainen tekninen ja organisaation ratkaisu voi tuottaa pienen suotuisan kierteen, joka lopulta auttaa ratkomaan suurempiakin tekoälyn tuomia ongelmia.

Toisaalta jos tekoälyn akuutteja ongelmia ei ratkota tänään, ne kasvavat ja aiheuttavat tulevaisuudessa suuremman kertaluvun päänvaivaa, kuten demokratian pohjan rapautumista, kun luottamus mediaan heikkenee deepfake-väärennösten myötä.

Tekoälyn riskit ja niiden hallinta ovat monimutkaisia ongelmakenttiä, joiden purkaminen lähivuosina on tärkeää, jotta alan teknologioita voidaan hyödyntää sosiaalisesti vastuullisella ja kestävällä tavalla. Tässä tarvitaan kaikkien tieteen- ja tutkimusalojen yhteistyötä.

 

Kirjoitus on julkaistu MustRead Akatemiassa 25.10.2023

Luotu 25.10.2023 | Muokattu 08.11.2023