Tekoälyn haasteet ja mahdollisuudet: juridiikan ja riskienhallinnan kysymyksiä

Tekoäly avaa monia mahdollisuuksia, vaikka sen käyttöön liittyy myös riskejä niin yksilö-, organisaatio- kuin yhteiskunnan tasolla. Valmisteilla olevan tekoälyasetuksen tavoitteena on varmistaa tekoälyjärjestelmien turvallisuus.

Tekoäly avaa monia mahdollisuuksia, vaikka sen käyttöön liittyy myös riskejä niin yksilö-, organisaatio- kuin yhteiskunnan tasolla. Valmisteilla olevan tekoälyasetuksen tavoitteena on varmistaa tekoälyjärjestelmien turvallisuus.

Tekoälyä hyödynnetään jo laajasti eri tarkoituksissa. Esimerkiksi terveydenhuollossa sitä käytetään sairauksien varhaiseen tunnistamiseen. Tekoälyä hyödynnetään myös mm. tekstien ja esitysten tuottamisessa, tiivistämisessä ja kieliasun tarkistamisessa, sopimusten läpikäynnissä, kuvien ja musiikin tuottamisessa, markkinoinnin kohdentamisessa, ohjelmoinnissa sekä erilaisessa viihteellisessä käyttötarkoituksissa. 

Tekoäly nähdään mahdollisuutena tehostaa ja nopeuttaa työn tekemistä sekä parantaa laatua. Samalla tunnistetaan, että sen kehittämiseen ja käyttämiseen liittyy riskejä, kun sovellukset tulevat kaikkien, myös rikollisten tai muuten epäeettisesti toimivien toimijoiden ulottuville ja helposti käytettäviksi.  

 

Tekoälyavusteisen teknologian riskit 

Yksilöille tekoäly luo uudenlaisen riskiympäristön henkilötietojen suojan osalta. Tietojenkäsittely voi esimerkiksi olla läpinäkymätöntä, jolloin henkilö ei tiedä, millä tavalla tekoälyyn pohjautuva järjestelmä toimii ja millä tavalla häntä koskeva automaattinen päätös tehdään. Tekoälyn kehittäminen ja käyttö voi rikkoa tietosuoja-asetuksen mukaista kerättävien tietojen määrää koskevaa minimointiperiaatetta, sillä tekoälysovellusten opettaminen/kehittäminen ja toimivuus edellyttävät suurta tietojen määrää.  Tekoälysovelluksen suunnittelussa tai opettamiseen käytetyssä tiedossa saattaa myös esiintyä tarkoituksellisia tai tahattomia vääristymiä, mikä voi johtaa päätöksiin, joihin vaikuttavat etninen tausta, sukupuoli jne.  Tekoälyn avulla myös huijaus- ja kalasteluviesteistä on onnistuttu tekemään varsin aidon näköisiä, ja siksi niiden asettamiin ansoihin astutaan entistä helpommin. 

Organisaatiolle ja yhteiskunnalle aiheutuvista uhista ja riskeistä voidaan mainita esimerkiksi yleisen epäluottamuksen kasvu sekä virheettömän ja luotettavan tiedon saannin vaikeutuminen. Riskinä voi olla myös luottamuksellisen tiedon vuotaminen ulkopuolisille, jos esimerkiksi henkilötietoja tai liikesalaisuuksia sisältävää aineistoa syötetään tekoälyjärjestelmään työn tehostamisen tarkoituksessa. 

PwC:n tuoreen Global Digital Trust Insights 2024 -tutkimuksen mukaan yritysjohtajat arvioivat organisaatioiden suurimpien riskien liittyvän teknologiaan ja digitalisaatioon. Tutkimukseen osallistui 3 800 liiketoiminta- ja teknologiajohtajaa 71 eri maasta. Tutkimuksessa todettiin, että suuri osa johtajista ei ymmärrä kaikkia riskejä, joita uuteen teknologiaan liittyy. Yli puolet tutkimukseen vastanneista arvioi tekoälyn johtavan entistä merkittävimpiin kyberhyökkäyksiin seuraavan vuoden aikana.  

Organisaatioiden tulisi olla ketteriä ja sopeuduttava jatkuvasti muuttuvaan tilanteeseen. Avainasemassa on erityisesti riskien tunnistaminen ja niihin reagointi.

 

Tekoälyyn soveltuva lainsäädäntö 

Nimenomaisesti tekoälyä koskevaa lainsäädäntöä ei vielä ole, mutta EU:n yleisen tietosuoja-asetuksen määräykset koskevat myös tekoälyä. Erityisesti asetuksen minimointi periaate kerättävien tietojen osalta, käsittelyn läpinäkyvyysvaatimus sekä rekisteröidyn oikeus olla joutumatta automaattinen päätöksenteon kohteeksi korostuvat tekoälyn käyttämisen yhteydessä.

Tietosuoja-asetuksen lisäksi tekoälyn käyttöön soveltuu tällä hetkellä muun muassa digipalvelulaki (joka mahdollistaa viranomaisen antaman neuvonnan hallinnon asiakkaalle palveluautomaatilla, edellyttäen että viranomainen on varmistanut neuvonnan tietosisällön asianmukaisuuden) ja yhdenvertaisuuslaki (joka edellyttää yhdenvertaisuuden edistämistä ja syrjinnän estämistä myös tilanteissa, joissa käytetään algoritmeja).  Lisäksi tekoälyn käyttöön soveltuu muu asiankuuluva lainsäädäntö, samoin kuin hyvä hallintotapa ja virkamiesetiikka.

 

Tekoälyä koskeva valmisteilla oleva lainsäädäntö 

Tekoälyä koskeva oma sääntelyä on ollut valmisteilla jo kauan. Tavoitteena on ollut, että tekoälyasetus saataisiin voimaan viimeistään vuoden 2024 alkupuolella. Valmistelun vaikeuksien vuoksi vaikutti jo siltä, että tähän tavoitteeseen ei päästä. Suomen juhliessa itsenäisyyttään 6.12.2023 EU:n parlamentti ja neuvosto neuvottelivat pitkään asetuksen yksityiskohdista. Itsenäisyyspäiväämme seuraavien päivien aikana jatkettujen neuvottelujen lopputuloksena parlamentti ja neuvosto pääsivät alustavaan sopimuksen asetuksen lopullisesta muotoilusta. Mikäli parlamentti ja neuvosto hyväksyvät asetuksen, se voi tulla voimaan vuoden 2024 alkupuolella.  

Tekoälyasetuksen tarkoituksena on varmistaa, että EU:ssa käytettävät tekoälyjärjestelmät ovat turvallisia ja että tekoälyn käyttö on turvallista kaikille yrityksille ja ihmisille EU/ETA-alueella.  EU:ssa tekoälyyn liittyvät riskit nähdään liittyvän ennen kaikkea siihen, miten tekoälyä käytetään. Tästä syystä asetuksella pyritään erityisesti kertomaan tekoälysovellusten opettamiseen käytettävästä materiaalista ja varmistamaan EU:n tekijänoikeuslainsäädännön noudattaminen.

 

Tekoälyyn liittyvä riskienhallinta

Vaikka tekoälyyn liittyy riskejä ja uhkakuvia, se kuitenkin luo paljon mahdollisuuksia hyvälle kehitykselle. Uuden teknologian hyödyntämättä jättäminen ei siis käytännössä ole vaihtoehto toimijoille, jotka haluavat pysyä kehityksen vauhdissa mukana. Riskienhallinta ja turvallisuus tulisi kuitenkin rakentaa osaksi organisaation perustoimintaa jo ennakoivasti, eikä vasta sitten, kun kriisi jo iskee.

Käytännössä riskiä voidaan hallita tekoälyn hallintamallin avulla. Mallin avulla pyritään tunnistamaan riskit ja minimoimaan ne. Hyvässä hallintamallissa määritellään selkeästi roolit ja vastuut, tietoturva ja -suoja, kumppanien hallinta, henkilöstön osaaminen sekä sisäinen valvonta. Toimiva hallintamalli vaatii johdon sitoutumista sekä resursseja eri osaamisen alueilta, samoin kuin saumatonta yhteistyötä näiden eri toimintojen välillä. Mikäli yrityksen tietosuojakäytännöt ovat hyvällä mallilla, näitä elementtejä voidaan soveltaa myös tekoälyn hallintamalliin. 

Tekoäly tuo mahdollisuuksia, vaikka sen käyttöön liittyy myös riskejä. On tärkeää tunnistaa riskit ja hallita niitä älykkäästi. Riskejä ei kuitenkaan pidä liioitella, jotta tekoälyn kehittämisen ja hyödyntämisen edellyttämää luovuutta ei tukahduteta. 

Seija Vartiainen

Lakipalvelut

+358 (0)20 787 7483

seija.vartiainen@pwc.com

Sanna Oinonen

Riskienhallintapalvelut

+358 (0)20 787 8894

sanna.oinonen@pwc.com