Kohti vastuullista tekoälyä

4.6.2018  |  Blogi, Digitalisaatio

Viimeaikaiset tutkimukset ovat kiistattomasti osoittaneet tekoälyn kyvyn tuottaa merkittävää taloudellista hyötyä. Kolikon kääntöpuolella on kuitenkin vielä toistaiseksi ratkaisemattomia kysymyksiä tekoälyn suhteesta meille kaikille tärkeisiin inhimillisiin arvoihin.

Tekoäly tarjoaa liiketoiminnalle valtavan hyötypotentiaalin, mutta altistaa sen yhtä lailla saman mittaluokan liiketoimintariskeille.

Uusien teknologioiden käyttöönottoon liittyviä riskejä pyritään hallitsemaan sekä asettamalla että noudattamalla lakeja ja asetuksia. Ongelmaksi tässä muodostuu se, että innovaatiot ovat lähtökohtaisesti lakeja ja asetuksia ketterämpiä. Ja tekoälypohjaiset innovaatiot ovat erityisen ketteriä, joten on päivänselvää, ettei lainsäädäntöprosessimme yksinkertaisesti pysy näiden innovaatioiden vauhdissa.

Tekoälyn pahikset: asenteelliset algoritmit

Yksi tyypillisistä tekoälypohjaisten ratkaisujen ongelmista on asenteelliset algoritmit (Algorithmic Bias). Käytännössä tämä tarkoittaa tilannetta, jossa tekoälyn opettamisessa käytetty data heijastelee sen taustalla olevien ihmisten asenteellisuutta. Eli tekoäly päätyy tekemään alunperin ihmisten asenteellisuutta heijastaneen datan kautta vinoutuneita päätöksiä. Ja mikä pahinta, tekee sen tehokkaasti ja mittakaavassa. Ja näennäisen faktapohjaisesti.

Alla varsin jokapäiväinen esimerkki luonnollisen kielen käsittelyn (NLP) sovelluksesta, jossa Google Translator on opetettu kääntämään tietyt ammattisanat datalla, joka sisältää asenteellisuutta sukupuolisen jakauman näkökulmasta. Suomenkieliset sukupuolineutraalit pronominit saavatkin yllättäen englanninkielisessä käännöksessään sukupuolimääreen kylkeensä. Ja varsin perinteisen sellaisen.

Esimerkki asenteellisesti tekoälystä

Tämä esimerkki saattaa äkkiseltään vaikuttaa melko harmittomalta. Täytyy kuitenkin ymmärtää, että sama datasta lähtöisin oleva asenteellisuus rakentuu osaksi laajempia teköälypohjaisia ratkaisukokonaisuuksia ja vaikuttaa osaltaan näissä systeemeissä tehtyihin päätöksiin. Näin päädytään vinoutuneisiin vastauksiin esimerkiksi seuraavanlaisten kysymysten suhteen:

  • Kuka on sopivin kandidaatti tiettyyn työtehtävään?
  • Mikä on lainanhakijan luottokelpoisuus?
  • Mikä on henkilön todennäköisyys sairastua tiettyyn tautiin?
  • Mikä on tuomitun vangin todennäköisyys uusia rikoksensa?
  • Mikä on kandidaatin todennäköisyys tulla valituksi presidentin virkaan?

Löydämmekin itsemme nopeasti yksilöiden ja yhteiskunnan kannalta varsin merkittävien kysymysten ääreltä, emmekä haluaisi asenteellisten algoritmien tarjoavan näihin kysymyksiin vinoutuneita vastauksia. Datassa ollut inhimillinen asenteellisuus saattaa tekoälyn käsissä voimistua entisestään ja vaikuttaa lopulta yksilön ja yhteiskunnan kannalta äärimmäisen tärkeisiin päätöksiin.

Datan luokittelu on aina aikansa tuote. Kuten Google Translator -esimerkissä näimme, on siinä käytetty opetusdata sellaista kirjallisuutta, joka on esittänyt tietyt ammatit naisten ammatteina ja toiset puolestaan miesten ammatteina.

Tekoäly vie meitä tulevaisuuteen menneisyyden datan viitoittamalla tiellä.

Osa tästä vääristymästä on luonnollisesti syntynyttä inhimillisten asenteiden peilausta, mutta osa saattaa olla myös tarkoitushakuista yhteiskunnan muokkausta. Kun maailmankuvamme muodostuu yhä suuremmassa määrin tekoälyavusteisesti, on meidän hyvä ymmärtää ja erottaa kaksi asiaa:

  • Mikä on asenteellisen datan vaikutus minulle muodostuvaan maailmankuvaan?
  • Onko joku taho pyrkinyt tarkoituksellisesti muokkaamaan minulle muodostuvaa maailmankuvaa?

Keinot luoda vastuullista tekoälyä

Olemme onneksi heränneet tähän haasteeseen. The World Economic Forumin Center for the Fourth Industrial Revolution, IEEE, AI Now, The Partnership on AI, Future of Life, AI for Good, ja DeepMind ovat muiden ryhmittymien lisäksi julkaisseet kokoelman tekoälyn vastuulliseen kehittämiseen liittyviä periaatteita. Näiden periaatteiden avulla pyritään auttamaan kehittäjiä maksimoimaan tekoälyn hyötypotentiaalin huomioiden samalla sen vastuullisuuteen liittyvät riskit.

Näistä periaatteista voidaan johtaa seuraavat keskeiset toimintatavat tekoälypohjaisten ratkaisujen elinkaaren hallintaan:

  • Suunnitellaan tekoälypohjaiset ratkaisut huomioiden niiden mahdolliset sosioekonomiset vaikutukset
  • Testataan tekoälypohjaiset ratkaisut kattavasti ennen julkaisua
  • Käytetään tekoälyä läpinäkyvästi
  • Seurataan tekoälyn kehittymistä ja toimintaa jatkuvasti ja tehokkaasti sen käytön aikana
  • Koulutetaan tekoälyn kanssa työskenteleviä työntekijöitä jatkuvasti esiin nousevien tarpeiden mukaisesti
  • Määritellään standardit datan hankintaan, käyttöön, säilytykseen ja rikastamiseen sekä suojellaan tiedon yksityisyyttä
  • Luodaan työkalut ja standardit algoritmien auditointiin.

Samalla kun lainsäätäjät juoksevat pari kierrosta innovaatioita jäljessä, on tekoälyä soveltavien organisaatioiden parissa itsesääntely noussut tärkeäksi ominaisuudeksi. Itsesääntelevät organisaatiot (Self-Regulatory Organizations, SROs) soveltavat yllä listattuja periaatteita proaktiivisesti edistäen tätä kautta vastuullisuutta tekoälyn kehittämisessä.

Responsible AI assessment

Myös me PwC:llä pidämme tekoälyn vastuullisuutta äärimmäisen tärkeänä teemana. Olemmekin kehittäneet menetelmän vastuullisen tekoälyn kehittämiseen. Menetelmä soveltuu niin olemassa olevien tekoälyohjelmien vastuullisuuden arviointiin kuin täysin uusien tekoälyohjelmien valmisteluun niin vastuullisuuden kuin liiketoiminnan hyötypotentiaalin näkökulmista.

Ota meihin yhteyttä, mikäli tekoälyn potentiaali tai vastuullisuus askarruttaa sinua tai organisaatiotasi!

 

Lataa julkaisu: Uncovering artificial intelligence in Finland

Petri Salo

Digital Consulting

+358 (0)20 787 8609

  

Leave a Reply

(* merkityt kentät ovat pakollisia. Sähköpostiosoitetta ei julkaista kommentin yhteydessä.)