EU:n tekoälysäädös astui voimaan – mitä seuraavaksi?

Elokuussa 2024 astui voimaan maailman ensimmäinen kattava tekoälyä koskeva säädös, EU:n tekoälysäädös (EU AI Act). Sen täysimääräinen soveltaminen alkaa 2. elokuuta 2026, lukuun ottamatta joitakin poikkeuksia, kuten tiettyjä kieltoja, jotka tulevat voimaan jo kuuden kuukauden kuluttua.

Elokuussa 2024 astui voimaan maailman ensimmäinen kattava tekoälyä koskeva säädös, EU:n tekoälysäädös (EU AI Act). Sen täysimääräinen soveltaminen alkaa 2. elokuuta 2026, lukuun ottamatta joitakin poikkeuksia, kuten tiettyjä kieltoja, jotka tulevat voimaan jo kuuden kuukauden kuluttua.

Turvallisuus ja perusoikeudet keskiössä

Säädöksen tavoitteena on luoda yhtenäinen oikeudellinen kehys tekoälyn riskien hallitsemiseksi. Säädös asettaa erityisiä ja laajoja vaatimuksia sekä velvoitteita suuririskisten tekoälyjärjestelmien kehittämiselle, markkinoille saattamiselle, käyttöönotolle ja käytölle. Vaikka useimmat tekoälyjärjestelmät ovat turvallisia ja auttavat ratkaisemaan monia haasteita, voivat jotkin järjestelmät aiheuttaa huomattavia riskejä. Riskeihin puuttuminen on tärkeää, jotta voidaan välttää tekoälyn aiheuttamat epäsuotuisat seuraukset yksilöille, ryhmille, organisaatioille, yhteiskunnalle tai ympäristölle.

Tekoälysäädöksen keskeisenä tavoitteena on varmistaa, että turvallisuutta ja perusoikeuksia kunnioitetaan ja että eettisiä periaatteita, kuten syrjimättömyyttä, noudatetaan. Lisäksi säädös kieltää kokonaan sellaiset tekoälyjärjestelmät, jotka aiheuttavat kohtuuttomia riskejä.

Sääntely ei pääty tähän: Euroopan komissio voi lisäksi antaa delegoituja säädöksiä, täytäntöönpanosäädöksiä ja ohjeistuksia esimerkiksi suuririskisten tekoälyjärjestelmien käyttötapauksista, vaatimustenmukaisuuden arvioinnista ja teknisen dokumentaation vaatimuksista. Tekoälyjärjestelmien kehittämiseen ja käyttöönottoon liittyy myös laajasti muuta huomioitavaa lainsäädäntöä, kuten tietosuoja-, tekijänoikeus-, tuotevastuu- ja tuoteturvallisuuslainsäädäntö.

Miten noudattaa säädöstä?

Säädösteksti on pitkä ja voi vaikuttaa raskaalta, sillä se sisältää 113 artiklaa, 13 liitettä ja 68 määritelmää, joista kaikki eivät ole yhtä olennaisia. The Future of Life Instituten julkaisema AI Act Explorer on intuitiivinen työkalu, jossa säädöksen sisältö on jaoteltu lukuihin ja liitteisiin. Tämä helpottaa säädöksen omaksumista ja relevanttien osien löytämistä. Kunkin artiklan kohdalla on mainittu päivämäärä, jolloin artiklaa aletaan soveltaa, sekä mitä johdanto-osan kappaleita artiklaan liittyy. Myös Euroopan komissio tulee laatimaan tarkempaa ohjeistusta ja mallipohjia.

Alla on yksinkertainen toimintapolku vaatimuksenmukaisuuden selvittämiseksi:

  1. Laadi ns. tekoälyinventaari eli tunnista ja dokumentoi organisaatiosi tekoälymallit ja -järjestelmät. Ylläpidä dokumentaatiota muutostilanteissa ja katselmoi inventaari säännöllisesti.
  2. Määrittele roolisi: oletko järjestelmän tarjoaja, jakelija vai käyttöönottaja? Huomioi, että rooli voi olla tapauskohtaisesti erilainen.
  3. Määrittele kunkin järjestelmän luokka ja tunnista niiden riskit:
    • Kielletyt käytännöt -> Lopeta kehitys ja käyttö.
    • Suuririskiset käytännöt -> Noudata tekoälysäädöksen luvun III velvoitteita.
    • Vähäisen riskin järjestelmät, joihin liittyy läpinäkyvyysvelvoitteet -> Noudata luvun IV velvoitteita.
    • Yleiskäyttöiset tekoälymallit, esimerkiksi GPT-4 -> Noudata luvun V velvoitteita.
    • Muut tekoälymallit ja -järjestelmät -> Jatka toimintaa kuitenkin huomioimalla mahdolliset muutokset.

Lisäksi organisaation tekoälyn hallintamalli auttaa noudattamaan säädöksiä ja hyödyntämään tekoälyn potentiaalia turvallisesti, tehokkaasti ja eettisesti. Siksi hallintamallin kehittäminen ja käyttöönotto on erittäin suositeltavaa. Monissa organisaatioissa tämä työ onkin parhaillaan meneillään tai käynnistymässä.

Säädöksen noudattamisen valvonta

EU-tasolla toimivien tekoälytoimiston ja tekoälyneuvoston lisäksi EU-maiden on nimitettävä kansalliset viranomaiset valvomaan tekoälysäädöksen noudattamista 2.8.2025 mennessä.

Euroopan tietosuojaneuvosto suosittelee, että EU-maiden tietosuojaviranomaiset toimisivat erityisesti suuririskisten tekoälyjärjestelmien valvontaviranomaisina. Tällaisia järjestelmiä ovat esimerkiksi biometriseen tunnistamiseen ja luokitteluun sekä tunteiden tunnistamiseen perustuvat tekoälyjärjestelmät, joita käytetään lainvalvonnassa, rajavalvonnassa, muuttoliikkeen hallinnassa ja turvapaikka-asioissa. Tietosuojaneuvosto arvioi, että tietosuojaviranomaisten nimittäminen markkinavalvontaviranomaisiksi parantaisi viranomaisten välistä yhteistyötä, lisäisi oikeusvarmuutta ja vahvistaisi sekä tekoälyasetuksen että EU:n tietosuojalainsäädännön valvontaa.

Kohti turvallisempaa tulevaisuutta

Säädöksen tiukat vaatimukset ja kattava valvonta ovat merkittävä askel kohti turvallisempaa ja eettisempää tekoälyä Euroopassa. Nyt on organisaatioiden aika valmistautua ja varmistaa, että ne täyttävät kaikki säädöksen vaatimukset.

Anna Tuominen

Riskienhallintapalvelut

+358 (0)20 787 7836

anna.tuominen@pwc.com

Sanna Oinonen

Riskienhallintapalvelut

+358 (0)20 787 8894

sanna.oinonen@pwc.com