Uudet säännöt vahvistavat luottamusta tekoälyyn Euroopassa
Traficomin tiedote: EU:n tekoälyasetuksen tavoitteena on varmistaa, että tekoälyjärjestelmät eivät vaaranna ihmisten terveyttä, turvallisuutta tai perusoikeuksia Euroopan unionissa. Suomessa asetuksen toimeenpanoa valvovien viranomaisten toimivaltuudet astuivat voimaan 1.1.2026. Liikenne- ja viestintävirasto Traficom toimii kansallisena yhteyspisteenä ja koordinoi asetuksen toimeenpanoa Suomessa.
"Tekoälyn tuomat mahdollisuudet tuottavuuden kasvulle ja uusille innovaatioille ovat valtavat. Sen käytöllä on kuitenkin myös riskejä, joita sääntelyllä voidaan hallita. Yhteiset ja selkeät säännöt vahvistavat luottamusta tekoälyn turvallisuuteen", sanoo johtaja Jenni Koskinen Traficomista.
Sääntelyllä hallitaan riskejä
Tekoälyasetuksen sääntely perustuu tekoälyjärjestelmien riskeihin. Potentiaalisesti kaikkein vahingollisimmiksi arvioidut tekoälyn käyttötapaukset on kielletty kokonaan. Tekoälyn kiellettyjä käyttötapauksia ovat esimerkiksi:
- tekoälyn käyttö haitallisiin manipuloiviin ja harhaanjohtaviin tarkoituksiin
- pelkästään tekoälyllä tehty profilointi tai arviointi siitä, miten todennäköisesti henkilöllä on riski tehdä rikos henkilökohtaisten ominaisuuksiensa perusteella
- tekoälyn käyttö tunteiden tunnistamiseen oppilaitoksissa tai työpaikoilla.
Tekoälyn vahingollisen käytön kielto eräiden muiden asetuksen kohtien ohella on tullut voimaan helmikuussa 2025.
Asetuksen kantava ajatus on, että suurin osa sääntelystä koskee tekoälyjärjestelmiä, jotka on määritetty suuririskisiksi. Tällaisissa järjestelmissä on tunnistettu riskejä, joilla voi olla haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin.
Suuririskisille tekoälyjärjestelmien kehittäjille on asetettu velvoitteita, jotka koskevat muun muassa järjestelmän keräämiä lokitietoja, riskienhallintajärjestelmiä, teknistä dokumentaatiota, kyberturvallisuutta ja järjestelmässä käytettävää dataa.
Nämä velvoitteet tulevat pääasiallisesti voimaan 2.8.2026 ja viimeistään vuosi tämän jälkeen.
Sen sijaan matalariskisiksi luokiteltuja tekoälyjärjestelmiä säännellään huomattavasti kevyemmin. Niitä koskevat pääasiassa avoimuusvelvoitteet, jotka tarkoittavat sitä, että järjestelmää käyttävälle ihmiselle on kerrottava, että hän on vuorovaikutuksessa tekoälyn, esimerkiksi chatbotin, kanssa. Myös tekoälyllä tuotetut niin sanotut deepfake-sisällöt on merkittävä tekoälyllä tuotetuiksi.
Myös avoimuusvelvoitteet tulevat voimaan 2.8.2026.
Asetuksen valvonta on yhteistyötä
Tekoälyasetuksen valvonta on hajautettu Suomessa 15 eri viranomaiselle.
"Asetuksen valvonta on yhteispeliä, ja yhteistyö viranomaisten kesken on lähtenyt käyntiin erinomaisesti. Meidän viranomaisten tehtävänä on varmistaa, että tekoälyn käyttö on turvallista eikä se vaaranna terveyttä tai perusoikeuksia", Koskinen sanoo.
"Tärkeä tehtävämme on myös tukea kotimaisia yrityksiä ja muita toimijoita, jotta ne täyttävät sääntelyn vaatimukset ja pystyvät ottamaan hyödyt irti tekoälyteknologian mahdollisuuksista", jatkaa Koskinen.
Viranomaiset tekevät asetuksen perusteella markkinavalvontaa, perusoikeuksien valvontaa tai molempia.
Jo aiemmin nimetyt markkinavalvontaviranomaiset valvovat tuotteiden turvallisuutta nykyisten markkinavalvontavastuiden mukaisesti. Markkinavalvontaviranomaisten toimivalta laajenee nyt valvomaan samojen tuoteryhmien tekoälyominaisuuksia. Lisäksi mukana on uusia viranomaisia. Markkinavalvojien tehtävänä on varmistaa, että määräyksiä noudatetaan eikä Euroopan unionin sisämarkkinoilla ole vaarallisia tai turvallisuudeltaan puutteellisia tuotteita.
Perusoikeuksia valvovat viranomaiset huolehtivat, että asetuksen piirissä olevat tekoälyjärjestelmät eivät vaaranna ihmisten perusoikeuksien toteutumista.
Markkinavalvontaviranomaiset ovat:
- Energiavirasto
- Finanssivalvonta
- Liikenne- ja viestintävirasto Traficom
- Lupa- ja valvontavirasto
- Lupa- ja valvontavirasto työsuojeluviranomaisena
- Lääkealan turvallisuus- ja kehittämiskeskus Fimea
- Tietosuojavaltuutettu
- Tulli
- Turvallisuus- ja kemikaalivirasto.
Perusoikeuksia valvovat viranomaiset ovat:
- Eduskunnan oikeusasiamies
- Kuluttaja-asiamies
- Oikeuskansleri
- Tasa-arvovaltuutettu
- Tietosuojavaltuutettu
- Työsuojeluviranomainen
- Yhdenvertaisuus- ja tasa-arvolautakunta
- Yhdenvertaisuusvaltuutettu.
Asetuksen kansallista toimeenpanoa koskevat lait tulivat voimaan 1.1.2026.
Lainsäädäntötyö jatkuu
Hallituksen on määrä antaa myöhemmin eduskunnalle toinen esitys asetuksen kansallisesta toimeenpanosta. Esityksessä on tarkoitus säätää kansallisesta lainsäädännöstä tekoälyn sääntelyn testiympäristöjen toimeenpanosta ja kansallisen rekisterin perustamisesta kriittiseen infrastruktuuriin liittyville suuririskisille tekoälyjärjestelmille.
Näiden lakien on tarkoitus tulla voimaan viimeistään 2.8.2026.
Euroopan komissio on kuitenkin esittänyt sääntelyn yksinkertaistamisaloitteessaan (AI Omnibus) muutoksia tekoälyasetukseen siten, että korkeariskisten tekoälyjärjestelmien velvollisuuksien voimaantuloa lykättäisiin standardien ja ohjeiden valmistumiseen asti. Neuvottelut asiasta on kuitenkin vielä kesken.
Lisätietoa
Tietoa tekoälyasetuksen kansallisesta toimeenpanosta
Tietoa EU:n tekoälyasetuksesta
Johtaja Jenni Koskinen, p. 029 539 0648, [email protected]
Yksikönpäällikkö Jarmo Riikonen, p. 029 534 7385, [email protected]