Användning av artificiell intelligens i produkter och inom industrin
På den här sidan beskrivs de centrala skyldigheterna i EU:s förordning om artificiell intelligens för företag som tillverkar, importerar, distribuerar eller säljer produkter där artificiell intelligens används.
Tyngdpunkten ligger på de produktgrupper där Tukes är marknadskontrollmyndighet för system för artificiell intelligens med hög risk:
- hissar och säkerhetskomponenter till hissar
- utrustning och säkerhetssystem som är avsedda för användning i explosionsfarliga omgivningar (ATEX)
- tryckbärande anordningar
- gasanordningar (GAR)
- maskiner som är avsedda att användas av konsumenter
- personlig skyddsutrustning som är avsedda att användas av konsumenter
- leksaker.
Det finns inget förhandsgodkännande för system för artificiell intelligens. Tillhandahållaren, ibruktagaren och andra aktörer som definieras i förordningen ansvarar för att produkterna och systemen uppfyller de krav som ställs på dem.
Övervakningen av förordningen om artificiell intelligens har i Finland decentraliserats till olika myndigheter. I slutet av sidan hittar du länkar till mer information.
Vad innebär EU:s förordning om artificiell intelligens för företag?
EU:s förordning (EU) 2024/1689 om artificiell intelligens fastställer harmoniserade regler för utsläppande på marknaden, ibruktagande och användning av system för artificiell intelligens inom EU. Syftet med regleringen är att förbättra verksamheten på den inre marknaden och samtidigt skydda hälsan, säkerheten och de grundläggande rättigheterna.
Förordningen om artificiell intelligens och den kompletterande nationella lagen om tillsyn över vissa system för artificiell intelligens (1377/2025) tillämpas på ett sätt som kompletterar den sektorspecifika produktsäkerhetsregleringen. Detta innebär att företaget ska beakta både kraven på produkten och kraven i förordningen om artificiell intelligens.
Ikraftträdande
Förordningen om artificiell intelligens trädde i kraft 2.8.2024 och tillämpningen inleds stegvis. Förordningens huvudsakliga tillämpning börjar 2.8.2026.
I förordningen om artificiell intelligens ställs riskbaserade krav på system för artificiell intelligens. Dessutom innehåller förordningen bestämmelser om till exempel förbjuden praxis i anslutning till artificiell intelligens. För dessa har tillämpningen inletts 2.2.2025.
Skyldigheterna i anslutning till system för artificiell intelligens med hög risk börjar enligt förordningen huvudsakligen tillämpas 2.8.2026 och senast 2.8.2027. Europeiska kommissionen har dock föreslagit att tidtabellen för tillämpningen av skyldigheterna för system med hög risk ska ske i anslutning till tillgången till standarder och anvisningar. Behandlingen av ärendet pågår fortfarande. Mer information om ämnet finns på kommissionens webbplats: Digital Omnibus on AI Regulation Proposal | Shaping Europe’s digital future.
Aktörernas skyldigheter
Skyldigheterna i förordningen om artificiell intelligens bestäms enligt riskklassen för systemet för artificiell intelligens. Även om största delen av regleringen i förordningen gäller system för artificiell intelligens med hög risk, omfattas även andra system än system för artificiell intelligens med hög risk av skyldigheter som fastställts i förordningen. Många system för artificiell intelligens är inte system med hög risk, och andra system än system med hög risk omfattas främst av transparensskyldigheten i förordningen om artificiell intelligens.
Det finns också separata krav på system för artificiell intelligens för allmänna ändamål. Kommissionen övervakar att dessa krav iakttas.
Liksom i den traditionella produktsäkerhetsregleringen räknas skyldigheterna upp enligt aktörsroll även i förordningen om artificiell intelligens. Med aktör avses i förordningen om artificiell intelligens tillhandahållare, produkttillverkare, ibruktagare, en auktoriserad representant, importör eller distributör.
Nedan beskrivs skyldigheterna i förordningen om artificiell intelligens enligt riskklass på ett allmänt plan. Närmare information om aktörsrollerna och aktörernas skyldigheter finns på Traficoms webbplats: Skyldigheter för aktörer enligt AI-förordningen | Traficom.
Vissa särskilt skadliga praxis i anslutning till artificiell intelligens är förbjudna enligt förordningen om artificiell intelligens med några särskilda undantag som baserar sig på övervakningen av lagen.
Förordningen förbjuder att vissa system för artificiell intelligens släpps ut på EU:s marknad, tas i bruk eller används för praxis som på ett naturligt sätt strider mot de grundläggande rättigheterna och unionens värderingar. Sådana system för artificiell intelligens som beskrivs närmare i förordningen till exempel i anslutning till manipulation samt social övervakning och kontroll är förbjudna.
Kommissionen har publicerat anvisningar om förbjuden praxis: Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act. | Shaping Europe’s digital future.
Med system för artificiell intelligens med hög risk avses system för artificiell intelligens som kan ha en betydande skadlig inverkan på människors hälsa, säkerhet och grundläggande rättigheter i unionen. System för artificiell intelligens med hög risk definieras i artikel 6 i förordningen om artificiell intelligens, som ska läsas tillsammans med bilagorna I och III till förordningen. På Traficoms webbplats finns information om klassificering som artificiell intelligens med hög risk: Information om EU:s förordning om artificiell intelligens | Traficom.
System för artificiell intelligens med hög risk ska uppfylla de krav som ställs på dem i förordningen om artificiell intelligens. Kraven gäller till exempel riskhanteringssystem, teknisk dokumentation och övervakning som utförs av människor.
En tillhandahållare av ett system för artificiell intelligens med hög risk har många skyldigheter. Tillhandahållarna ska säkerställa att deras system för artificiell intelligens med hög risk uppfyller kraven i förordningen och till exempel ta i bruk ett kvalitetskontrollsystem för att säkerställa att förordningen iakttas. Importörer, distributörer och andra aktörer har sina egna skyldigheter enligt förordningen.
I förordningen om artificiell intelligens föreskrivs separat om transparensskyldigheterna för leverantörer och användare av vissa system för artificiell intelligens. Transparensskyldigheterna gäller även andra system för artificiell intelligens än system med hög risk. Till exempel i fråga om system för artificiell intelligens som är avsedda för direkt växelverkan med människor ska tillhandahållarna i allmänhet säkerställa att systemen planeras och genomförs så att de berörda personerna informeras om att de interagerar med ett system för artificiell intelligens.
Förordningen om artificiell intelligens ställer inga krav på sådana system för artificiell intelligens som medför mycket låg risk eller ingen risk alls. Typiska system med låg risk som i allmänhet inte omfattas av särskilda skyldigheter är till exempel filtrering av skräppost och skadliga meddelanden i e-postsystem samt automatisk korrekturläsning av text, språkgranskning och översättningsverktyg.
Förordningen om artificiell intelligens innehåller separata bestämmelser om modeller för artificiell intelligens för allmänna ändamål. I förordningen avses med en modell för artificiell intelligens för allmänna ändamål (General-Purpose AI, GPAI) en modell som har utbildats med omfattande data som kan klara av många olika uppgifter och som kan användas för flera olika ändamål. Till exempel stora språkmodeller (Large Language Model, LLM) kan vara sådana.
Registreringsskyldighet för system för artificiell intelligens med hög risk i anslutning till kritisk infrastruktur
Förordningen om artificiell intelligens förutsätter också att vissa system för artificiell intelligens registreras nationellt. Registreringsskyldigheten gäller system för artificiell intelligens som är avsedda att användas som säkerhetskomponenter i förvaltningen av kritisk digital infrastruktur, vägtrafik eller vatten-, gas-, uppvärmnings- eller elförsörjning och deras verksamhet.
Beredningen av den nationella verkställighetsregleringen pågår: Regeringens proposition med förslag till lag om ändring av lagen om tillsyn över vissa system för artificiell intelligens och till vissa andra lagar (fas II i genomförandet av Ai-förordningen) - Arbets- och näringsministeriet.
Testmiljö för reglering av artificiell intelligens
Förordningen om artificiell intelligens förutsätter att det nationellt inrättas minst en testmiljö för reglering av artificiell intelligens. En testmiljö för reglering av artificiell intelligens är en övervakad och avgränsad miljö som erbjuder utvecklare av system för artificiell intelligens möjlighet att vid behov under verkliga förhållanden utveckla, utbilda och testa ett innovativt system för artificiell intelligens. Testningen sker enligt testplanen under en begränsad tid och under myndighetstillsyn.
Mer information om testmiljöerna, det vill säga så kallade sandlådor finns på Traficoms webbplats Testmiljöer för reglering av artificiell intelligens | Traficom.
Beredningen av den nationella verkställighetsregleringen pågår: Regeringens proposition med förslag till lag om ändring av lagen om tillsyn över vissa system för artificiell intelligens och till vissa andra lagar (fas II i genomförandet av Ai-förordningen) - Arbets- och näringsministeriet.
Marknadskontroll över system för artificiell intelligens
Övervakningen av system för artificiell intelligens är en del av marknadskontrollsystemet. Övervakningen av förordningen om artificiell intelligens i Finland grundar sig på en decentraliserad övervakningsmodell där marknadskontrolluppgifterna som gäller system för artificiell intelligens har decentraliserats till olika myndigheter enligt redan existerande branscher.
Vissa övervakningsuppgifter har dock centraliserats:
- Dataombudsmannen övervakar att förbjuden praxis i anslutning till artificiell intelligens iakttas.
- Traficom fungerar som en central kontaktpunkt, koordinerar myndighetsarbetet och övervakar transparensskyldigheterna när det inte är fråga om ett system för artificiell intelligens med hög risk.
Påföljdsavgifterna påförs av påföljdsavgiftsnämnden för övervakning av system för artificiell intelligens som verkar i anslutning till Traficom.
Tukes som marknadskontrollmyndighet
Tukes är marknadskontrollmyndighet för system för artificiell intelligens med hög risk vad gäller hissar och säkerhetskomponenter till hissar, utrustning och säkerhetssystem som är avsedda att användas i explosionsfarliga omgivningar (ATEX), tryckbärande anordningar, gasanordningar (GAR), maskiner som är avsedda att användas konsumenter, personlig skyddsutrustning som är avsedda att användas av konsumenter samt leksaker.
Tukes uppgift är också att övervaka att transparensskyldigheterna enligt förordningen om artificiell intelligens som gäller systemen i fråga iakttas. Dessutom övervakar Tukes att produkterna uppfyller kraven i EU:s harmoniseringslagstiftning.
Tukes övervakar system för artificiell intelligens med hög risk även i den kritiska infrastruktur som avses i punkt 2 i bilaga III till förordningen om artificiell intelligens. Detta gäller situationer där ett system för artificiell intelligens är avsett att användas som säkerhetskomponent i förvaltningen och verksamheten inom energisektorns undersektor inom gasförsörjning (med undantag av system för artificiell intelligens som hör till Energimyndighetens behörighet) eller i förvaltningen och verksamheten inom vattenförsörjning.
Definition av ett system för artificiell intelligens
Utöver den riskbaserade klassificeringen begränsas tillämpningsområdet för förordningen om artificiell intelligens av definitionen av system för artificiell intelligens. I förordningen avses med system för artificiell intelligens:
ett maskinbaserat system som är konstruerat för att i varierande grad fungera autonomt och kan anpassa sin egen funktionalitet efter att det har tagits i bruk. Systemet drar slutsatser härledda från den indata det tar emot för explicita eller implicita syften för att generera resultat, såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka den fysiska eller virtuella miljön.
De centrala delfaktorerna i definitionen är:
- Maskinbaserat system: Hänvisar till den maskinvara och programvara som systemet bygger på.
- Autonom verksamhet: Systemet är planerat att fungera på varierande autonominivåer, vilket innebär något slags beslutsfattande som är oberoende av mänsklig verksamhet.
- Anpassning: Systemet kan förändras och lära sig efter ibruktagandet (detta är dock inte en förutsättning för att definitionen system för artificiell intelligens ska uppfyllas).
- Mål (explicita eller implicita): Systemets interna mål kan skilja sig från dess användningsändamål och vara direkt programmerade eller kunna härledas ur verksamheten.
- Slutledning: Systemet drar utifrån inputen slutsatser hur det ska producera resultaten. Denna funktion skiljer sig helt från programmering som baserar sig på regler.
- Resultat: Förutsägelser, innehåll, rekommendationer eller beslut som potentiellt kan påverka miljön.
- Växelverkan med miljön: Systemet påverkar sin fysiska eller virtuella miljö.
Kommissionen har publicerat anvisningar om definitionen av ett system för artificiell intelligens: The Commission publishes guidelines on AI system definition to facilitate the first AI Act’s rules application | Shaping Europe’s digital future.
På Traficoms webbplats beskrivs närmare vad system för artificiell intelligens är: Information om EU:s förordning om artificiell intelligens | Traficom.