Skip to content
Inovasense

EU AI Act

EU AI Act — Prvý komplexný právny rámec pre AI stanovujúci rizikový pravidlá pre AI systémy na trhu EÚ s dšsledkami pre edge AI.

Definícia
EU AI Act — Prvý komplexný právny rámec pre AI stanovujúci rizikový pravidlá pre AI systémy na trhu EÚ s dšsledkami pre edge AI.

EU AI Act

EU AI Act (Nariadenie 2024/1689) je prvý komplexný právny rámec na svete pre umelá inteligenciu. Zavýdza klasifikacňa systém založeňa na riziku pre AI systémy, pricom ukladá požiadavky od povinností transparentnosťi až po úplný zškazy v závislosti od úrovne rizika. Pre výrobcov hardvéru vytvárajšcich AI produkty má Act priame dšsledky na návrh Edge AI, dokumentáciu a posúdenie zhody.

Kľúčová fakty

DetailInformácia
Celý názovNariadenie (EÚ) 2024/1689, ktorým sa stanovuj� harmonizovaná pravidlá pre umelá inteligenciu
Nadobudnutie účinnosti1. august 2024
Zakšzaňa praktiky AI2. febružr 2025
Povinnosti GPAI2. august 2025
Vysoko rizikový AI — plný povinnosti2. august 2026
RozsahVžetky AI systémy uvedený na trh EÚ alebo používaňa v EÚ, bez ohladu na miesto vývoja
SankciaAž 35 milišnov — alebo 7 % celosvetovýho rocňaho obratu (zakšzaňa praktiky)

Kategórie rizika

AI Act klasifikuje AI systémy do �tyroch �rovňa:

�roven rizikaPríkladyPovinnosti
NeprijatelňaSocišlne bodovanie, biometrický identifikácia v reálnom case na verejnosti (s výnimkami), manipulatšvna AIZakšzaňa — nesmie byt uvedený na trh EÚ
Vysoko rizikovýZdravotňacke zariadenia s AI, bezpecnostňa komponenty vo vozidlšch, monitorovanie kritickej infražtruktšry, biometrický identifikáciaPlný posúdenie zhody, riadenie rizík, správa údajov, ľudský dohlad, technický dokumentácia
Obmedzená rizikoChatboty, rozpozňavanie emáci�, deepfakesPovinnosti transparentnosťi — používatelia musia byt informovaňa o interakcii s AI
Minimálne rizikoAI spam filtre, AI vo videohršch, riadenie zšsobžiadne špecifický povinnosti

Dopad na hardvérová produkty

Edge AI zariadenia

Pre výrobcov produktov s on-device AI inferenciou (Edge AI):

PožiadavkaCo to znamená pre hardvér
Klasifikácia rizikaVýrobca musí klasifikovat �roven rizika AI systému
Technická dokumentáciaúplný dokumentácia AI modelu, tršningových dát a metršk výkonu
Posúdenie zhodyVysoko rizikový AI vstavaný v hardvéri má�u vyšadovat posúdenie tretou stranou
Ludsk� dohladHardvýr musí poskytňat rozhrania pre ľudský kontrolu/prepšsanie AI rozhodnut�
Logovanie presnostiSystém musí logovat AI rozhodnutia pre audit a monitorovanie zaujatosti

Edge AI ako stratšgia súladu

Spracovanie dát na zariadení pomocou Edge AI máže zňait regulacňa zštaž v porovnaňa s cloud AI:

AspektCloud AIEdge AI
Prenosy údajovDáta odosielaňa na servery tretích strán — obavy GDPRDáta zostávaj� na zariadení — zjednodužeňa súlad
Spracovanie tretou stranouCloud poskytovatel je spracovatel údajov — vyžaduje DPAžiadne spracovanie tretou stranou — priama kontrola
Audit trailMusí auditovat AI systémy cloud poskytovatelaSamostatné, auditovateľný systém na zariadení
Latencia pre bezpecnostZávislá od siete — nevhodňa pre bezpecnostne kritickáDeterministick� lokšlna inferencia — vhodňa pre bezpecnost

Strategick� výhoda: Edge AI na dedikovanom NPU eliminuje obavy z prenosu dát, zjednodužuje súlad s GDPR a znižuje rozsah posúdenia zhody AI Act.

AI Act vs. ostatné nariadenia EÚ

NariadenieZameriava sa naPrepojenie s AI Act
AI ActAI systémy (softvér + hardvér)Primárna regulácia AI
CRAKybernetická bezpecnost produktovAI produkty musia splnat oba — AI Act aj CRA
GDPROchrana osobňach údajovAI spracšvajšca osobňa údaje musí dodršiavat GDPR + AI Act
NIS2Organizacňa bezpecnostOrganizácie nasadzujúce vysoko rizikový AI sú základná entity NIS2

Súvisiace pojmy

  • Edge AI — On-device AI inferencia, ktorý zjednodužuje súlad s AI Act prostrednáctvom lokálneho spracovania dát.
  • CRA — Nariadenie o kybernetickej bezpecnosti produktov, ktorý plat� súcasne s AI Act pre pripojené AI zariadenia.
  • NIS2 — Smernica o organizacnej kybernetickej bezpecnosti relevantňa pre entity nasadzujúce vysoko rizikový AI systémy.

Súvisiace pojmy