Skip to content
Inovasense

EU AI Act

EU AI Act — Prvý komplexný právny rámec pre AI stanovujúci rizikové pravidlá pre AI systémy na trhu EÚ s dôsledkami pre edge AI.

EU AI Act

EU AI Act (Nariadenie 2024/1689) je prvý komplexný právny rámec na svete pre umelú inteligenciu. Zavádza klasifikačný systém založený na riziku pre AI systémy, pričom ukladá požiadavky od povinností transparentnosti až po úplné zákazy v závislosti od úrovne rizika. Pre výrobcov hardvéru vytvárajúcich AI produkty má Act priame dôsledky na návrh Edge AI, dokumentáciu a posúdenie zhody.

Kľúčové fakty

DetailInformácia
Celý názovNariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá pre umelú inteligenciu
Nadobudnutie účinnosti1. august 2024
Zakázané praktiky AI2. február 2025
Povinnosti GPAI2. august 2025
Vysoko rizikové AI — plné povinnosti2. august 2026
RozsahVšetky AI systémy uvedené na trh EÚ alebo používané v EÚ, bez ohľadu na miesto vývoja
SankciaAž 35 miliónov € alebo 7 % celosvetového ročného obratu (zakázané praktiky)

Kategórie rizika

AI Act klasifikuje AI systémy do štyroch úrovní:

Úroveň rizikaPríkladyPovinnosti
NeprijateľnéSociálne bodovanie, biometrická identifikácia v reálnom čase na verejnosti (s výnimkami), manipulatívna AIZakázané — nesmie byť uvedené na trh EÚ
Vysoko rizikovéZdravotnícke zariadenia s AI, bezpečnostné komponenty vo vozidlách, monitorovanie kritickej infraštruktúry, biometrická identifikáciaPlné posúdenie zhody, riadenie rizík, správa údajov, ľudský dohľad, technická dokumentácia
Obmedzené rizikoChatboty, rozpoznávanie emócií, deepfakesPovinnosti transparentnosti — používatelia musia byť informovaní o interakcii s AI
Minimálne rizikoAI spam filtre, AI vo videohrách, riadenie zásobŽiadne špecifické povinnosti

Dopad na hardvérové produkty

Edge AI zariadenia

Pre výrobcov produktov s on-device AI inferenciou (Edge AI):

PožiadavkaČo to znamená pre hardvér
Klasifikácia rizikaVýrobca musí klasifikovať úroveň rizika AI systému
Technická dokumentáciaÚplná dokumentácia AI modelu, tréningových dát a metrík výkonu
Posúdenie zhodyVysoko rizikové AI vstavané v hardvéri môžu vyžadovať posúdenie treťou stranou
Ľudský dohľadHardvér musí poskytnúť rozhrania pre ľudskú kontrolu/prepísanie AI rozhodnutí
Logovanie presnostiSystém musí logovať AI rozhodnutia pre audit a monitorovanie zaujatosti

Edge AI ako stratégia súladu

Spracovanie dát na zariadení pomocou Edge AI môže znížiť regulačnú záťaž v porovnaní s cloud AI:

AspektCloud AIEdge AI
Prenosy údajovDáta odosielané na servery tretích strán — obavy GDPRDáta zostávajú na zariadení — zjednodušený súlad
Spracovanie tretou stranouCloud poskytovateľ je spracovateľ údajov — vyžaduje DPAŽiadne spracovanie treťou stranou — priama kontrola
Audit trailMusí auditovať AI systémy cloud poskytovateľaSamostatný, auditovateľný systém na zariadení
Latencia pre bezpečnosťZávislá od siete — nevhodná pre bezpečnostne kritickéDeterministická lokálna inferencia — vhodná pre bezpečnosť

Strategická výhoda: Edge AI na dedikovanom NPU eliminuje obavy z prenosu dát, zjednodušuje súlad s GDPR a znižuje rozsah posúdenia zhody AI Act.

AI Act vs. ostatné nariadenia EÚ

NariadenieZameriava sa naPrepojenie s AI Act
AI ActAI systémy (softvér + hardvér)Primárna regulácia AI
CRAKybernetická bezpečnosť produktovAI produkty musia spĺňať oba — AI Act aj CRA
GDPROchrana osobných údajovAI spracúvajúca osobné údaje musí dodržiavať GDPR + AI Act
NIS2Organizačná bezpečnosťOrganizácie nasadzujúce vysoko rizikové AI sú základné entity NIS2

Súvisiace pojmy

  • Edge AI — On-device AI inferencia, ktorá zjednodušuje súlad s AI Act prostredníctvom lokálneho spracovania dát.
  • CRA — Nariadenie o kybernetickej bezpečnosti produktov, ktoré platí súčasne s AI Act pre pripojené AI zariadenia.
  • NIS2 — Smernica o organizačnej kybernetickej bezpečnosti relevantná pre entity nasadzujúce vysoko rizikové AI systémy.

Súvisiace pojmy