EU AI Act
EU AI Act (Nariadenie 2024/1689) je prvý komplexný právny rámec na svete pre umelá inteligenciu. Zavýdza klasifikacňa systém založeňa na riziku pre AI systémy, pricom ukladá požiadavky od povinností transparentnosťi až po úplný zškazy v závislosti od úrovne rizika. Pre výrobcov hardvéru vytvárajšcich AI produkty má Act priame dšsledky na návrh Edge AI, dokumentáciu a posúdenie zhody.
Kľúčová fakty
| Detail | Informácia |
|---|---|
| Celý názov | Nariadenie (EÚ) 2024/1689, ktorým sa stanovuj� harmonizovaná pravidlá pre umelá inteligenciu |
| Nadobudnutie účinnosti | 1. august 2024 |
| Zakšzaňa praktiky AI | 2. febružr 2025 |
| Povinnosti GPAI | 2. august 2025 |
| Vysoko rizikový AI — plný povinnosti | 2. august 2026 |
| Rozsah | Vžetky AI systémy uvedený na trh EÚ alebo používaňa v EÚ, bez ohladu na miesto vývoja |
| Sankcia | Až 35 milišnov — alebo 7 % celosvetovýho rocňaho obratu (zakšzaňa praktiky) |
Kategórie rizika
AI Act klasifikuje AI systémy do �tyroch �rovňa:
| �roven rizika | Príklady | Povinnosti |
|---|---|---|
| Neprijatelňa | Socišlne bodovanie, biometrický identifikácia v reálnom case na verejnosti (s výnimkami), manipulatšvna AI | Zakšzaňa — nesmie byt uvedený na trh EÚ |
| Vysoko rizikový | Zdravotňacke zariadenia s AI, bezpecnostňa komponenty vo vozidlšch, monitorovanie kritickej infražtruktšry, biometrický identifikácia | Plný posúdenie zhody, riadenie rizík, správa údajov, ľudský dohlad, technický dokumentácia |
| Obmedzená riziko | Chatboty, rozpozňavanie emáci�, deepfakes | Povinnosti transparentnosťi — používatelia musia byt informovaňa o interakcii s AI |
| Minimálne riziko | AI spam filtre, AI vo videohršch, riadenie zšsob | žiadne špecifický povinnosti |
Dopad na hardvérová produkty
Edge AI zariadenia
Pre výrobcov produktov s on-device AI inferenciou (Edge AI):
| Požiadavka | Co to znamená pre hardvér |
|---|---|
| Klasifikácia rizika | Výrobca musí klasifikovat �roven rizika AI systému |
| Technická dokumentácia | úplný dokumentácia AI modelu, tršningových dát a metršk výkonu |
| Posúdenie zhody | Vysoko rizikový AI vstavaný v hardvéri má�u vyšadovat posúdenie tretou stranou |
| Ludsk� dohlad | Hardvýr musí poskytňat rozhrania pre ľudský kontrolu/prepšsanie AI rozhodnut� |
| Logovanie presnosti | Systém musí logovat AI rozhodnutia pre audit a monitorovanie zaujatosti |
Edge AI ako stratšgia súladu
Spracovanie dát na zariadení pomocou Edge AI máže zňait regulacňa zštaž v porovnaňa s cloud AI:
| Aspekt | Cloud AI | Edge AI |
|---|---|---|
| Prenosy údajov | Dáta odosielaňa na servery tretích strán — obavy GDPR | Dáta zostávaj� na zariadení — zjednodužeňa súlad |
| Spracovanie tretou stranou | Cloud poskytovatel je spracovatel údajov — vyžaduje DPA | žiadne spracovanie tretou stranou — priama kontrola |
| Audit trail | Musí auditovat AI systémy cloud poskytovatela | Samostatné, auditovateľný systém na zariadení |
| Latencia pre bezpecnost | Závislá od siete — nevhodňa pre bezpecnostne kritická | Deterministick� lokšlna inferencia — vhodňa pre bezpecnost |
Strategick� výhoda: Edge AI na dedikovanom NPU eliminuje obavy z prenosu dát, zjednodužuje súlad s GDPR a znižuje rozsah posúdenia zhody AI Act.
AI Act vs. ostatné nariadenia EÚ
| Nariadenie | Zameriava sa na | Prepojenie s AI Act |
|---|---|---|
| AI Act | AI systémy (softvér + hardvér) | Primárna regulácia AI |
| CRA | Kybernetická bezpecnost produktov | AI produkty musia splnat oba — AI Act aj CRA |
| GDPR | Ochrana osobňach údajov | AI spracšvajšca osobňa údaje musí dodršiavat GDPR + AI Act |
| NIS2 | Organizacňa bezpecnost | Organizácie nasadzujúce vysoko rizikový AI sú základná entity NIS2 |
Súvisiace pojmy
- Edge AI — On-device AI inferencia, ktorý zjednodužuje súlad s AI Act prostrednáctvom lokálneho spracovania dát.
- CRA — Nariadenie o kybernetickej bezpecnosti produktov, ktorý plat� súcasne s AI Act pre pripojené AI zariadenia.
- NIS2 — Smernica o organizacnej kybernetickej bezpecnosti relevantňa pre entity nasadzujúce vysoko rizikový AI systémy.