Co to jest EU AI Act? Kompletny przewodnik po regulacji AI w Europie
Wszystko co musisz wiedzieć o europejskim rozporządzeniu o sztucznej inteligencji — cele, zakres, kogo dotyczy i kiedy wchodzi w życie.
Czym jest EU AI Act?
EU AI Act (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689) to pierwsze na świecie kompleksowe rozporządzenie regulujące sztuczną inteligencję. Zostało przyjęte 13 marca 2024 r. i opublikowane w Dzienniku Urzędowym UE 12 lipca 2024 r.
Jest to rozporządzenie, nie dyrektywa — co oznacza, że obowiązuje bezpośrednio we wszystkich państwach członkowskich UE, bez potrzeby implementacji do prawa krajowego.
Główne cele regulacji
- Ochrona praw podstawowych — zapewnienie, że systemy AI nie naruszają praw człowieka, w tym prawa do prywatności, niedyskryminacji i godności
- Bezpieczeństwo — systemy AI wprowadzane na rynek europejski muszą być bezpieczne i niezawodne
- Innowacyjność — stworzenie ram prawnych sprzyjających rozwojowi AI w Europie
- Zaufanie — budowanie zaufania publicznego do technologii AI poprzez transparentność i odpowiedzialność
Kogo dotyczy AI Act?
Rozporządzenie ma szerokie zastosowanie terytorialne (podobnie jak RODO):
- Dostawców AI (providers) — tworzących lub wprowadzających systemy AI na rynek UE
- Wdrażających AI (deployers) — organizacje używające systemów AI w swojej działalności
- Importerów i dystrybutorów systemów AI
- Podmioty spoza UE — jeśli ich systemy AI są używane na terenie UE
W praktyce oznacza to, że każda firma w Polsce korzystająca z AI — od ChatGPT po systemy scoringowe — musi zweryfikować swoją zgodność z AI Act.
Podejście oparte na ryzyku
AI Act klasyfikuje systemy AI w czterech kategoriach ryzyka:
- Niedopuszczalne ryzyko — systemy zakazane (np. social scoring, manipulacja podprogowa)
- Wysokie ryzyko — systemy podlegające rygorystycznym wymogom (np. rekrutacja AI, diagnostyka medyczna)
- Ograniczone ryzyko — systemy wymagające transparentności (np. chatboty, deepfake)
- Minimalne ryzyko — systemy bez dodatkowych obowiązków (np. filtry spamu)
Kluczowe terminy wdrożenia
- 2 lutego 2025 — zakaz praktyk niedopuszczalnych + obowiązek AI Literacy
- 2 sierpnia 2025 — wymogi dla modeli GPAI (General Purpose AI)
- 2 sierpnia 2026 — pełne stosowanie rozporządzenia, w tym wymogi dla systemów wysokiego ryzyka
Co dalej?
Pierwszym krokiem powinien być audyt obecnego stanu — identyfikacja systemów AI w organizacji i ocena ich kategorii ryzyka. Nasz darmowy pre-audyt pomoże Ci w tym procesie.
Sprawdź zgodność Twojej organizacji z AI Act
Darmowy pre-audyt zidentyfikuje ryzyka i luki compliance — w 5 minut.