Podstawy AI Act8 min czytaniaAktualizacja: 10.04.2026

Co to jest EU AI Act? Kompletny przewodnik po regulacji AI w Europie

Wszystko co musisz wiedzieć o europejskim rozporządzeniu o sztucznej inteligencji — cele, zakres, kogo dotyczy i kiedy wchodzi w życie.

EU AI Actregulacjapodstawysztuczna inteligencja

Czym jest EU AI Act?

EU AI Act (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689) to pierwsze na świecie kompleksowe rozporządzenie regulujące sztuczną inteligencję. Zostało przyjęte 13 marca 2024 r. i opublikowane w Dzienniku Urzędowym UE 12 lipca 2024 r.

Jest to rozporządzenie, nie dyrektywa — co oznacza, że obowiązuje bezpośrednio we wszystkich państwach członkowskich UE, bez potrzeby implementacji do prawa krajowego.

Główne cele regulacji

  • Ochrona praw podstawowych — zapewnienie, że systemy AI nie naruszają praw człowieka, w tym prawa do prywatności, niedyskryminacji i godności
  • Bezpieczeństwo — systemy AI wprowadzane na rynek europejski muszą być bezpieczne i niezawodne
  • Innowacyjność — stworzenie ram prawnych sprzyjających rozwojowi AI w Europie
  • Zaufanie — budowanie zaufania publicznego do technologii AI poprzez transparentność i odpowiedzialność

Kogo dotyczy AI Act?

Rozporządzenie ma szerokie zastosowanie terytorialne (podobnie jak RODO):

  • Dostawców AI (providers) — tworzących lub wprowadzających systemy AI na rynek UE
  • Wdrażających AI (deployers) — organizacje używające systemów AI w swojej działalności
  • Importerów i dystrybutorów systemów AI
  • Podmioty spoza UE — jeśli ich systemy AI są używane na terenie UE

W praktyce oznacza to, że każda firma w Polsce korzystająca z AI — od ChatGPT po systemy scoringowe — musi zweryfikować swoją zgodność z AI Act.

Podejście oparte na ryzyku

AI Act klasyfikuje systemy AI w czterech kategoriach ryzyka:

  1. Niedopuszczalne ryzyko — systemy zakazane (np. social scoring, manipulacja podprogowa)
  2. Wysokie ryzyko — systemy podlegające rygorystycznym wymogom (np. rekrutacja AI, diagnostyka medyczna)
  3. Ograniczone ryzyko — systemy wymagające transparentności (np. chatboty, deepfake)
  4. Minimalne ryzyko — systemy bez dodatkowych obowiązków (np. filtry spamu)

Kluczowe terminy wdrożenia

  • 2 lutego 2025 — zakaz praktyk niedopuszczalnych + obowiązek AI Literacy
  • 2 sierpnia 2025 — wymogi dla modeli GPAI (General Purpose AI)
  • 2 sierpnia 2026 — pełne stosowanie rozporządzenia, w tym wymogi dla systemów wysokiego ryzyka

Co dalej?

Pierwszym krokiem powinien być audyt obecnego stanu — identyfikacja systemów AI w organizacji i ocena ich kategorii ryzyka. Nasz darmowy pre-audyt pomoże Ci w tym procesie.

Sprawdź zgodność Twojej organizacji z AI Act

Darmowy pre-audyt zidentyfikuje ryzyka i luki compliance — w 5 minut.