Klasyfikacja ryzyka10 min czytaniaAktualizacja: 10.04.2026

Klasyfikacja systemów AI wg EU AI Act — 4 poziomy ryzyka

Szczegółowy opis czterech poziomów ryzyka w AI Act: systemy zakazane, wysokiego ryzyka, ograniczonego i minimalnego ryzyka z przykładami.

klasyfikacjaryzykosystemy AIhigh-risk

Podejście risk-based w AI Act

EU AI Act opiera się na podejściu opartym na ryzyku (risk-based approach). Im wyższe ryzyko systemu AI dla zdrowia, bezpieczeństwa lub praw podstawowych, tym surowsze wymagania regulacyjne.

Poziom 1: Niedopuszczalne ryzyko (zakazane)

Niektóre zastosowania AI są całkowicie zakazane w UE od 2 lutego 2025 r.:

  • Social scoring — ocena obywateli przez władze publiczne na podstawie zachowań społecznych
  • Manipulacja podprogowa — systemy wykorzystujące techniki manipulacji poza świadomością człowieka
  • Eksploatacja podatności — wykorzystywanie słabości grup wrażliwych (dzieci, osoby niepełnosprawne)
  • Biometria emocjonalna — rozpoznawanie emocji w miejscu pracy i edukacji (z wyjątkami medycznymi)
  • Masowe rozpoznawanie twarzy — nieukierunkowane pobieranie wizerunków z internetu lub monitoringu w celu budowy baz danych
  • Predykcyjne profilowanie kryminalne — ocena ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania

Poziom 2: Wysokie ryzyko

Systemy AI wysokiego ryzyka podlegają rygorystycznym wymogom, w tym:

  • System zarządzania ryzykiem
  • Zarządzanie danymi treningowymi
  • Dokumentacja techniczna
  • Rejestrowanie zdarzeń (logi)
  • Transparentność i informowanie użytkowników
  • Nadzór człowieka (human oversight)
  • Dokładność, solidność i cyberbezpieczeństwo

Przykłady systemów wysokiego ryzyka:

  • AI w rekrutacji i zarządzaniu pracownikami
  • AI w ocenie zdolności kredytowej
  • AI w diagnostyce medycznej
  • AI w edukacji (ocenianie, przyjmowanie)
  • AI w wymiarze sprawiedliwości
  • AI w zarządzaniu infrastrukturą krytyczną
  • AI w identyfikacji biometrycznej

Poziom 3: Ograniczone ryzyko

Systemy o ograniczonym ryzyku muszą spełniać obowiązki transparentności:

  • Chatboty — użytkownik musi wiedzieć, że rozmawia z AI
  • Deepfake — treści generowane przez AI muszą być oznaczone
  • Systemy rozpoznawania emocji — użytkownik musi być poinformowany
  • Systemy kategoryzacji biometrycznej — wymagają informowania

Poziom 4: Minimalne ryzyko

Większość systemów AI w użyciu należy do tej kategorii i nie podlega dodatkowym regulacjom:

  • Filtry spamu
  • Rekomendacje produktów (e-commerce)
  • Optymalizacja tras (nawigacja)
  • Automatyczna korekta tekstu
  • Gry wideo z AI

Choć te systemy nie mają specjalnych obowiązków, dobrowolne stosowanie kodeksów postępowania jest zachęcane.

Jak sprawdzić kategorię swoich systemów?

Skorzystaj z naszego darmowego pre-audytu, który automatycznie klasyfikuje Twoje systemy AI do odpowiedniej kategorii ryzyka.

Sprawdź zgodność Twojej organizacji z AI Act

Darmowy pre-audyt zidentyfikuje ryzyka i luki compliance — w 5 minut.