Klasyfikacja systemów AI wg EU AI Act — 4 poziomy ryzyka
Szczegółowy opis czterech poziomów ryzyka w AI Act: systemy zakazane, wysokiego ryzyka, ograniczonego i minimalnego ryzyka z przykładami.
Podejście risk-based w AI Act
EU AI Act opiera się na podejściu opartym na ryzyku (risk-based approach). Im wyższe ryzyko systemu AI dla zdrowia, bezpieczeństwa lub praw podstawowych, tym surowsze wymagania regulacyjne.
Poziom 1: Niedopuszczalne ryzyko (zakazane)
Niektóre zastosowania AI są całkowicie zakazane w UE od 2 lutego 2025 r.:
- Social scoring — ocena obywateli przez władze publiczne na podstawie zachowań społecznych
- Manipulacja podprogowa — systemy wykorzystujące techniki manipulacji poza świadomością człowieka
- Eksploatacja podatności — wykorzystywanie słabości grup wrażliwych (dzieci, osoby niepełnosprawne)
- Biometria emocjonalna — rozpoznawanie emocji w miejscu pracy i edukacji (z wyjątkami medycznymi)
- Masowe rozpoznawanie twarzy — nieukierunkowane pobieranie wizerunków z internetu lub monitoringu w celu budowy baz danych
- Predykcyjne profilowanie kryminalne — ocena ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania
Poziom 2: Wysokie ryzyko
Systemy AI wysokiego ryzyka podlegają rygorystycznym wymogom, w tym:
- System zarządzania ryzykiem
- Zarządzanie danymi treningowymi
- Dokumentacja techniczna
- Rejestrowanie zdarzeń (logi)
- Transparentność i informowanie użytkowników
- Nadzór człowieka (human oversight)
- Dokładność, solidność i cyberbezpieczeństwo
Przykłady systemów wysokiego ryzyka:
- AI w rekrutacji i zarządzaniu pracownikami
- AI w ocenie zdolności kredytowej
- AI w diagnostyce medycznej
- AI w edukacji (ocenianie, przyjmowanie)
- AI w wymiarze sprawiedliwości
- AI w zarządzaniu infrastrukturą krytyczną
- AI w identyfikacji biometrycznej
Poziom 3: Ograniczone ryzyko
Systemy o ograniczonym ryzyku muszą spełniać obowiązki transparentności:
- Chatboty — użytkownik musi wiedzieć, że rozmawia z AI
- Deepfake — treści generowane przez AI muszą być oznaczone
- Systemy rozpoznawania emocji — użytkownik musi być poinformowany
- Systemy kategoryzacji biometrycznej — wymagają informowania
Poziom 4: Minimalne ryzyko
Większość systemów AI w użyciu należy do tej kategorii i nie podlega dodatkowym regulacjom:
- Filtry spamu
- Rekomendacje produktów (e-commerce)
- Optymalizacja tras (nawigacja)
- Automatyczna korekta tekstu
- Gry wideo z AI
Choć te systemy nie mają specjalnych obowiązków, dobrowolne stosowanie kodeksów postępowania jest zachęcane.
Jak sprawdzić kategorię swoich systemów?
Skorzystaj z naszego darmowego pre-audytu, który automatycznie klasyfikuje Twoje systemy AI do odpowiedniej kategorii ryzyka.
Sprawdź zgodność Twojej organizacji z AI Act
Darmowy pre-audyt zidentyfikuje ryzyka i luki compliance — w 5 minut.