AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

REKLAMA
REKLAMA
Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.
- Rekrutacja w AI Act
- AI i przepisy
- Jakie są niebezpieczeństwa w HR?
- Obowiązki pracodawcy
- Które firmy będzie musi robić ocenę wpływu AI?
- Jakie są wrażliwe tematy?
- Pierwszy obowiązek: AI literacy
- Czy jest data startowa?
- Co dział HR powinien zrobić już teraz?
- Wnioski dla pracodawców
- FAQ. Pytania i odpowiedzi
- ŹRÓDŁA
Rekrutacja w AI Act
Tu nie ma wielkiego pola do interpretacji. W załączniku III AI Act jako obszar wysokiego ryzyka wymieniono systemy AI przeznaczone do rekrutacji lub selekcji osób, w tym do kierowania ogłoszeń o pracę, analizy i filtrowania aplikacji oraz oceny kandydatów. W tej samej kategorii mieszczą się też systemy używane do podejmowania decyzji wpływających na warunki pracy, awans, rozwiązanie współpracy, przydzielanie zadań czy monitorowanie i ocenę zachowania pracowników.
REKLAMA
REKLAMA
To oznacza, że problem nie dotyczy wyłącznie futurystycznych narzędzi do analizy twarzy czy głosu. W praktyce wystarczy zwykły system pomagający uporządkować kandydatów albo zasugerować, kto „najlepiej pasuje”, jeśli jego rola w procesie jest istotna.
AI i przepisy
Wielu pracodawców może założyć, że AI Act dotyczy głównie dostawców technologii. Tymczasem przepisy obejmują nie tylko twórców systemów, ale też podmioty, które takich narzędzi używają. Jeśli firma kupuje gotowy system do preselekcji kandydatów albo korzysta z platformy rekrutacyjnej z modułem AI, sama również może mieć obowiązki jako wdrożenie, czyli użytkownik systemu wysokiego ryzyka.
Z perspektywy HR to kluczowa zmiana. Ryzyko nie kończy się na pytaniu, czy dostawca deklaruje zgodność. Pracodawca też musi wiedzieć, jak narzędzie działa w praktyce i do czego realnie jest wykorzystywane.
REKLAMA
Jakie są niebezpieczeństwa w HR?
Najbardziej wrażliwe są dziś te sytuacje, w których AI nie jest tylko biernym wsparciem administracyjnym, ale wpływa na ocenę człowieka. Dotyczy to zwłaszcza narzędzi, które:
- filtrują lub rangają CV,
- automatycznie oceniają kandydatów,
- sugerują, kogo zaprosić do kolejnego etapu,
- wspierają decyzję o zatrudnieniu,
- analizują zachowanie, wydajność albo cechy pracownika,
- pomagają decydować o awansie, zadaniach albo zakończeniu współpracy.
Dla pracodawcy najważniejsze pytanie brzmi więc nie: „czy mamy AI?”, ale: „czy AI wpływa u nas na decyzje dotyczące ludzi?”
Obowiązki pracodawcy
Oficjalne omówienie art. 26 AI Act pokazuje, że użytkownicy systemów wysokiego ryzyka mają obowiązki wykraczające daleko poza samo „włączenie narzędzia”. Muszą korzystać z systemu zgodnie z instrukcją, zapewnić odpowiedni nadzór człowieka, monitorować działanie, zarządzać danymi wejściowymi, przechowywać logi przez co najmniej sześć miesięcy i informować dostawcę oraz właściwe organy o ryzykach lub poważnych incydentach. W środowisku pracy dochodzi jeszcze obowiązek poinformowania przedstawicieli pracowników i samych pracowników, gdy system jest używany w miejscu pracy.
To ważny sygnał dla firm: problemem może być nie tylko sam algorytm, ale też brak procedur po stronie HR i menedżerów.
Które firmy będzie musi robić ocenę wpływu AI?
Tu warto postawić granicę, bo wokół AI Act łatwo o przesadę. Nie każdy pracodawca korzystający z AI w HR automatycznie musi sporządzać formalną ocenę wpływu na prawa podstawowe. Z oficjalnego opisu art. 27 wynika, że ten obowiązek dotyczy przede wszystkim podmiotów publicznych i określonych prywatnych podmiotów świadczących usługi publiczne, zanim wdrożą niektóre systemy wysokiego ryzyka.
Dla zwykłej firmy prywatnej nie oznacza to jednak luzu. Nadal pozostają obowiązki dotyczące właściwego użycia systemu, nadzoru człowieka i kontroli ryzyka.
Jakie są wrażliwe tematy?
Szczególnie wrażliwym tematem są systemy rozpoznawania emocji w miejscu pracy. Komisja Europejska opublikowała wytyczne dotyczące praktyk zakazanych w AI Act, a równolegle przepisy przejrzystości pokazują, że rozpoznawania emocji to obszar traktowany wyjątkowo ostrożnie. Dla pracodawców to praktyczna wskazówka: eksperymenty z „czytaniem emocji” kandydatów lub pracowników mogą szybko wejść na bardzo ryzykowny grunt prawny.
Pierwszy obowiązek: AI literacy
Część firm patrzy na sierpień 2026 r. jak na odległą datę. Tymczasem AI Act już dziś nakłada obowiązek dbania o odpowiedni poziom kompetencji osób obsługujących i używających AI. Art. 4 przewiduje, że dostawcy i użytkownicy systemów AI powinni podejmować działania zapewniające wystarczający poziom AI literacy (umiejętność czytania i pisania) swoich pracowników i innych osób działających w ich imieniu.
W praktyce dla HR oznacza to tyle, że osoba korzystająca z narzędzia AI do preselekcji kandydatów nie powinna działać „na ślepo”. Firma powinna rozumieć podstawowe ryzyka, ograniczenia i wpływ takiego systemu na proces rekrutacji.
Czy jest data startowa?
Oficjalna oś czasu AI Act nadal pokazuje, że większość kluczowych zasad ma zacząć być stosowana od 2 sierpnia 2026 r., a pełne wdrożenie przewidziano do 2 sierpnia 2027 r. Jednocześnie w UE trwają prace nad możliwymi zmianami harmonogramu. To jednak nie zmienia najważniejszego wniosku dla biznesu: firmy HR i pracodawcy nie powinni zakładać, że temat sam się odsunie.
Dodatkowo w Polsce 31 marca 2026 r. Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji. To sygnał, że krajowy system nadzoru jest właśnie budowany, ale sam AI Act jako rozporządzenie UE działa niezależnie od tempa polskich prac legislacyjnych.
Co dział HR powinien zrobić już teraz?
Najrozsądniej zacząć od prostego przeglądu, a nie od wielkiego projektu compliance. Firma powinna ustalić:
- z jakich narzędzi AI korzysta w rekrutacji i HR,
- czy system filtruje, ocenia albo rang uje kandydatów,
- czy wpływa na decyzję o zatrudnieniu, awansie lub zakończeniu współpracy,
- kto nadzoruje jego działanie,
- czy rekruterzy i menedżerowie rozumieją ograniczenia tego narzędzia,
- czy firma ma procedurę na wypadek błędów, skarg i ryzyka.
Dopiero po takim przeglądzie można uczciwie odpowiedzieć, czy narzędzie jest tylko wsparciem administracyjnym, czy już elementem procesu, który wpada pod szczególny nadzór.
Wnioski dla pracodawców
Dla HR AI Act nie jest abstrakcyjną regulacją o modelach językowych. To prawo, które może dotknąć bardzo konkretnych narzędzi używanych już dziś: filtrów CV, systemów oceny kandydatów, platform wspierających decyzje kadrowe i narzędzi monitorujących pracowników. A skoro rekrutacja i zarządzanie pracownikami są wymienione w przepisach wprost, najgorszą strategią byłoby założyć, że „to jeszcze nie nasz problem”.
FAQ. Pytania i odpowiedzi
Czy AI do filtrowania CV może podpaść pod AI Act?
Tak. Załącznik III wprost wymienia systemy używane do analizy i filtrowania aplikacji oraz oceny kandydatów jako obszar wysokiego ryzyka.
Czy problem dotyczy tylko dużych korporacji?
Nie. Przepisy mogą objąć także średnie i mniejsze firmy, jeśli używają AI w rekrutacji, selekcji kandydatów albo zarządzaniu pracownikami.
Czy wystarczy, że dostawca systemu deklaruje zgodność?
Nie w pełni. Firma korzystająca z systemu też ma własne obowiązki, m.in. dotyczące nadzoru człowieka, monitorowania działania i używania systemu zgodnie z instrukcją.
Czy pracodawca musi szkolić osoby używające AI?
AI Act już dziś przewiduje obowiązek działań zapewniających odpowiedni poziom AI literacy osób korzystających z takich systemów.
Czy AI do rozpoznawania emocji w rekrutacji to dobry pomysł?
To bardzo ryzykowny kierunek. Komisja Europejska traktuje systemy rozpoznawania emocji w miejscu pracy jako obszar szczególnie wrażliwy, a wytyczne dotyczące praktyk zakazanych pokazują, że firmy powinny podchodzić do takich rozwiązań z najwyższą ostrożnością.
ŹRÓDŁA
Komisja Europejska - AI Act Service Desk, Annex III (employment, workers’ management and access to self-employment).
Komisja Europejska - AI Act Service Desk, Timeline for the Implementation of the EU AI Act.
Komisja Europejska - AI Act Service Desk, Article 26: Obligations of deployers of high-risk AI systems.
Komisja Europejska - AI Act Service Desk, Article 27: Fundamental rights impact assessment.
Komisja Europejska - AI Act Service Desk, Article 4: AI literacy.
Komisja Europejska - wytyczne dotyczące praktyk zakazanych.
KPRM / gov.pl - projekt ustawy o systemach sztucznej inteligencji przyjęty przez Radę Ministrów 31 marca 2026 r.
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.
REKLAMA



