REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Dominik Kulig
Dziennikarz i redaktor specjalizujący się w tematyce społecznej, gospodarczej oraz nowych technologii.
AI w rekrutacji a AI Act. Co musi sprawdzić HR i pracodawca
AI w rekrutacji a AI Act. Co musi sprawdzić HR i pracodawca
Shutterstock

REKLAMA

REKLAMA

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

rozwiń >

Rekrutacja w AI Act

Tu nie ma wielkiego pola do interpretacji. W załączniku III AI Act jako obszar wysokiego ryzyka wymieniono systemy AI przeznaczone do rekrutacji lub selekcji osób, w tym do kierowania ogłoszeń o pracę, analizy i filtrowania aplikacji oraz oceny kandydatów. W tej samej kategorii mieszczą się też systemy używane do podejmowania decyzji wpływających na warunki pracy, awans, rozwiązanie współpracy, przydzielanie zadań czy monitorowanie i ocenę zachowania pracowników.

REKLAMA

REKLAMA

To oznacza, że problem nie dotyczy wyłącznie futurystycznych narzędzi do analizy twarzy czy głosu. W praktyce wystarczy zwykły system pomagający uporządkować kandydatów albo zasugerować, kto „najlepiej pasuje”, jeśli jego rola w procesie jest istotna.

AI i przepisy

Wielu pracodawców może założyć, że AI Act dotyczy głównie dostawców technologii. Tymczasem przepisy obejmują nie tylko twórców systemów, ale też podmioty, które takich narzędzi używają. Jeśli firma kupuje gotowy system do preselekcji kandydatów albo korzysta z platformy rekrutacyjnej z modułem AI, sama również może mieć obowiązki jako wdrożenie, czyli użytkownik systemu wysokiego ryzyka.

Z perspektywy HR to kluczowa zmiana. Ryzyko nie kończy się na pytaniu, czy dostawca deklaruje zgodność. Pracodawca też musi wiedzieć, jak narzędzie działa w praktyce i do czego realnie jest wykorzystywane.

REKLAMA

Jakie są niebezpieczeństwa w HR?

Najbardziej wrażliwe są dziś te sytuacje, w których AI nie jest tylko biernym wsparciem administracyjnym, ale wpływa na ocenę człowieka. Dotyczy to zwłaszcza narzędzi, które:

Dalszy ciąg materiału pod wideo
  • filtrują lub rangają CV,
  • automatycznie oceniają kandydatów,
  • sugerują, kogo zaprosić do kolejnego etapu,
  • wspierają decyzję o zatrudnieniu,
  • analizują zachowanie, wydajność albo cechy pracownika,
  • pomagają decydować o awansie, zadaniach albo zakończeniu współpracy.

Dla pracodawcy najważniejsze pytanie brzmi więc nie: „czy mamy AI?”, ale: „czy AI wpływa u nas na decyzje dotyczące ludzi?”

Obowiązki pracodawcy

Oficjalne omówienie art. 26 AI Act pokazuje, że użytkownicy systemów wysokiego ryzyka mają obowiązki wykraczające daleko poza samo „włączenie narzędzia”. Muszą korzystać z systemu zgodnie z instrukcją, zapewnić odpowiedni nadzór człowieka, monitorować działanie, zarządzać danymi wejściowymi, przechowywać logi przez co najmniej sześć miesięcy i informować dostawcę oraz właściwe organy o ryzykach lub poważnych incydentach. W środowisku pracy dochodzi jeszcze obowiązek poinformowania przedstawicieli pracowników i samych pracowników, gdy system jest używany w miejscu pracy.

To ważny sygnał dla firm: problemem może być nie tylko sam algorytm, ale też brak procedur po stronie HR i menedżerów.

Które firmy będzie musi robić ocenę wpływu AI?

Tu warto postawić granicę, bo wokół AI Act łatwo o przesadę. Nie każdy pracodawca korzystający z AI w HR automatycznie musi sporządzać formalną ocenę wpływu na prawa podstawowe. Z oficjalnego opisu art. 27 wynika, że ten obowiązek dotyczy przede wszystkim podmiotów publicznych i określonych prywatnych podmiotów świadczących usługi publiczne, zanim wdrożą niektóre systemy wysokiego ryzyka.

Dla zwykłej firmy prywatnej nie oznacza to jednak luzu. Nadal pozostają obowiązki dotyczące właściwego użycia systemu, nadzoru człowieka i kontroli ryzyka.

Jakie są wrażliwe tematy?

Szczególnie wrażliwym tematem są systemy rozpoznawania emocji w miejscu pracy. Komisja Europejska opublikowała wytyczne dotyczące praktyk zakazanych w AI Act, a równolegle przepisy przejrzystości pokazują, że rozpoznawania emocji to obszar traktowany wyjątkowo ostrożnie. Dla pracodawców to praktyczna wskazówka: eksperymenty z „czytaniem emocji” kandydatów lub pracowników mogą szybko wejść na bardzo ryzykowny grunt prawny.

Pierwszy obowiązek: AI literacy

Część firm patrzy na sierpień 2026 r. jak na odległą datę. Tymczasem AI Act już dziś nakłada obowiązek dbania o odpowiedni poziom kompetencji osób obsługujących i używających AI. Art. 4 przewiduje, że dostawcy i użytkownicy systemów AI powinni podejmować działania zapewniające wystarczający poziom AI literacy (umiejętność czytania i pisania) swoich pracowników i innych osób działających w ich imieniu.

W praktyce dla HR oznacza to tyle, że osoba korzystająca z narzędzia AI do preselekcji kandydatów nie powinna działać „na ślepo”. Firma powinna rozumieć podstawowe ryzyka, ograniczenia i wpływ takiego systemu na proces rekrutacji.

Czy jest data startowa?

Oficjalna oś czasu AI Act nadal pokazuje, że większość kluczowych zasad ma zacząć być stosowana od 2 sierpnia 2026 r., a pełne wdrożenie przewidziano do 2 sierpnia 2027 r. Jednocześnie w UE trwają prace nad możliwymi zmianami harmonogramu. To jednak nie zmienia najważniejszego wniosku dla biznesu: firmy HR i pracodawcy nie powinni zakładać, że temat sam się odsunie.

Dodatkowo w Polsce 31 marca 2026 r. Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji. To sygnał, że krajowy system nadzoru jest właśnie budowany, ale sam AI Act jako rozporządzenie UE działa niezależnie od tempa polskich prac legislacyjnych.

Co dział HR powinien zrobić już teraz?

Najrozsądniej zacząć od prostego przeglądu, a nie od wielkiego projektu compliance. Firma powinna ustalić:

  • z jakich narzędzi AI korzysta w rekrutacji i HR,
  • czy system filtruje, ocenia albo rang uje kandydatów,
  • czy wpływa na decyzję o zatrudnieniu, awansie lub zakończeniu współpracy,
  • kto nadzoruje jego działanie,
  • czy rekruterzy i menedżerowie rozumieją ograniczenia tego narzędzia,
  • czy firma ma procedurę na wypadek błędów, skarg i ryzyka.

Dopiero po takim przeglądzie można uczciwie odpowiedzieć, czy narzędzie jest tylko wsparciem administracyjnym, czy już elementem procesu, który wpada pod szczególny nadzór.

Wnioski dla pracodawców

Dla HR AI Act nie jest abstrakcyjną regulacją o modelach językowych. To prawo, które może dotknąć bardzo konkretnych narzędzi używanych już dziś: filtrów CV, systemów oceny kandydatów, platform wspierających decyzje kadrowe i narzędzi monitorujących pracowników. A skoro rekrutacja i zarządzanie pracownikami są wymienione w przepisach wprost, najgorszą strategią byłoby założyć, że „to jeszcze nie nasz problem”.

FAQ. Pytania i odpowiedzi

Czy AI do filtrowania CV może podpaść pod AI Act?

Tak. Załącznik III wprost wymienia systemy używane do analizy i filtrowania aplikacji oraz oceny kandydatów jako obszar wysokiego ryzyka.

Czy problem dotyczy tylko dużych korporacji?

Nie. Przepisy mogą objąć także średnie i mniejsze firmy, jeśli używają AI w rekrutacji, selekcji kandydatów albo zarządzaniu pracownikami.

Czy wystarczy, że dostawca systemu deklaruje zgodność?

Nie w pełni. Firma korzystająca z systemu też ma własne obowiązki, m.in. dotyczące nadzoru człowieka, monitorowania działania i używania systemu zgodnie z instrukcją.

Czy pracodawca musi szkolić osoby używające AI?

AI Act już dziś przewiduje obowiązek działań zapewniających odpowiedni poziom AI literacy osób korzystających z takich systemów.

Czy AI do rozpoznawania emocji w rekrutacji to dobry pomysł?

To bardzo ryzykowny kierunek. Komisja Europejska traktuje systemy rozpoznawania emocji w miejscu pracy jako obszar szczególnie wrażliwy, a wytyczne dotyczące praktyk zakazanych pokazują, że firmy powinny podchodzić do takich rozwiązań z najwyższą ostrożnością.

ŹRÓDŁA

Komisja Europejska - AI Act Service Desk, Annex III (employment, workers’ management and access to self-employment).
Komisja Europejska - AI Act Service Desk, Timeline for the Implementation of the EU AI Act.
Komisja Europejska - AI Act Service Desk, Article 26: Obligations of deployers of high-risk AI systems.
Komisja Europejska - AI Act Service Desk, Article 27: Fundamental rights impact assessment.
Komisja Europejska - AI Act Service Desk, Article 4: AI literacy.
Komisja Europejska - wytyczne dotyczące praktyk zakazanych.
KPRM / gov.pl - projekt ustawy o systemach sztucznej inteligencji przyjęty przez Radę Ministrów 31 marca 2026 r.

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Sztuczna inteligencja (AI)
AI też musi być odpowiedzialna. Co sztuczna inteligencja ma wspólnego z ESG?

ESG już dawno przestało być hasłem zastrzeżonym dla dużych spółek i działów sustainability. Dr Marcin Huczkowski, partner w kancelarii Fieldfisher Poland, wyjaśnia, dlaczego wdrażając AI nie można pominąć pytań o ślad węglowy, uprzedzenia zakodowane w algorytmach, odpowiedzialność za błędną poradę prawną czy prawa pracowników dotkniętych automatyzacją. I pokazuje, że te tematy mają już bardzo konkretny wymiar prawny.

AI w biznesie – praktyczne zastosowania w księgowości, kadrach i innych działach firmy

Sztuczna inteligencja coraz mocniej wchodzi do firmowej codzienności. Już nie tylko wspiera pisanie tekstów czy analizę danych, ale realnie usprawnia obieg dokumentów i całe procesy biznesowe. Narzędzia takie jak np. AMODIT Copilot, AskAI i AI OCR pomagają automatyzować zadania w finansach, HR, prawie, zakupach i IT, odciążając zespoły i przyspieszając pracę organizacji.

AI wychodzi już z centrów danych. Roboty z neuromorficznymi chipami odbierają bodźce w czasie rzeczywistym jak ludzki mózg i zmysły

Do 2028 r. globalne wydatki na infrastrukturę brzegową mają wzrosnąć z 261 mld do 380 mld dolarów, co jest konsekwencją zwiększającego się zapotrzebowania na inteligentne i energooszczędne rozwiązania do przetwarzania danych. Pomocne w zaspokojeniu tego wyzwania może być neuromorficzne podejście do obliczeń, które zaczyna „wypychać” sztuczną inteligencję poza centra danych, umożliwiając działanie jej mechanizmów bliżej źródeł informacji. Znajduje ono już zastosowanie w robotyce, medycynie, modelowaniu klimatu czy cyberbezpieczeństwie. Jednak, jak wskazują eksperci Vertiv, za rozwojem takich rozwiązań wciąż nie nadąża infrastruktura (zarówno sprzętowa, jak i programowa) potrzebna do ich wdrażania na większą skalę.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

REKLAMA

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

Test sztucznej inteligencji. Wiadomo, jak wypadły polskie modele AI

W pierwszym „polskim” teście dużych modeli językowych krajowe systemy AI, Bielik i PLLuM wypadły znacznie gorzej od globalnych narzędzi.

Prywatność i wizerunek a AI. Jak chronić dane w czasach nowych technologii?

Rozwój cyfrowy niesie za sobą szereg wyzwań związanych z ochroną naszych danych. Z czym wiąże się nieuprawnione wykorzystanie wizerunku? Jakie praktyczne problemy może stwarzać dla prywatności rozwój sztucznej inteligencji?

Czy zasady zawarte w Konstytucji RP chronią jednostkę przed stosowaniem sztucznej inteligencji?

Wprowadzenie SI do dziedzin życia, ma możliwości poprawy bezpieczeństwa i jakości życia jednostki. Jednak istniejące ryzyko naruszenia prywatności i bezpieczeństwa danych osobowych, zmusza do zapewnienia zgodności z prawem, przejrzystości działania systemów AI oraz ochrony wrażliwych danych, takich jak dane biometryczne.

REKLAMA

Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA