AI w rekrutacji i HR coraz częściej wykorzystywana jest do selekcji kandydatów, analizy CV, oceny pracowników czy monitorowania efektywności pracy, jednak wraz z wejściem w życie AI Act korzystanie z takich narzędzi zaczyna podlegać konkretnym obowiązkom prawnym. Dla pracodawców oznacza to konieczność oceny, czy wykorzystywane systemy nie stanowią systemów wysokiego ryzyka oraz czy procesy HR zostały odpowiednio dostosowane do nowych wymogów compliance.
Spis treści
- Czym jest AI Act?
- Dlaczego AI w HR jest szczególnie wrażliwym obszarem?
- System wysokiego ryzyka AI w rekrutacji i HR
- Czy AI może samodzielnie decydować o zatrudnieniu?
- Human oversight – co oznacza w praktyce?
- AI literacy – nowy obowiązek pracodawców
- Zakazane zastosowania AI w miejscu pracy
- Monitoring pracowników AI – na co musi uważać pracodawca?
- AI a ryzyko dyskryminacji kandydatów
- AI Act HR – jakie obowiązki mogą dotyczyć pracodawcy?
- Czy pracownik powinien wiedzieć, że jest oceniany przez AI?
- Projekt polskiej ustawy o systemach sztucznej inteligencji
- Harmonogram wejścia AI Act – najważniejsze daty
- AI compliance pracodawcy – jak przygotować organizację do AI Act?
- AI w rekrutacji i HR – co to oznacza dla przedsiębiorców?
- AI w rekrutacji i HR – podsumowanie
- FAQ – najczęstsze pytania na temat: AI w rekrutacji i HR
Czym jest AI Act?
AI Act, czyli rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, to pierwsza kompleksowa regulacja dotycząca sztucznej inteligencji w UE. Rozporządzenie opiera się na analizie ryzyka – im większy wpływ systemu AI na prawa i sytuację człowieka, tym więcej obowiązków nakłada na organizację.
Dla pracodawców najważniejsze znaczenie mają przepisy dotyczące systemów wysokiego ryzyka, transparentności, human oversight oraz AI literacy. Obszar HR został uznany za szczególnie wrażliwy, ponieważ AI może wpływać na dostęp do zatrudnienia, ocenę pracowników, awanse czy warunki pracy.
Dlaczego AI w HR jest szczególnie wrażliwym obszarem?
Systemy AI wykorzystywane w HR mogą wpływać na decyzje dotyczące zatrudnienia, awansów, wynagrodzenia czy monitorowania pracowników. Dlatego pracodawca powinien analizować zgodność takich narzędzi nie tylko z AI Act, ale również z RODO, prawem pracy i zasadą równego traktowania.
System wysokiego ryzyka AI w rekrutacji i HR
AI Act wprost obejmuje systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami oraz dostępu do samozatrudnienia. Jeżeli narzędzie służy do rekrutacji, selekcji kandydatów, filtrowania aplikacji, oceny osób ubiegających się o pracę albo wspierania decyzji kadrowych, co do zasady należy zakładać, że podlega reżimowi systemu wysokiego ryzyka AI, chyba że w konkretnym przypadku spełnione są przesłanki wyłączenia przewidziane w AI Act.
Nie każde narzędzie wykorzystywane przez dział HR automatycznie będzie jednak systemem wysokiego ryzyka. Znaczenie ma jego rzeczywista funkcja oraz wpływ na sytuację kandydata albo pracownika. Inaczej należy oceniać system, który wyłącznie pomaga przygotować neutralny opis stanowiska, a inaczej narzędzie ATS z modułem AI, które szereguje kandydatów, odrzuca aplikacje albo przypisuje kandydatom wynik dopasowania do stanowiska.
Przykładowo, ATS porządkujący aplikacje według daty wpływu będzie oceniany inaczej niż system automatycznie rankingujący kandydatów albo rekomendujący odrzucenie części aplikacji. Im większy wpływ AI na wynik rekrutacji, tym większe znaczenie mają obowiązki związane z transparentnością i nadzorem człowieka.
Szczególnej analizy wymagają przede wszystkim narzędzia do selekcji CV, scoringu kandydatów, automatycznej oceny rozmów rekrutacyjnych, monitoringu efektywności pracy oraz wspierania decyzji kadrowych.

Czy AI może samodzielnie decydować o zatrudnieniu?
To jedno z najważniejszych pytań praktycznych.
AI Act nie zakazuje całkowicie wykorzystywania AI przy podejmowaniu decyzji kadrowych, ale wymaga zapewnienia realnego nadzoru człowieka nad systemem.
Szczególnie ryzykowne może być całkowite zautomatyzowanie procesu rekrutacji lub oceny pracowników.
Jeżeli system AI samodzielnie odrzuca kandydatów bez realnej kontroli człowieka, pojawia się ryzyko naruszenia AI Act, RODO, zasady równego traktowania oraz obowiązków dotyczących transparentności decyzji. Niezależnie od AI Act pracodawca powinien również przeanalizować ograniczenia wynikające z art. 22 RODO dotyczącego zautomatyzowanego podejmowania decyzji. W praktyce taki model może być szczególnie problematyczny w razie skargi kandydata albo sporu dotyczącego dyskryminacji w zatrudnieniu.
Human oversight – co oznacza w praktyce?
Human oversight oznacza obowiązek zapewnienia rzeczywistego nadzoru człowieka nad systemami AI wysokiego ryzyka. Rekruter lub pracownik HR powinien rozumieć sposób działania systemu i mieć możliwość zakwestionowania rekomendacji algorytmu.
Nie wystarczy więc formalne zatwierdzanie wyniku wygenerowanego przez AI. Osoba odpowiedzialna za proces powinna rozumieć sposób działania systemu i możliwość jego błędów.
W praktyce organizacje powinny wdrażać procedury kontroli decyzji AI, dokumentować interwencje człowieka oraz szkolić osoby korzystające z systemów AI.
AI literacy – nowy obowiązek pracodawców
AI literacy oznacza kompetencje związane ze świadomym korzystaniem z systemów AI. Pracownicy HR powinni rozumieć ograniczenia systemów, ryzyka algorytmiczne oraz wiedzieć, kiedy konieczna jest ingerencja człowieka.
W obszarze HR ma to szczególne znaczenie, ponieważ błędna interpretacja wyniku wygenerowanego przez system może prowadzić do dyskryminacji lub wadliwych decyzji kadrowych.
Zakazane zastosowania AI w miejscu pracy
AI Act przewiduje zakazy dotyczące niektórych zastosowań AI. Szczególnie ryzykowne są systemy analizujące emocje kandydatów lub pracowników na podstawie mimiki, głosu albo danych biometrycznych.
Szczególnie ostrożnie należy podchodzić do narzędzi oceniających emocje, stres lub zachowanie pracowników.

Monitoring pracowników AI – na co musi uważać pracodawca?
Coraz więcej organizacji wykorzystuje AI do monitorowania aktywności i efektywności pracy. Takie systemy mogą analizować czas pracy, aktywność w systemach firmowych albo sposób wykonywania obowiązków.
Pracodawca powinien jednak analizować zgodność takich działań nie tylko z AI Act, ale również z RODO i Kodeksem pracy. Kluczowe znaczenie ma proporcjonalność monitoringu, zakres zbieranych danych oraz obowiązki informacyjne wobec pracowników.
AI a ryzyko dyskryminacji kandydatów
Jednym z największych problemów praktycznych jest ryzyko dyskryminacji algorytmicznej. System AI może preferować określone grupy kandydatów albo powielać uprzedzenia obecne w danych treningowych.
Ryzyko to może wystąpić nawet wtedy, gdy pracodawca nie ma zamiaru nikogo dyskryminować. Jeżeli historyczne dane były obciążone określonymi schematami, system może je utrwalać.
AI Act HR – jakie obowiązki mogą dotyczyć pracodawcy?
Zakres obowiązków zależy od roli organizacji. Typowy pracodawca korzystający z gotowego narzędzia HR tech najczęściej będzie podmiotem wdrażającym system AI, czyli podmiotem, który używa systemu we własnej organizacji. Nie oznacza to jednak braku odpowiedzialności. Nawet jeżeli dostawcą technologii jest zewnętrzna firma, pracodawca powinien wiedzieć, do czego system jest wykorzystywany, jaki ma wpływ na decyzje HR oraz czy jego stosowanie nie narusza praw kandydatów lub pracowników.
W niektórych sytuacjach organizacja może mieć szerszą rolę, np. gdy samodzielnie modyfikuje system albo integruje go z własnymi procesami.
Najważniejsze obowiązki compliance
| Obowiązek | Znaczenie praktyczne |
| analiza ryzyka | identyfikacja wpływu AI na prawa pracowników |
| human oversight | nadzór człowieka nad decyzjami AI |
| dokumentacja | dokumentowanie wykorzystania systemu |
| AI literacy | szkolenia dla HR i managementu |
| transparentność | informowanie o użyciu AI |
| cyberbezpieczeństwo | zabezpieczenie systemów AI |
| governance | procedury i polityki AI |
W praktyce coraz częściej konieczne będzie stworzenie wewnętrznych procedur AI governance obejmujących polityki HR, dokumentację RODO i zasady korzystania z narzędzi AI.
Czy pracownik powinien wiedzieć, że jest oceniany przez AI?
W wielu przypadkach tak. AI Act opiera się na zasadzie transparentności, dlatego kandydaci i pracownicy powinni wiedzieć, że w procesach HR wykorzystywane są systemy AI.
Znaczenie mają tutaj również obowiązki wynikające z RODO i prawa pracy.
Projekt polskiej ustawy o systemach sztucznej inteligencji
Polska przygotowała rządowy projekt ustawy o systemach sztucznej inteligencji, który ma zapewnić stosowanie AI Act na poziomie krajowym. Projekt wpłynął do Sejmu 09.04.2026 r. jako druk nr 2443 i został skierowany do dalszych prac parlamentarnych.
Projekt przewiduje utworzenie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI), która ma pełnić funkcję krajowego organu nadzoru nad systemami AI.

Harmonogram wejścia AI Act – najważniejsze daty
AI Act stosowany jest etapami.
Najważniejsze terminy dla pracodawców
| Termin | Znaczenie |
| luty 2025 r. | wejście zakazów dotyczących niedopuszczalnych praktyk |
| sierpień 2025 r. | część obowiązków dotyczących GPAI |
| sierpień 2026 r. | wejście większości obowiązków dla systemów wysokiego ryzyka |
| sierpień 2027 r. | stosowanie części obowiązków dotyczących wybranych systemów wysokiego ryzyka powiązanych z produktami lub regulacjami sektorowymi |
Dla działów HR oznacza to, że okres 2025-2026 powinien zostać wykorzystany na przygotowanie organizacji do nowych wymagań.
AI compliance pracodawcy – jak przygotować organizację do AI Act?
Pracodawcy powinni przeanalizować wykorzystywane systemy AI, ocenić ich wpływ na kandydatów i pracowników oraz wdrożyć podstawowe procedury compliance. Warto również zweryfikować umowy z dostawcami HR tech i przeszkolić działy HR oraz menedżerów.
AI w rekrutacji i HR – co to oznacza dla przedsiębiorców?
AI może usprawniać procesy HR, ale jednocześnie generuje istotne ryzyka prawne i compliance. Największe znaczenie mają transparentność, kontrola człowieka, przeciwdziałanie dyskryminacji oraz bezpieczeństwo danych.
AI w rekrutacji i HR – podsumowanie
AI w rekrutacji i HR staje się jednym z najważniejszych obszarów regulacyjnych związanych ze sztuczną inteligencją. Systemy wykorzystywane do selekcji kandydatów, monitorowania pracowników czy podejmowania decyzji kadrowych mogą zostać uznane za systemy wysokiego ryzyka w rozumieniu AI Act.
Dla pracodawców oznacza to konieczność wdrożenia nowych mechanizmów compliance, w tym zasad human oversight, AI literacy, procedur transparentności i kontroli ryzyka.
Szczególnie istotne jest również monitorowanie polskich przepisów wdrożeniowych. Organizacje, które wcześniej przygotują procedury i governance AI, mogą łatwiej ograniczyć ryzyko prawne i organizacyjne.
Czy Twoja firma jest gotowa na AI Act w HR?
Jeżeli Twoja firma wykorzystuje AI w rekrutacji, ocenie kandydatów albo monitoringu pracowników, warto sprawdzić, czy stosowane narzędzia spełniają wymagania AI Act.
Kancelaria CGO Legal wspiera pracodawców w analizie ryzyk związanych z wykorzystaniem AI w zatrudnieniu, przygotowaniu procedur compliance oraz dostosowaniu procesów HR do wymogów AI Act i RODO. Skontaktuj się z nami.
FAQ – najczęstsze pytania na temat: AI w rekrutacji i HR
1. Czy AI wykorzystywane w rekrutacji zawsze będzie systemem wysokiego ryzyka?
Nie zawsze. Kluczowe znaczenie ma funkcja systemu oraz jego wpływ na prawa kandydatów lub pracowników. Narzędzia wykorzystywane do selekcji kandydatów, scoringu CV, filtrowania aplikacji albo oceny pracowników co do zasady należy traktować jako potencjalne systemy wysokiego ryzyka, a w wielu przypadkach jako systemy, które będą podlegały temu reżimowi. Inaczej można ocenić narzędzia pomocnicze, które nie wpływają na decyzję o zatrudnieniu, np. system wspierający redakcję ogłoszenia o pracę.
2. Czy pracodawca może korzystać z AI do automatycznego odrzucania kandydatów?
Pełna automatyzacja decyzji kadrowych wiąże się z dużym ryzykiem prawnym. AI Act wymaga zapewnienia realnego nadzoru człowieka nad systemami wysokiego ryzyka, a dodatkowo znaczenie mogą mieć przepisy RODO dotyczące zautomatyzowanego podejmowania decyzji. Bezpieczniejszym modelem jest traktowanie AI jako narzędzia wspierającego rekrutera, a nie jako systemu samodzielnie przesądzającego o losie aplikacji.
3. Czy AI Act dotyczy tylko dużych firm technologicznych?
Nie. Obowiązki mogą dotyczyć również zwykłych przedsiębiorców korzystających z gotowych systemów AI w procesach HR. Pracodawca, który wdraża narzędzie AI do rekrutacji, monitoringu pracowników albo oceny efektywności, powinien sprawdzić, jaką rolę pełni na gruncie AI Act i jakie obowiązki są z tym związane.
4. Czy ATS z modułem AI podlega AI Act?
Może podlegać. Jeżeli ATS jedynie porządkuje aplikacje lub ułatwia ich obsługę administracyjną, ryzyko będzie niższe. Jeżeli jednak system automatycznie ocenia kandydatów, tworzy ranking, przypisuje im wynik dopasowania albo rekomenduje odrzucenie aplikacji, należy przeanalizować go jako potencjalny system wysokiego ryzyka AI w obszarze zatrudnienia.
5. Czy mała firma też musi przygotować procedury AI?
Tak, jeżeli korzysta z narzędzi AI w procesach HR. AI Act nie ogranicza obowiązków wyłącznie do dużych pracodawców. Zakres wymaganych działań zależy od roli organizacji, rodzaju systemu i skali ryzyka, ale nawet mniejsza firma powinna wiedzieć, jakie narzędzia AI wykorzystuje, kto za nie odpowiada i czy kandydaci lub pracownicy są odpowiednio informowani.
6. Czy pracodawca musi informować kandydatów o wykorzystaniu AI?
W wielu przypadkach tak. AI Act przewiduje obowiązki transparentności, a znaczenie mają również przepisy RODO i prawa pracy. Kandydat powinien wiedzieć, że w procesie rekrutacji wykorzystywane jest narzędzie AI, zwłaszcza jeżeli wpływa ono na ocenę aplikacji, ranking kandydatów albo rekomendację dotyczącą dalszego udziału w rekrutacji.
7. Czy AI może być wykorzystywane do monitorowania pracowników?
Tak, ale wymaga analizy zgodności z AI Act, RODO i przepisami prawa pracy. Monitoring pracowników AI powinien być proporcjonalny, uzasadniony i transparentny. Szczególnie problematyczne mogą być systemy analizujące emocje, dane biometryczne, zachowania psychologiczne albo aktywność pracownika w sposób nadmiernie ingerujący w prywatność.
8. Kiedy zaczynają obowiązywać przepisy AI Act dotyczące HR?
Część zakazów obowiązuje od lutego 2025 r., natomiast większość obowiązków dotyczących systemów wysokiego ryzyka zacznie obowiązywać od sierpnia 2026 r. Część regulacji będzie stosowana etapowo również później, dlatego pracodawcy powinni już teraz przygotować procesy HR, dokumentację i procedury kontroli systemów AI.
