Sztuczna inteligencja w rekrutacji pod lupą. Firmy będą musiały ujawnić użycie narzędzi AI i przeszkolić HR
Unijny AI Act wymusi na pracodawcach zmianę podejścia do sztucznej inteligencji w procesach HR. Narzędzia wykorzystujące AI do rekrutacji, selekcji kandydatów czy oceny pracowników zostały zakwalifikowane jako systemy wysokiego ryzyka. To oznacza dodatkowe obowiązki nie tylko dla dostawców takich rozwiązań, ale też dla firm, które je wdrażają. Od nadzoru człowieka i monitorowania działania systemu po przygotowanie zespołów HR do odpowiedzialnego korzystania z algorytmów.
Z ubiegłorocznych danych serwisu eRecruiter wynika, że wykorzystanie przez firmy rozwiązań opartych na sztucznej inteligencji w procesie rekrutacji wzrosło czterokrotnie od 2023 roku – do poziomu 25 proc. spośród prawie 500 badanych firm. Mimo tej dynamiki tylko 15 proc. z nich posiadało wewnętrzne wytyczne dotyczące etycznego wykorzystania technologii w rekrutacji. Aż 62 proc. nie podjęło jeszcze systemowych działań w tym zakresie.
Jak wynika z badania Polskiego Forum HR „HR Tech Changer 2025” przeprowadzonego na ponad 300 respondentach z branży, najczęściej narzędzia technologiczne wykorzystuje się do selekcji kandydatów, ich rekrutacji, oceny kompetencji, a także zarządzania bazą kandydatów.
– Sztuczną inteligencję wykorzystuje się w rekrutacji nie tylko do selekcji kandydatów, ale też na późniejszych etapach. Systemy są coraz częściej automatyzowane, niektóre zadania są powierzane technologiom, co usprawnia pracę działów HR i cały proces rekrutacji. W takich branżach jak chociażby przemysł, gospodarka magazynowa, gdzie na bieżąco trzeba uzupełniać potrzeby kadrowe, trudno sobie wyobrazić zarządzanie zasobami ludzkimi i procesem rekrutacji bez wykorzystania sztucznej inteligencji – mówi agencji Newseria Nadia Winiarska, ekspertka ds. zatrudnienia w Konfederacji Lewiatan. – Z perspektywy rynku pracy AI Act ma duże znaczenie, ponieważ wykorzystanie sztucznej inteligencji w systemach zarządzania zasobami ludzkimi, czyli systemach HR-owych, uznano za systemy wysokiego ryzyka, co wymaga dodatkowych działań.
AI Act stopniowo wkracza do rzeczywistości biznesowej
AI Act (rozporządzenie UE 2024/1689) to pierwszy w Unii Europejskiej kompleksowy zestaw zasad dla AI. Przepisy wchodzą w życie etapami. Rozporządzenie formalnie obowiązuje od 1 sierpnia 2024 roku, ale kluczowe wymogi rozłożono w czasie. Od 2 lutego 2025 roku stosuje się zakazy wybranych praktyk i przepisy ogólne (w tym dotyczące „AI literacy”). Od 2 sierpnia 2025 roku – część regulacji dotyczących modeli ogólnego przeznaczenia i ram nadzoru. Większość obowiązków (w tym dla systemów wysokiego ryzyka w HR) znajdzie zastosowanie od 2 sierpnia 2026 roku. Pełne „dociągnięcie” harmonogramu przewidziano rok później.
W załączniku III AI Act wskazano, że do kategorii wysokiego ryzyka należą m.in. systemy AI przeznaczone do rekrutacji lub selekcji. W tym narzędzia do konstruowania ogłoszeń, analizowania i filtrowania aplikacji oraz oceny kandydatów. Jak podkreśla ekspertka, w praktyce oznacza to m.in. konieczność lepszego monitorowania procesu wdrożenia i eksploatacji. Chodzi o zarządzanie systemem, monitorowanie działania oraz informowania o tym, że wykorzystujemy narzędzie AI. Zwłaszcza wtedy, gdy wspiera selekcję kandydatów i kandydatek. Pracodawca korzystający z takiego narzędzia będzie mieć obowiązek poinformowania osób, których to dotyczy, przed uruchomieniem lub użyciem systemu.
– Są tutaj też dodatkowe obowiązki dotyczące szkolenia personelu, który ma do czynienia z tymi systemami – podkreśla Nadia Winiarska.
Bezpieczniki dla systemów wysokiego ryzyka
AI Act akcentuje także jakość danych i ograniczanie uprzedzeń algorytmicznych: w przypadku systemów wysokiego ryzyka wymagane są praktyki zarządzania danymi (m.in. reprezentatywność zbiorów danych, wykrywanie i łagodzenie ryzyka stronniczości, tzw. biasu). To jeden z filarów regulacji w HR, gdzie ryzyko dyskryminacji jest szczególnie wrażliwe. Stronniczość może wynikać z natury algorytmów, które uczą się na istniejących już schematach, również takich, które mogą być krzywdzące. Jak wskazują eksperci eRecruiter, przykładowo, jeśli na danym stanowisku historycznie zatrudniano w większości mężczyzn, algorytm może domyślnie odrzucać kobiety, aby wpisać się w ten schemat.
– Sztuczna inteligencja w rekrutacji jest narzędziem wspierającym, natomiast jednocześnie warto pamiętać o tym, aby te nowe narzędzia wykorzystywać odpowiedzialnie, żeby AI nie powodowała zachowań niepożądanych, czyli na przykład dyskryminacji – wskazuje ekspertka Konfederacji Lewiatan. – Znane są przypadki, kiedy błędne algorytmy w procesie rekrutacji prowadziły właśnie do dyskryminacji, faworyzowania niektórych kandydatów lub kandydatek, których CV miały jakieś wspólne cechy.
Badanie Polskiego Forum HR wskazuje, że 29 proc. spośród 300 respondentów branży uważa, że błędy algorytmiczne i stronniczość AI są największym wyzwaniem w obszarze stosowania HR Tech. 19 proc. obawia się halucynacji AI.
Przeczytaj także: Robot mnich w Japonii. Czy AI zastąpi duchownych?
Źródło: biznes.newseria.pl
Last Updated on 4 marca, 2026 by Krzysztof Kotlarski