HR na nowych zasadach w 2026. EU AI Act wprowadza rewolucję w podejściu do rekrutacji

HR na nowych zasadach w 2026. EU AI Act wprowadza rewolucję w podejściu do rekrutacji

Ekspert: Katarzyna Szudy z HR Contact.

Zarządzanie zasobami ludzkimi w organizacjach to złożony, wieloetapowy i wymagający proces. Nic dziwnego, że to właśnie działy HR i agencje rekrutacyjne najchętniej sięgają po rozwiązania oparte na sztucznej inteligencji. AI umożliwia nie tylko szybszą i dokładniejszą analizę CV kandydatów czy automatyzację dokumentacji, ale także rozpoznawanie i ocenę emocji podczas rozmów kwalifikacyjnych, a nawet wykorzystanie biometryki do identyfikacji cech chronionych. Tak szeroki zakres możliwości sprawił, że kwestie regulacji zastosowania AI, także w obszarze HR, znalazły się pod lupą Komisji Europejskiej. Efektem prac jest AI Act, który zacznie obowiązywać w sierpniu 2026 roku. Dla firm to ostatni dzwonek, by zrozumieć nadchodzące wymagania i dostosować strategie kadrowe do nowej rzeczywistości.

Branża HR od lat korzysta z narzędzi AI wspierających porządkowanie danych, analizę informacji i automatyzację procesów. Dziś jednak możliwości sztucznej inteligencji sięgają znacznie dalej niż tylko usprawnianie pracy ludzi. Technologia może wspierać podejmowanie decyzji personalnych, ale jednocześnie niesie ze sobą poważne ryzyka. Dlatego właśnie Komisja Europejska zdecydowała się na wprowadzenie jasnych ram prawnych regulujących wykorzystanie AI, szczególnie w kontekście zarządzania zasobami ludzkimi. – Automatyzacja od lat pomagała działom HR działać szybciej i efektywniej, ale dziś kluczowe staje się pytanie czy robimy to również bezpiecznie i zgodnie z prawem? Wraz z nowymi regulacjami firmy muszą nauczyć się myśleć o zgodności z przepisami już na etapie projektowania procesów – podkreśla Szymon Kluba z HR Contact.

AI Act jest odpowiedzią na niesamowitą ekspansję rozwiązań opartych na sztucznej inteligencji, które coraz silniej przenikają zarówno naszą codzienność, jak i życie zawodowe. To pierwsze na świecie tak kompleksowe rozporządzenie, obejmujące nie tylko technologie generatywne, lecz cały ekosystem systemów AI. Fundamentem aktu jest podział tych rozwiązań według stopnia potencjalnego wpływu na prawa i wolności człowieka. Rozwiązania sklasyfikowane jako „niedopuszczalne ryzyko” są całkowicie zakazane. Na przeciwnym biegunie znajdują się systemy o niskim poziomie ryzyka, które objęte są jedynie minimalnymi wymaganiami. Popularne w HR narzędzia wykorzystywane m.in. w procesach rekrutacyjnych, selekcji, oceny pracowników, przydzielaniu zadań czy monitorowaniu wydajności zostały zakwalifikowane jako systemy wysokiego ryzyka („high-risk”). Budzą one bowiem obawy związane z etyką, dyskryminacją i prywatnością, przez co wymagają szczególnych zabezpieczeń.

AI pod lupą

Nowe przepisy jasno określają, jakie działania należy podjąć oraz jakie standardy wdrożyć w działach HR. Punktem wyjścia powinien być szczegółowy audyt wykorzystywanych systemów AI, obejmujący ich inwentaryzację, analizę pochodzenia, dostawców, funkcjonalności oraz rodzaju przetwarzanych danych. Każde narzędzie oparte na sztucznej inteligencji musi przejść formalną ocenę ryzyka w konkretnych obszarach działania. Równocześnie wymagane jest wdrożenie systemów zarządzania ryzykiem, w tym cyklicznych przeglądów i aktualizacji. Nowością jest również obowiązek informowania osób, których dotyczą decyzje wspierane przez AI, o tym, że takie narzędzia zostały wykorzystane. Kandydaci i pracownicy powinni mieć dostęp do informacji, jakie czynniki miały wpływ na rekomendację lub decyzję systemu. Zgodnie z AI Act systemy AI muszą być dobrze udokumentowane, a każda podjęta przez nie istotna decyzja lub operacja możliwa do zidentyfikowania i zapisana. Same narzędzia powinny być także stale monitorowane i oceniane, a w przypadku wykrycia problemów organizacje mają obowiązek raportowania i wdrożenia działań naprawczych.

Jednym z kluczowych wymogów wynikających z nowych przepisów jest obowiązek zapewnienia nadzoru człowieka nad działaniem systemów AI. Firmy muszą wyznaczyć kompetentne osoby, które będą mogły interweniować, modyfikować lub jeśli zajdzie taka potrzeba odrzucać decyzje podejmowane przez algorytmy. Co istotne, rola decyzyjna człowieka musi być formalnie ujęta w wewnętrznych procedurach. To fundamentalna zmiana, która przywraca AI do roli narzędzia wspierającego człowieka, a nie decydującego za niego. Nasze doświadczenie potwierdza, że to słuszny kierunek, bo nawet najbardziej zaawansowane systemy nie zastąpią wiedzy, doświadczenia, wyczucia i intuicji ludzi – zauważa Szymon Kluba.

Aby sprawować skuteczny nadzór nad narzędziami opartymi na AI, zespoły HR oraz osoby odpowiedzialne za ich kontrolę muszą być regularnie szkolone w zakresie technologii, ryzyk (takich jak błędy systemowe czy dyskryminacja) oraz odpowiedzialności prawnej. Zgodnie z przepisami, odpowiedzialność spoczywa także na użytkownikach, gdyż to firmy będą odpowiadać za zgodność działań nie tylko własnych, ale również swoich partnerów. Warto więc weryfikować, czy dostawcy spełniają wymogi AI Act, posiadają pełną dokumentację i umożliwiają przeprowadzanie audytów. Dobrą praktyką będzie również zabezpieczenie się poprzez odpowiednie zapisy w umowach.

Od czego zacząć

Patrząc na listę nowych obowiązków eksperci podkreślają zgodnie, że jeśli chcemy skutecznie wdrożyć nowe przepisy, proaktywność jest kluczowa. – Choć nowe regulacje zaczną obowiązywać dopiero w sierpniu 2026 roku, rozpoczęcie przygotowań dopiero wtedy będzie bardzo ryzykowne. Tylko audyt narzędzi AI przeprowadzony z odpowiednim wyprzedzeniem pozwoli firmom dostosować się do AI Act bez ryzyka operacyjnego paraliżu – podkreśla Katarzyna Szudy z HR Contact.

Jakie kroki warto wdrożyć już teraz? Jeszcze na etapie audytu warto dokładnie zmapować wszystkie procesy, w których decyzje dotyczące kandydatów lub pracowników wspierane są przez systemy AI. Niezwykle istotna jest również analiza rodzaju przetwarzanych danych, a w szczególności danych wrażliwych. Aby spełnić wymagania regulacji, należy także opracować lub dostosować firmową politykę wykorzystania AI, uwzględniając m.in. zasady nadzoru ludzkiego, procedury bezpieczeństwa i zarządzania ryzykiem. Do 2 sierpnia organizacje powinny również nawiązać kontakt z dostawcami narzędzi opartych na AI i pozyskać pełną dokumentację techniczną niezbędną do spełnienia nowych obowiązków. Ostatnim, choć równie ważnym krokiem, jest przygotowanie pracowników, zwłaszcza tych, którzy będą odpowiedzialni za późniejszy nadzór nad technologią. Im wcześniej firma podejmie działania – samodzielnie lub z pomocą zaufanego partnera – tym łagodniejszy i mniej stresujący będzie cały proces dostosowania się do nadchodzących regulacji.

Pułapki, których warto unikać

Fundamentem dostosowania firmy do nowych przepisów jest rzetelny i szczegółowy audyt. Błędy popełnione na tym etapie mogą sporo kosztować, bo niewłaściwa klasyfikacja narzędzia AI jako „niskiego ryzyka”, mimo że faktycznie spełnia ono kryteria systemu wysokiego ryzyka, może uruchomić lawinę decyzji, które uniemożliwią pełną i zgodną z prawem implementację AI Act. Właśnie dlatego tak istotne jest, aby poświęcić wystarczająco dużo czasu i zasobów na zebranie rzetelnych, zgodnych z rzeczywistością danych. Nawet najlepiej przeprowadzony audyt nie wystarczy jednak, jeśli zabraknie odpowiednio przygotowanych ludzi – z jednej strony do nadzorowania zidentyfikowanych systemów, z drugiej do zbierania i analizowania niezbędnej dokumentacji, w tym zapisów modeli, danych treningowych, wyników testów oraz logów decyzyjnych. Jedną z najczęstszych pułapek podczas wdrażania AI Act jest nadmierne zaufanie do dostawców, lecz to nie oni ponoszą odpowiedzialność za zgodność systemu z regulacjami. Równie poważnym błędem jest zostawienie przygotowań na ostatnią chwilę, zwłaszcza że wdrożenie wymaganych zmian to proces czasochłonny i wieloetapowy.

Porządek, przejrzystość, przewaga

Choć AI Act istotnie zmienia podejście do narzędzi opartych na sztucznej inteligencji w branży HR i bywa postrzegany jako zbyt restrykcyjny zbiór wymogów, coraz więcej firm dostrzega w nim szansę na uporządkowanie procesów i bardziej świadome, odpowiedzialne wykorzystanie technologii. Dla całej branży to bez wątpienia moment redefinicji odpowiedzialności, jakości oraz przejrzystości działań HR. Nowe przepisy otwierają drogę do projektowania bardziej etycznych, transparentnych i zrównoważonych praktyk, które budują zaufanie kandydatów oraz pracowników. – Istotne jest jednak, by nie traktować regulacji jak jednorazowego projektu, ale jako stały proces podnoszenia jakości decyzji w HR. Naszą rolą jest pomóc firmom przejść cały proces i wykorzystać AI mądrze, tak, aby była narzędziem zwiększającym efektywność, a nie źródłem ryzyka – dodaje Katarzyna Szudy z HR Contact.

Być może tempo rozwoju technologii wkrótce zmusi prawodawców do wprowadzania kolejnych regulacji, ale wszystko wskazuje na to, że to właśnie AI Act zostanie zapamiętany jako punkt zwrotny, zmieniający na długo sposób korzystania z AI w HR i wielu innych branżach.

Przeczytaj także: Dostęp do infrastruktury energetycznej będzie w 2026 roku głównym driverem wartości gruntów

Last Updated on 20 lutego, 2026 by Anastazja Lach

TAGS