AI Act nadchodzi. Praktyczne omówienie zmian

AI Act nadchodzi. Praktyczne omówienie zmian

Ekspert: Daniel Rybarczyk, RK RODO

Czy wizje z filmów science fiction, które oglądaliśmy z zapartym tchem, są już na wyciągnięcie ręki? Gdy w 2001 roku Steven Spielberg zaprezentował światu „A.I. Sztuczna Inteligencja”, wydawało się, że mówimy o odległej przyszłości. Dziś, w 2024 roku, sztuczna inteligencja stała się rzeczywistością, ale wraz z nią pojawiają się nowe wyzwania i pytania. Jak zmieni się nasze życie, gdy prawo zacznie regulować technologie, które jeszcze kilka lat temu były tylko wytworem wyobraźni? Odpowiedź może kryć się w nowych regulacjach prawnych, takich jak AI Act.

Prawo kontra technologia: AI Act wchodzi do gry

Podczas gdy technologia pędzi do przodu, prawo – co zdarza się rzadko – próbuje nadążyć. 13 marca 2024 roku Parlament Europejski przyjął AI Act, unijne rozporządzenie dotyczące sztucznej inteligencji. Jest to akt prawny działający bezpośrednio we wszystkich państwach członkowskich UE, podobnie jak RODO. Czy to rewolucja? Czy powinniśmy się bać? Raczej nie, ale na pewno warto przygotować się na nowe regulacje i zrozumieć, dlaczego AI Act jest potrzebny. Celem tego aktu jest przede wszystkim ochrona praw i wolności osób, co czyni go naturalnym sojusznikiem RODO.

Kto podlega nowym regulacjom? Zasięg i wpływ AI Act

AI Act nakłada wymogi prawne na każdy etap „życia” sztucznej inteligencji. Obejmuje to dostawców, importerów, dystrybutorów, użytkowników – zarówno tych profesjonalnych, jak i końcowych – oraz organy nadzorcze. Nie tylko firmy, które wprowadzają systemy AI na rynek, muszą liczyć się z nowymi obowiązkami, ale także wszyscy, którzy korzystają z tych technologii. Czy więc nawet prywatne używanie narzędzi, takich jak Chat GPT, stanie się trudniejsze? Na szczęście nie – AI Act wyłącza ze swojego zakresu stosowanie AI do celów osobistych poza pracą. Jednak, jeśli AI jest używana w firmie, trzeba będzie dokładnie przeanalizować nowe przepisy.

Zakazy i ograniczenia w korzystaniu z AI

Rozporządzenie wprowadza również szereg zakazów dotyczących wykorzystania sztucznej inteligencji. Mają one na celu ochronę jednostki przed działaniami, które mogą naruszać jej prawa i wolności. Na przykład, AI nie może być używana do manipulacji poprzez techniki podprogowe ani wykorzystywać słabości osób ze względu na ich wiek, niepełnosprawność czy sytuację społeczną. Zakazany jest także tzw. „model chiński”, czyli scoring społeczny, który mógłby prowadzić do dyskryminacji. Co więcej, AI nie może być stosowana do oceny emocji w miejscach pracy czy w szkołach. Oczywiście, jak to bywa z prawem, do każdego zakazu istnieją wyjątki, co może prowadzić do konieczności zasięgnięcia porady prawnej w przyszłości.

Systemy wysokiego ryzyka: nowe wyzwania dla biznesu

Najważniejszą częścią AI Act są tzw. systemy wysokiego ryzyka. To one będą podlegać najbardziej rygorystycznym regulacjom.

Przykłady?

  • systemy wykorzystane w celu oceny zdolności kredytowej osób fizycznych lub ustalenia ich punktowej oceny kredytowej,
  • systemy wykorzystane w celu podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy,
  • systemy stosowane do obsługi infrastruktury krytycznej,
  • systemy wykorzystywane do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych,
  • systemy do oceny uczniów w instytucjach edukacyjnych,
  • systemy wykorzystywane w rekrutacji do pracy,
  • systemy stosowane w celu podejmowania decyzji lub istotnego wpływania na podejmowanie decyzji w zakresie kwalifikowania się osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie.

Branże, które korzystają z takich systemów, jak banki, instytucje finansowe, agencje rekrutacyjne czy jednostki edukacyjne, muszą już teraz zastanowić się nad dostosowaniem się do nowych wymogów prawnych.

Co to znaczy dla firm? Obowiązki i sankcje

Wprowadzenie lub korzystanie z systemów wysokiego ryzyka będzie wymagało opracowania systemu zarządzania ryzykiem, zapewnienia wysokiej jakości danych do trenowania AI oraz zagwarantowania przejrzystości i możliwości nadzoru nad działaniem tych systemów przez człowieka. Ocena ryzyka stanie się kluczowym obowiązkiem, podobnie jak w przypadku RODO, gdzie ocena skutków dla ochrony danych (DPIA) stała się standardem.

Dla biznesu najważniejsza będzie kwestia odpowiedzialności. Kary za nieprzestrzeganie przepisów AI Act są surowe – mogą sięgać nawet 35 milionów euro lub 7% rocznego obrotu. Podobnie jak w przypadku RODO, przewidziane są też kary za podanie nieprawidłowych informacji organom nadzorczym.

Kiedy wejdą w życie nowe przepisy? Harmonogram wdrażania AI Act

Choć AI Act wszedł już w życie, jego pełne stosowanie zostało odroczone. Pierwsze przepisy zaczną obowiązywać za sześć miesięcy, kolejne za dwanaście, a ostatnia grupa regulacji dotyczących systemów wysokiego ryzyka dopiero po 36 miesiącach, czyli w sierpniu 2027 roku.

Technologia rozwija się w zawrotnym tempie, a sztuczna inteligencja wkracza w coraz więcej dziedzin naszego życia. AI Act jest próbą uregulowania tego dynamicznego sektora, ale wymaga od firm podjęcia szybkich i zdecydowanych kroków. Choć pełne wdrożenie przepisów może wydawać się odległe, firmy, które chcą pozostać konkurencyjne i zgodne z prawem, muszą już teraz zacząć przygotowania. Współpraca z prawnikami specjalizującymi się w nowych technologiach może okazać się niezbędna. Ignorowanie nadchodzących zmian to ryzyko, którego świadomy biznes nie powinien podejmować. AI Act to nie przyszłość – to rzeczywistość, która dzieje się tu i teraz.

Last Updated on 25 września, 2024 by Anastazja Lach