Jak bezpiecznie wdrażać AI w organizacji

Jak bezpiecznie wdrażać AI w organizacji

Niepewność związana z zastosowaniem sztucznej inteligencji balansuje z chęcią maksymalizowania korzyści. Wiele firm podejmuje decyzje o wdrożeniu w organizacji systemów wykorzystujących sztuczną inteligencję. Jednak często to pracownicy przejmują inicjatywę, inkorporując do codziennej pracy takie aplikacje. Implementacja narzędzi AI opierać się powinna na rozważeniu licznych aspektów, do których należą m.in. cele, zastosowania, zgodność z obowiązującymi przepisami, cyberbezpieczeństwo, zasoby ludzkie czy środki finansowe. Istotne jest zatem, aby wdrożenie w organizacji poprzedzone było procesem zbierania informacji dotyczących wymagań potencjalnych użytkowników, a także wprowadzeniem wewnętrznych regulaminów i wytycznych.

Traktując sztuczną inteligencję jako narzędzie do budowania przewagi konkurencyjnej firmy, warto poświęcić czas na wdrożenie zapewniające minimalizowanie zagrożeń, zarówno w obszarze IT, jak i prawnym. Systemy wykorzystujące mechanizmy sztucznej inteligencji wspierają szerokie spectrum działań organizacji, jak marketing, HR, R&D, kreowanie i wdrażanie produktów czy obsługa klienta. Intensywnie wzrasta także wykorzystywanie sztucznej inteligencji w tak newralgicznych sferach jak podejmowanie strategicznych dla firmy decyzji biznesowych, w tym finansowych.

Systemy oparte na sztucznej inteligencji, mimo swojego imponującego potencjału, nie są jednak pozbawione niedoskonałości. Świadomość ich ograniczeń jest pierwszym krokiem w kierunku bezpiecznego wdrożenia.

Zarządzanie zasobami ludzkimi vs. bias systemów

Firmy zaczęły wykorzystywać sztuczną inteligencję w obszarze zarządzania zasobami ludzkimi. Wsparcie procesów rekrutacji może skrócić czas ich trwania (np. poprzez szybką analizę potrzeb, kolejno weryfikację dużej liczby CV) i pozwolić na trafniejsze dopasowanie kandydatów. Duży potencjał identyfikowany jest także w sferze szkolenia pracowników. Personalizowanie i indywidualizacja potrzeb w tym zakresie jest niebywałym atutem.

Z drugiej strony, to działy HR, które mają dostęp do dużej ilości wrażliwych i poufnych danych, są obszarem, na przykładzie którego warto zwrócić uwagę na dwa problemy, a mianowicie „bias” (stronniczość) oraz kwestię ochrony danych osobowych.

AI może przetwarzać wprowadzone do niej uprzedzenia przy ocenie kandydatów i pracowników. Przykładem może być sytuacja, gdzie algorytmy preferowały kandydatów o określonej płci, co w efekcie prowadziło do dyskryminacji pozostałych. Takie „wpadki” mogą prowadzić do eliminacji pożądanych kandydatów w oparciu o nieistotny czynnik oceny. Poza tym, nieprawidłowości związane z gromadzeniem i przetwarzaniem danych osobowych mogą prowadzić do ryzyka naruszenia obowiązujących przepisów.

Podsumowując, należy monitorować wykorzystywane systemy pod kątem biasu, dbać o bezpieczeństwo w zakresie danych oraz tworzyć przejrzyste praktyki dotyczące rekrutacji i ewaluacji pracowników. Nie zapominając o integrowaniu wewnętrznych procesów i wytycznych np. z regulaminami innowacyjności czy regulaminami pracy.

Wsparcie procesów decyzyjnych vs. wyjaśnialność i transparentność

Analizowanie dużych ilości danych w krótkim czasie oraz sprawne identyfikowanie trendów i wzorców to działania, w których sztuczna inteligencja wyprzedza ludzkie możliwości. Jednocześnie, trwa dyskusja na temat etyki w kontekście sztucznej inteligencji, a konkretnie kwestii jej wyjaśnialności i transparentności. Przykładem problemu, na który należy zwrócić uwagę, jest zjawisko „czarnej skrzynki” (ang. „black box”), czyli systemu, którego działanie jest niezrozumiałe i niemożliwe do jednoznacznego wyjaśnienia przez człowieka.

Chociaż wydaje się, że powyższe problemy dotyczą głównie wątków technologicznych, nie mogą one być pomijane przez organizacje wykorzystujące konkretne narzędzia. Przykładowo, gdy zachodzi potrzeba wykazania w jaki sposób podejmowane przez przedsiębiorstwo były poszczególne decyzje, np. w procesie kredytowym. Nie zapominajmy też, że systemy są tak dobre jak dane, na których się opierają. Jeśli zatem dane te były nieprawidłowe lub obarczone wspomnianym wcześniej biasem, może okazać się, że podjęte na ich podstawie decyzje były błędne. W konsekwencji, podjęcie decyzji o zautomatyzowaniu niektórych procesów decyzyjnych powinno uwzględniać ludzki nadzór oraz kontrolę. Nawet dobrze przygotowane zapytanie („prompt”) do sztucznej inteligencji, nie zastąpi zaś lat doświadczeń w biznesie, szczegółowej wiedzy o firmie czy rozeznania w potrzebach klientów.

Sprawniejsze generowanie treści vs. halucynacje

Operując na wielu rynkach w świecie natychmiastowego dostępu do spersonalizowanych informacji, firmy szukają sposobów na usprawnienie w zakresie tworzenia różnego rodzaju treści – od analiz i raportów, po materiały promocyjne, bądź pomysł na produkt. Ogromna efektywność nie może przysłaniać sporego ryzyka braku kontroli nad treściami oraz tzw. „halucynacji” sztucznej inteligencji. O tych ostatnich mówimy, gdy algorytm nie znając lub nie będąc pewnym odpowiedzi na zadane pytanie, generuje nieprawdziwą informację.

Pracownik nieświadomy ograniczeń aplikacji, wykorzystuje wygenerowaną przez chatbota treść, nie weryfikując jej poprawności, co może doprowadzić do dotkliwych dla firmy konsekwencji. Szczególnie, że informacje te wydają się wiarygodne. Przekonali się o tym amerykańscy prawnicy, którzy zostali ukarani za powołanie się na fikcyjne wyroki sądowe w złożonym do sądu piśmie. Nie podjęli wysiłku weryfikacji treści wygenerowanych przez jeden z chatbotów, narażając się przy tym nie tylko na konsekwencje finansowe, ale i wizerunkowe.

Chociaż na tym etapie rozwoju AI nie udaje się w zupełności wyeliminować problemu „halucynacji”, użytkownicy nie pozostają bez żadnych możliwości obrony przed niewiarygodnością chatbotów. Edukacja w zakresie tworzenia precyzyjnych zapytań (promptów) oraz propagowanie ograniczonego zaufania do wygenerowanych przez sztuczną inteligencję treści, pozwalają w bezpieczniejszy sposób korzystać z dostępnych narzędzi. Przedsiębiorstwa powinny zadbać o wdrożenie mechanizmów kontroli jakości i nadzoru nad tworzonymi przez algorytm treściami.

Personalizowany marketing i sprzedaż vs. bańka informacyjna

Personalizowane reklamy czy rekomendacje to już standard w skutecznych kampaniach i poprawianiu doświadczenia klientów. Dodatkowo, przedsiębiorstwa ograniczają koszty wykorzystując automatyzację przy obsłudze klienta, np. poprzez zastosowanie chatbotów.

Otwierając serwis streamingowy, logując się ponownie do ulubionego sklepu czy korzystając z mediów społecznościowych, odbiorcy widzą treści, które niemal w całości dostosowane są do ich potrzeb czy światopoglądu. Z jednej strony, w kontekście zalewu informacji i danych, stanowi to ogromną zaletę, jednakże niesie za sobą także spore ryzyko związane w powstaniem tzw. bańki informacyjnej.

Firmy, chcąc pozostać wiarygodnymi i utrzymać zaufanie klientów, powinny zadbać o szacunek wobec prywatności, utrzymując personalizację w etycznych ramach. Także w tej przestrzeni, kluczowe jest wykorzystanie gromadzonych danych o klientach w sposób zgodny z obowiązującymi przepisami. W kontekście etyki nie zapominajmy także o sytuacjach, w których sztuczna inteligencja jest wykorzystywana w kontaktach z klientami czy pracownikami. Należyte poinformowanie, że wchodzą oni w interakcję z chatbotem, a nie człowiekiem, jest bezwzględną koniecznością.

Rozwój produktu vs. sztuczna inteligencja

Generatywne technologie stają się coraz bardziej twórcze i autonomiczne w kreowaniu nowych produktów lub rozwijaniu usług, a nawet we wspieraniu w tworzeniu wynalazków. Prowadzi to do przemodelowania podejścia do prawnego zabezpieczenia interesów firmy, zwłaszcza w sferze prawa autorskiego czy patentowego. Dla przedsiębiorców, którzy do budowania pozycji na rynku wykorzystują prawa własności intelektualnej, wpływ sztucznej inteligencji na ten obszar jest szczególnie interesujący.

Kluczowe jest zagadnienie dotyczące podejścia do osoby twórcy, które to po raz pierwszy stało się przedmiotem dyskusji za sprawą systemu Dabus. W dokonanych przez Stephena Thalera zgłoszeniach wynalazków, jako jedynego wynalazcę wskazano właśnie ten system. Z biegiem czasu pojawiły się kolejne próby nadania sztucznej inteligencji statusu twórcy, takie jak wnioski o zarejestrowanie w amerykańskim rejestrze praw autorskich utworów stworzonych przez aplikację o nazwie Midjourney.

Wpływ postępu technologicznego w zakresie sztucznej inteligencji na rozwój nowych rozwiązań o charakterze technicznym, w projektach badawczo-rozwojowych czy też na generowanie muzyki, obrazów i tekstu jest jednym z wielu wyzwań w kontekście prawa. Zastosowanie AI znacząco zwiększa ryzyko wykreowania dla firmy nowego produktu czy kampanii marketingowej na bazie cudzych utworów, w efekcie z naruszeniem cudzych praw. Zarazem spada możliwość ochrony własnych dzieł, które mogą być kluczowe dla przedsiębiorstwa, jak np. identyfikacja wizualna firmy stworzona przez sztuczną inteligencję.

Do tej pory większość urzędów, właściwych do rozpatrywania tego typu zgłoszeń, jednoznacznie staje na stanowisku, że na gruncie obecnie obowiązującego prawa, twórcą może być jedynie osoba fizyczna – człowiek. Zaczęto z ostrożnością odnosić się do określenia „utwór”. Dzieła stworzone przez systemy sztucznej inteligencji nie spełniają przesłanek prawnych i należy uznać je raczej za „wytwory”, których ochrona w świetle prawa autorskiego budzi wątpliwości. Dlatego warto poświęcić czas, ze wsparciem prawnym, dla wypracowania rozwiązań wewnętrznych i przeszkolenia pracowników, aby minimalizować ryzyka prawne związane z wykorzystywaniem nowych technologii.

Odpowiedzialność za naruszenia

O prawach własności intelektualnej w kontekście sztucznej inteligencji jest głośno także za sprawą coraz większej liczby pozwów dotyczących naruszeń praw wyłącznych. OpenAI, StabilityAI czy Meta to tylko kilka firm, przeciwko którym wniesiono pozwy o naruszenie praw autorskich. Sprawy te dotyczą w dużej mierze bezprawnego wykorzystania chronionych prawami autorskimi utworów do trenowania algorytmów. Pojawiają się jednakże także zarzuty dotyczące naruszenia praw ochronnych na znaki towarowe, jak w przypadku pozwu firmy Getty Images przeciwko Stability AI.

Kształtująca się na naszych oczach linia orzecznicza będzie miała znaczący wpływ na sposób w jaki trenowane i wykorzystywane są algorytmy. Przedsiębiorcy używający narzędzi opartych o sztuczną inteligencję powinni wykazać się dużą ostrożnością. Może się bowiem zdarzyć, że firma zostanie pociągnięta do odpowiedzialności za wygenerowane przez algorytm treści, naruszające istniejące prawa wyłączne.

Powszechny dostęp do aplikacji i systemów wykorzystujących sztuczną inteligencję stał się nieoczekiwanym przełomem. Tej rewolucji nie da się powstrzymać, dlatego zamiast zastanawiać się „czy”, należy skupić się na tym „jak bezpiecznie” wykorzystywać narzędzia oparte o sztuczną inteligencję we wspieraniu firm w działalności operacyjnej i strategicznej.


Małgorzata Furmańska, radca prawny JWP Rzecznicy Patentowi

Dorota Rzążewska, radca prawny, rzecznik patentowy, mediator JWP Rzecznicy Patentowi

Last Updated on 4 grudnia, 2023 by Anastazja Lach