<strong>Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję i nowoczesne technologie?</strong>

Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję i nowoczesne technologie?

AI jest coraz szerzej wykorzystywana przez biznes – już 56% firm korzysta z niej. To rodzi pytania natury ubezpieczeniowej, a kluczową kwestią jest ustalenie odpowiedzialności. Jak się zatem ubezpieczyć?

Pod koniec zeszłego roku 56% firm korzystało ze sztucznej inteligencji (AI), wynika z badania przeprowadzonego przez McKinsey[1]. To o 6 pkt procentowych więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27%), udoskonalenia produktów (22%), automatyzacji contact center (22%), optymalizacji produktów (20%) oraz zapobiegania awariom i ułatwiania interwencji (18%). Na dalszych miejscach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym, zabezpieczeniem mienia. Cel jest jasny, wzrost produktywności i efektywności procesów w organizacji. Wierzymy także, iż systemy AI pomogą nam rozwiązać problemy i osiągnąć cele, które dzisiaj wydają się  trudne do wykonania.

Jednak sama sztuczna inteligencja bez wątpienia stwarza też nowe zagrożenia w postaci przerw w działaniu systemów, generowania własnych zagrożeń cybernetycznych, choćby takich jak możliwość ingerencji osób trzech. Stąd też prace nad normatywną, całościową regulacją problematyki AI i jej wpływu na otaczającą rzeczywistość.

Kto jest odpowiedzialny za sztuczną inteligencję?

Mimo że funkcjonują już na rynku umowy ubezpieczenia, uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel systemu, jego twórca, podmiot wprowadzający i dostarczający dane?

Już jakiś czas temu UE przystąpiła do próby całościowego skodyfikowania problematyki AI przygotowując  Artificial Inteligence Act, który  projektuje m.in. podziały systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Co więcej, w 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt. Jednak w najnowszym projekcie dyrektywy z 28 września 2022 roku  (AI Liability Directive) odstąpiono od obowiązkowego ubezpieczenia systemów high risks. Ustalono, iż kwestia ta będzie monitorowana i jako taka będzie podlegała późniejszej ocenie pod kątem zasadności wprowadzenia powszechnego ubezpieczenia odpowiedzialności cywilnej. Nie oznacza to bynajmniej, iż problemu nie ma. Wyzwanie jest teraz po stronie rynku ubezpieczeniowego, co oznacza iż trzeba będzie przygotować odpowiednie produkty. Sam projekt dyrektywny porusza takie kwestie, jak związek przyczynowy pomiędzy działaniem systemu, a szkodą, co przekłada się na sposób dowodzenia. Projekt ten został przyjęty wspólnie z proponowanym liftingiem dyrektywy dotyczącej odpowiedzialności cywilnej za produkt. Została ona przyjęta w roku 1985 i bez wątpienia wymaga aktualizacji. Kwestie związane z nowoczesnymi technologiami należy zatem odczytywać wspólnie z tych dwóch projektów. Ten drugi bowiem porusza takie kwestie, jak definicjia produktu, usytuowanie oprogramowania i systemów AI w tym właśnie kontekście.

Mimo tych zmian sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić.

Jak na upowszechnienie AI reaguje rynek ubezpieczeń?

Z jednej strony ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii.

Wobec braku (jeszcze) odpowiednich norm prawnych, rynek ubezpieczeniowy wprowadza własne standardy. Choć i tu nie ma nadal jednolitych postanowień i pełnej zgody. Zgodnie z art. 826 kodeksu cywilnego ubezpieczony ma określone obowiązki prewencyjne. Jednak materializują się one dopiero w razie wypadku. Eksperci od prawa ubezpieczeniowego spierają się, więc czy nie dotyczy to również zabezpieczenia mienia przed szkodą i przed wystąpieniem szkody niejako wbrew literalnemu brzmieniu przepisu z powołaniem się na funkcję i cel umowy ubezpieczenia. Już samo nieprecyzyjne pojęcie wypadku stanowi problem z uchwyceniem czasowego zakresu materializacji obowiązku. Nowe technologie mogą z pewnością lepiej i dokładniej przewidzieć etap „przedwypadkowy”. Co zatem z sytuacją, w której wiemy, że do wypadku może dojść? Czy koszty zapobieżenia szkodzie powinny stanowić element umowy ubezpieczenia w formie świadczenie ubezpieczyciela? Umowa ubezpieczenia wykraczałby wtedy poza jej obecny charakter prawny, jakim jest udzielanie ochrony ubezpieczeniowej, czyli na „po” wypadku. Byłaby również umową, która wskutek doskonałości technologii nie materializowałaby zdarzenia, jakim jest wypadek ubezpieczeniowy lub też minimalizowałaby jego wystąpienie. Niestety wiele pytań pozostaje nadal otwartych do interpretacji.

Na koniec chciałbym jeszcze przywołać jedną ze spraw sądowych, która toczyła się w Stanach Zjednoczonych, gdzie wskutek działania algorytmu doszło do zwolnienia z aresztu osoby, która dzień później dokonała morderstwa. Na kanwie tego sporu rozstrzygano, czy tego typu oprogramowanie jest produktem i stwierdzono, że w tym konkretnym przypadku jednak nie. Warto jednak pamiętać, jakie potencjalnie zagrożenie może nieść wadliwe działanie podobnych systemów na szeroką skalę.  Już samo wyobrażenie zderzenia dwóch pojazdów autonomicznych każe zastanowić się nad charakterem i zasadami odpowiedzialności, a co dopiero tego typu sytuacje. Który system „zawinił”? A może odpowiedzialność solidarna? Ciekawych przypadków jest więcej. Co w sytuacji, w której przez oprogramowanie sterujące mechanizmami samochodu przez aktualizację aplikacji nie pochodzącej od producenta pojazdu, dojdzie do zmian w systemach zarządzających bezpieczeństwem pojazdu? Są to ciekawe i istotne rozważania, które z całą pewnością będą musiały znaleźć swoją odpowiedź i projektowane regulacje starają się na nie odpowiedzieć.


Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję i nowoczesne technologie?

Mateusz Bartoszcze, radca prawny, Zastępca Dyrektora Oddziału Kraków EIB SA.


[1] Źródło: https://www.mckinsey.com/business-functions/quantumblack/our-insights/global-survey-the-state-of-ai-in-2021

Last Updated on 16 stycznia, 2023 by Valeriia Honcharuk

KATEGORIA
TAGS