Plusy i minusy sztucznej inteligencji w medycynie
Sztuczna inteligencja to maszyna statystyczna. Już teraz może być przydatna w medycynie, ale trzeba uważać, bo zagrożeń jest sporo – przekonuje Jan Zygmuntowski, pracownik naukowy Akademii Leona Koźmińskiego w Warszawie. Pisze doktorat na temat umiejętnego łączenia zbiorów do trenowania Sztucznej Inteligencji tak, by uniknąć nadużyć.
W ciągu kilku lat sztuczna inteligencja (SI) bardzo zmieniła nasze funkcjonowanie, dla niektórych branż to niczym wynalezienie ognia. Co ten ogień może uczynić w medycynie? Byle nie pożar…
Zastosowania SI zaczynają się od bardzo spersonalizowanej profilaktyki bazującej na czyimś stanie zdrowia, z asystentami, którzy coś sugerują. Najlepiej rozwiniętą dziedziną jest wspomagana diagnostyka, czyli SI rozpoznająca obrazy rentgenowskie. Pliki są tutaj wystandaryzowane, podobne, nie jest to tak trudne, jak w przypadku ludzkiej mowy. Ponadto jest też wspomaganie w procesie terapii, np. lekarzy w czasie operacji, kiedy SI „sugeruje” coś. Ale algorytmy mają też zastosowanie w wynajdowaniu nowych leków, są pomocne w badaniach i rozwoju.
No dobrze, nie jest problemem nakarmienie algorytmu milionem zdjęć rentgenowskich i wtedy on faktycznie widzi więcej niż diagnosta. Ale jeśli sztuczna inteligencja wybiera z bazy wiedzy najbardziej prawdopodobne zdania, skleja je w całość, „halucynuje”, czyli tworzy nieprawdę, to widzę jednak zagrożenie, gdy słyszę, że SI być może zastąpi wywiad lekarski.
Moja pierwsza wypowiedź nie miała charakteru techno entuzjazmu. Raczej chciałem powiedzieć, że wszędzie można znaleźć dla SI jakąś rolę. Ale jak my tą rolą zarządzimy, to jest podstawowe pytanie naszej cywilizacji. Dobre jest wspomaganie lekarza w diagnostyce i robotyczne „oko”, które coś wyłapuje i sugeruje.
Jeśli mamy dużo danych zebranych na temat morfologii krwi i robot wyszukuje patterny – wzorce nieoczywiste, które umknęłyby człowiekowi, wspomaga w ten sposób pracę lekarza. Profesor Aleksandra Przegalińska z Akademii Leona Koźmińskiego nazywa to „kobotem”, czyli botem kooperatywnym. Ale zupełnie czymś innym jest wyrzucenie z procesu diagnostycznego człowieka, któremu trzeba odpowiednio zapłacić.
Pracowników w medycynie dramatycznie brakuje. Bot ma ich zastąpić. To niesie jednak ryzyko pomyłek. I tak jak w generowaniu tekstów te pomyłki są tylko śmieszne, tak w przypadku autonomicznych samochodów prowadzą do wypadków, a w medycynie mogą prowadzić do zagrożenia zdrowia pacjenta, a nawet do jego śmierci.
Kontynuując poprzednie pytanie, czy dobrze rozumuję: gdy będę chciała dowiedzieć się o np. raku nadnerczy i zadam botowi pytanie, on wyszuka wszystkie linki, sporządzi notatkę, która może być efektem jego „halucynacji”, czyli „zmyślenia”, choć on nie myśli.
Na obecnym etapie rozwoju SI, bot może „wymyśleć”. Rzeczywiście, mówi się o halucynowaniu botów. Im „wydaje” się, że dana odpowiedź brzmi prawdopodobnie, bo powtarza się najczęściej. W większości przypadków poradzi sobie dobrze i „powie” prawdę, powoła się na istniejące badania, ponieważ naczytał się ich w bazie, z której go uczyliśmy.
Ale w momencie, gdy trafi na coś, co wypada poza obszar głównego prawdopodobieństwa, jest duża szansa, że zacznie halucynować nieistniejącą diagnozę albo remedium na nią.
Dlatego boty specjalistyczne muszą być douczane na specjalistycznych zbiorach danych. Najpierw muszą rozumieć język, a później załadowujemy im wiedzę danej dziedziny. Ryzyko halucynacji jest zawsze. Tak samo jak w przypadku diagnosty – lekarza. Tylko tu ryzyko jest inne. Pacjentowi nie wystarczy powiedzieć: możesz dostać nieprawdziwą diagnozę. Taka informacja wpłynie negatywnie na jego myślenie. Tu potrzebne są regulacje.
Boty halucynują, łącząc autorów, źródła, postaci, opinie…
Generatywna Sztuczna Inteligencja jest czymś w rodzaju maszyny statystycznej. Z naszej branży wywodzi się popularny mem: na ścianie jest plama – statystyka. Ale jak ktoś powiesi nad nią ramkę z pięknym napisem „Sztuczna Inteligencja”, to nagle wszyscy myślą, że to dzieło sztuki. Tymczasem to zawsze jest tylko zautomatyzowany rozkład prawdopodobieństwa oparty o twierdzenie Bayesa. Gdy pytanie jest proste, powtarzalne, odnosi się do rzeczy, z którymi w przeszłości ludzie stykali się i wyprodukowali wiedzę na ten temat, botowi będzie łatwo znaleźć odpowiedź.
W każdym jednak temacie trochę bardziej skomplikowanym zawsze wygeneruje odpowiedź brzmiącą najbardziej prawdopodobnie. Nie ma wpisanej konieczności trzymania się prawdy, nawet nie da się tego wpisać, bo to oznaczałoby, że musiałby oceniać, co jest prawdą, a co nie. A do tego nie jest zdolny. W tym sensie boty wchodzące w zakres zdrowia, sterowania maszynami, prowadzenia samochodu, czy tam, gdzie wchodzi w grę ocena czyjejś kompetencji – było na przykład mnóstwo skandali związanych z ocenianiem CV – muszą mieć nad sobą człowieka. Wszędzie, gdzie jesteśmy na styku człowiek i jego zachowanie, kreatywność a maszyny, nasza wrodzona nieprzewidywalność, która jest źródłem kreatywności i godności człowieka, zawsze będzie działać jak wrzucanie piachu w tryby tej maszyny.
To zupełnie tak jak u Stanisława Lema – człowiek ze swoim humanizmem jednak zawsze na wierzchu. A wracając do medycyny: rzetelna informacja będzie droga, bo trzeba podjąć ogromny wysiłek, żeby ją stworzyć. Boję się, że SI umożliwi pojawienie się mnóstwa fejków medycznych. Bo bardzo łatwo będzie nakarmić algorytm treściami potrzebnymi np. szarlatanowi i algorytm będzie halucynował…
Tak będzie! Zapytanie algorytmu o coś, co brzmi dobrze, jest bardzo proste. Ale już problemem może być poproszenie go o dokonanie autentycznej kwerendy najnowszej wiedzy, której przecież wcale nie musi znać, bo ostatnio był „karmiony” rok temu.
Dlatego koszt stworzenia informacji, która brzmi prawdopodobnie, ale nie jest prawdziwa, dramatycznie obniżył się. Z kolei koszt pozyskiwania prawdy jest nadal drogi. Ostatnio ludzie są sieciowani przez media społecznościowe. One same spolaryzowały się, stały się bańkami informacyjnymi, bo to opłacało się twórcom platform. Od tamtej pory widzimy, że coraz łatwiej jest roznieść treść fejka, a teraz jeszcze coraz taniej jest wygenerować treść brzmiącą prawdopodobnie, choć jest fałszywa.
Z całą pewnością na to trzeba reagować. To nie jest żadna cenzura, lecz zdrowa regulacja. Prawda sama nie wybroni się, zrobią to ludzie, którzy będą pilnowali jej przestrzegania.
Wyłapywanie aktorów szerzących fałszywą informację jest niezbędne. Weźmy Jerzego Ziębę. Dla niego teraz koszt wytworzenia kolejnego „wiarygodnego” argumentu za czymś, co on sobie życzy, bardzo się obniży. Wchodzi sobie na czat GPT, wpisuje: „podaj mi 10 powodów, dla których lewoskrętna witamina C jest najlepszym sposobem leczenia raka”, i uzyska te odpowiedzi. One nie muszą być prawdziwe, wystarczy, że brzmią całkiem nieźle. I już może je przeklejać w tysiącach kopii w mediach społecznościowych itp.
Nie trzeba armii trolli internetowych. Ludzie będą coraz częściej sięgali po „autorytety” influencerów.
Mechanizmy, które pan przedstawił na przykładzie Zięby, tyczą się także koncernów. Łatwo sobie wyobrazić, że wielki koncern, choćby farmaceutyczny, nieuczciwy, wykupi sobie dostęp do czatu, poprosi sztuczną inteligencję o parę akapitów, dlaczego korzystanie z naszego leku jest super i rozsieje to w internecie.
Bez problemu to zrobi. Proszę zrozumieć, koszt dezinformacji obniża się dla wszystkich. Duże korporacje mogą tym grać, powtarzać swoje tezy do znudzenia. One nie będą brzmiały, jak bzdury. Za każdym razem będą to nowe zdania brzmiące inteligentnie. Do ich przygotowania koncerny potrzebowałyby sztabu marketingowego i pijarowego.
Wygląda na to, że obszar funkcjonowania sztucznej inteligencji to na razie grzęzawisko. Wyobraźmy sobie, że nauczymy SI stylu wypowiedzi jakiegoś znanego profesora medycyny. To nie jest wcale trudne.
Tak, oczywiście, wystarczy odpalić czat GTB, dać mu prompta, żeby symulując wypowiedź w stylu jakiejś osoby, napisał trzy akapity na zadany temat. Czat GTB bez problemu to zrobi. Jeśli w internecie były teksty tego profesora, posłuży się jego składnią i frazami. Parodiowanie czyjegoś stylu jest bezproblemowe.
Musimy wspomnieć, co jest szczególnie niebezpieczne w przypadku medycyny – SI nie łapie kontekstu słowa. Pan próbował uczyć algorytm kontekstu słowa „pies”. Nie szło to – gdy pan pytał kilkakrotnie, za każdym razem odpowiedź była inna.
Może to nie do końca chodzi o kontekst. W przypadku modelu językowego – tak samo działa to w przypadku obrazów – algorytm nie zna prawdziwego sensu słowa. On wyłącznie zapamiętuje, w jakich tekstach i kontekstach było umieszczane. Jeśli użyję jakiegoś słowa ironicznie, przewrotnie, w innym sensie, botowi ciężko będzie dopasować to słowo, do tego, co posiada w statystycznej bazie.
Mówiąc krótko, bot na obecnym etapie rozwoju jest mocno „autystyczny”.
Tak, a ponieważ halucynuje, będzie wolał skleić i utworzyć jakąś treść i dopiero, jeśli go skoryguję i powiem: „Nie, to nie jest to, co chciałem”, on dostaje informację, że zrozumiał w złym kontekście i teraz musi znaleźć nowy.
Dla mnie językowy model jest jak student pierwszego roku. Bardzo inteligentny, oczytany, ale cwaniak, który nie nauczył się na egzamin i płynie w czasie odpowiedzi ustnej. Jeśli egzaminator chce go przepuścić, zrobi to. Ale jeśli oczekuje ostrości myśli, to niestety student obleje. W modelach językowych nie znajdziemy ostrości myśli.
Za pomocą sztucznej inteligencji z łatwością można także manipulować ekonomią, szczególnie sprzedażą leków i suplementów diety…
W internecie szczególnie rozpowszechniła się ekonomia SEO. Skoro wiemy, że wyszukiwarki odsyłają do stron, które mają wiele wpisów na blogu, używających haseł – kluczy, których wyszukujemy, firmy tworzą sekcję blogową i zatrudniają kogoś, żeby naklepał 50 artykułów, używając tych kluczy. Treść nie ma większego znaczenia, potem to właśnie nam wyskakuje w przeglądarce. Wpiszmy np. „ból w prawej części brzucha, co znaczy”.
Pierwsze dwie, trzy strony otrzymamy od firm i portali, które najczęściej kopiują treści od siebie i są to treści, które nie za dużo nam powiedzą fachowo. Są tworzone po to, żeby przekierować użytkownika na stronę internetową, żeby wepchnąć mu jakiś suplement diety bądź lek, żeby rozbudzić jego lęki.
Źródło informacji: Serwis Zdrowie
Last Updated on 14 lutego, 2023 by Janusz Gil