Sztuczna inteligencja jako lekarz. Dlaczego chatboty mylą się w połowie diagnoz?
Wyobraź sobie, że otrzymujesz niepokojącą diagnozę i szukasz wsparcia u wirtualnego asystenta. Wpisujesz pytanie o alternatywne metody leczenia, a po chwili otrzymujesz profesjonalną odpowiedź z przypisami. Brzmi to bardzo wiarygodnie, jednak rzeczywistość bywa brutalna. Najnowsze badanie opublikowane w czasopiśmie BMJ Open pokazuje, że sztuczna inteligencja generuje błędne lub problematyczne odpowiedzi medyczne w połowie przypadków. Naukowcy przetestowali pięć narzędzi, w tym ChatGPT i Gemini, poddając je rygorystycznemu testom wytrzymałościowym. Najgorzej w zestawieniu wypadł model Grok, który podawał błędne informacje w aż 58% przypadków.
Wyniki analizy są alarmujące dla każdego użytkownika szukającego porady w sieci. Eksperci ocenili blisko 20% odpowiedzi jako wysoce problematyczne. Ponieważ algorytmy opierają się na statystycznym prawdopodobieństwie słów, a nie na realnej wiedzy, często zmyślają fakty. Żadna testowana sztuczna inteligencja nie dostarczyła w pełni poprawnej listy źródeł naukowych. Użytkownik widzący estetyczne przypisy ma złudne poczucie bezpieczeństwa. W rzeczywistości linki te często prowadzą do prac naukowych, które nigdy nie powstały.
Dlaczego dochodzi do pomyłek?
Skuteczność technologii zależy w dużej mierze od dziedziny medycyny oraz sposobu zadawania pytań. Chociaż sztuczna inteligencja radzi sobie nieźle z nowotworami, wciąż popełnia błędy w co czwartej odpowiedzi. Największe problemy pojawiają się jednak w obszarze żywienia. Ponieważ modele te uczą się na danych z przypadkowych blogów, powielają internetowe mity. Co ciekawe, same algorytmy znają poprawną odpowiedź medyczną w 95% przypadków. Jednak gdy do rozmowy wkracza człowiek z niedokładnie sformułowanym pytaniem, skuteczność diagnozy spada do zaledwie 35%.
Problemem jest również brak konkretnych danych medycznych w zapytaniach. Badania opublikowane w Jama Network Open dowodzą, że chatboty zawodzą w 80% przypadków, gdy znają tylko wiek i objawy pacjenta. Natomiast ich dokładność wzrasta powyżej 90%, gdy otrzymają konkretne wyniki badań laboratoryjnych. Zatem błędy wynikają często z faktu, że użytkownicy oczekują diagnozy na podstawie zbyt ogólnych opisów. Bez twardych danych medycznych algorytm zaczyna „zgadywać”, co prowadzi do niebezpiecznych halucynacji językowych.
Jak bezpiecznie korzystać z chatbotów?
Pomimo licznych błędów, eksperci nie radzą rezygnować z nowoczesnych asystentów. Odpowiednio zaprogramowana sztuczna inteligencja może być bowiem świetnym wsparciem w podsumowaniu trudnych tematów. Pomoże ona również przygotować listę pytań przed wizytą u lekarza. Jednak nigdy nie powinniśmy traktować maszyn jako ostatecznej wyroczni medycznej. Każda informacja o zdrowiu znaleziona w sieci wymaga weryfikacji u specjalisty. Prawdziwy lekarz bierze bowiem pod uwagę wyniki badań i historię choroby, czego algorytm nie potrafi zrobić bezbłędnie bez Twojego wsparcia.
Warto zachować czujność, gdy odpowiedź brzmi niezwykle pewnie, ale nie zawiera żadnych ostrzeżeń. Podsumowując, technologie te nie znikną z naszego życia i będą się dynamicznie rozwijać. Zatem naszą najlepszą obroną jest edukacja i krytyczne podejście do cyfrowych treści. Pamiętajmy, że każda sztuczna inteligencja to tylko model językowy, a nie dyplomowany medyk. Traktujmy przypisy jako luźne sugestie do sprawdzenia, a nie jako twarde fakty naukowe. Tylko takie podejście pozwoli nam uniknąć niebezpiecznych pomyłek w dbaniu o własne zdrowie.
Przeczytaj także: Automatyzacja pracy według szefa Nvidii. Będziemy bardziej zajęci?
Opracowanie na podstawie: theconversation.com
Last Updated on 23 kwietnia, 2026 by Karolina Bandulet