Prompting: Dlaczego nadawanie ról AI psuje wyniki badań?

Prompting: Dlaczego nadawanie ról AI psuje wyniki badań?

Wiele osób wierzy, że nadanie modelowi konkretnej roli poprawia jakość odpowiedzi. Jak pokazuje najnowsze badanie naukowców z University of California, rzeczywistość bywa inna. Zespół pod kierunkiem Zizhao Hu przetestował 12 różnych person na sześciu dużych modelach językowych. Wśród ról znaleźli się specjaliści od kodowania, matematyki oraz nauk STEM. Wyniki analizy opublikowano w marcu 2026 roku na serwerze preprintów arXiv. W rezultacie odkryto, że profesjonalny prompting oparty na personach to broń obosieczna. Chociaż model brzmi wtedy wiarygodnie, to często traci zdolność do poprawnego przywoływania faktów.

Konflikt między instrukcją a bazą wiedzy

Naukowcy zidentyfikowali kluczowy problem w działaniu algorytmów podczas odgrywania ról. Gdy prompting wymusza na AI przyjęcie persony, model wchodzi w tryb wykonywania instrukcji. Niestety dzieje się to kosztem trybu aktywnego wyszukiwania wiedzy merytorycznej. Zatem sztuczna inteligencja skupia się na naśladowaniu stylu, a nie na prawdzie. Dane z testów MMLU wykazały spadek dokładności we wszystkich wariantach ról eksperckich. Przykładowo, bazowa celność modelu spadła z poziomu 71,6% do zaledwie 68,0%. Toteż im bardziej złożony jest scenariusz, tym większe ryzyko popełnienia błędu.

Przełomowa metoda PRISM i rola adapterów LoRA

Aby rozwiązać ten problem, badacze opracowali metodę PRISM. Jest to innowacyjny system kierowania odpowiedziami oparty na intencji użytkownika. Podczas treningu model uczy się generować dwa warianty odpowiedzi równocześnie. Pierwszy pochodzi z domyślnego „mózgu” AI, a drugi z narzuconej mu persony. Jeśli tryb neutralny okazuje się bardziej precyzyjny, wiedza ekspercka trafia do komponentu LoRA. W rezultacie system zachowuje korzyści płynące z profesjonalnego stylu bez utraty faktów. Dlatego inteligentny prompting z użyciem PRISM podniósł wyniki w testach o dwa punkty.

Bezpieczeństwo i zyski w kategoriach STEM

Ciekawym wnioskiem z badań jest wpływ person na bezpieczeństwo oraz zadania kreatywne. Persona typu Safety Monitor znacząco podnosi odporność na ataki typu jailbreak. W testach JailbreakBench odnotowano wzrost skuteczności blokowania szkodliwych treści o 17,7%. Jednocześnie prompting ekspercki radzi sobie lepiej w zadaniach typu STEM oraz ekstrakcji danych. W tych kategoriach odnotowano zyski na poziomie odpowiednio +0,60 oraz +0.65 punktu. Jednak w zadaniach wymagających czystej wiedzy, persony nadal pogarszają wyniki. Toteż kluczem do sukcesu jest selektywne stosowanie ról zawodowych.

Jak pisać lepsze instrukcje na co dzień?

Każdy użytkownik sztucznej inteligencji powinien wyciągnąć wnioski z tych badań. Prompting wymaga od nas przede wszystkim skupienia na celu zadania. Jeśli potrzebujesz twardych faktów, nie proś modelu o udawanie wielkiego profesora. Zamiast tego stawiaj na proste pytania i proś o podanie źródeł danych. Praca nad systemem PRISM udowadnia, że szczerość w komunikacji z AI popłaca. Obecnie technologia uczy się, jak lepiej dopasować swój ton do naszych potrzeb. W konsekwencji w 2026 roku najskuteczniejszy staje się ten, kto potrafi precyzyjnie zarządzać intencją zapytania.

Przeczytaj także: Szum informacyjny a smartfony: Dlaczego czujemy się zmęczeni?


Opracowanie na podstawie: techxplore.com

Last Updated on 27 marca, 2026 by Karolina Bandulet

Udostępnij
TAGS