Rozumowanie AI pod lupą
Pytanie o to, czy rzeczywiste rozumowanie AI jest możliwe, powraca wraz z najnowszymi badaniami nad modelem Centaur. System ten, ogłoszony w lipcu 2025 roku, miał być przełomem w symulacji ludzkiego poznania i zjednoczeniu teorii umysłu w ramach jednej maszyny. Jednak analizy badaczy z Zhejiang University studzą ten entuzjazm, sugerując, że mamy do czynienia z niezwykle skutecznym naśladownictwem wzorców, a nie prawdziwym myśleniem.
Obietnica zintegrowanego umysłu
Przez dekady psychologia spierała się o to, czy ludzki umysł można wyjaśnić za pomocą jednej, spójnej teorii. W lipcu 2025 roku na łamach prestiżowego magazynu Nature zaprezentowano system o nazwie Centaur. Został on zbudowany na fundamencie dużych modeli językowych i dopracowany danymi z eksperymentów psychologicznych. System ten miał wiernie naśladować sposób, w jaki ludzie podejmują decyzje oraz przetwarzają informacje.
Twórcy Centaura twierdzili, że model potrafi replikować ludzkie reakcje w aż 160 różnych zadaniach poznawczych. Obejmowały one szeroki zakres procesów, takich jak funkcje zarządcze oraz mechanizmy podejmowania decyzji. Wyniki zinterpretowano jako kamień milowy. Sugerowano wręcz, że rozumowanie AI zaczyna realnie przybliżać się do ogólnego modelu ludzkiego poznania.
Test obnaża mechanizm
Sceptycyzm wobec tych osiągnięć wyrazili badacze z Zhejiang University w publikacji dla National Science Open. Zespół, którym kierowali Wei Liu oraz Nai Ding, postawił hipotezę, że zdolności Centaura wynikają z tzw. overfittingu, czyli przeuczenia. Oznacza to, że model prawdopodobnie zapamiętał wzorce z ogromnych zbiorów danych treningowych, zamiast faktycznie zrozumieć istotę stawianych przed nim zadań.
Aby to zweryfikować, badacze przygotowali kilka wariantów doświadczalnych. W jednym z nich zastąpili oryginalne polecenia opisujące zadania psychologiczne jedną, prostą instrukcją: „Proszę wybrać opcję A”. Gdyby system posiadał rzeczywiste rozumowanie AI i rozumiał sens pytania, wybierałby wskazaną opcję za każdym razem. Stało się jednak inaczej. Centaur ignorował nowe polecenie i nadal generował „poprawne odpowiedzi” zgodne z pierwotnym, wyuczonym schematem z oryginalnego zbioru danych.
Statystyka kontra autentyczne zrozumienie
Wyniki tego testu dowodzą, że model nie interpretował znaczenia zadawanych mu pytań. Zamiast tego polegał na statystycznych powiązaniach, aby dotrzeć do odpowiedzi. Można to porównać do studenta, który zdaje egzamin na ocenę celującą tylko dlatego, że opanował na pamięć klucz odpowiedzi z poprzednich lat, choć nie rozumie treści samego przedmiotu.
Zjawisko to rzuca nowe światło na problem „czarnych skrzynek” w architekturze współczesnych modeli językowych. Systemy te są niezwykle skuteczne w dopasowywaniu wzorców, ale ich konstrukcja sprawia, że pozostają podatne na halucynacje i błędną interpretację intencji. Jak podkreślają autorzy badania, Centaur wykazuje fundamentalną słabość w najprostszym rozumieniu języka i celu, jaki stoi za zapytaniem użytkownika.
Co to oznacza dla każdego z nas?
Spór o model Centaur pokazuje, że musimy zachować dystans wobec odpowiedzi, które serwuje nam sztuczna inteligencja. Sam fakt, że system radzi sobie z trudnymi zadaniami, nie oznacza jeszcze, że posiada on realną inteligencję. To ważna lekcja dla każdego użytkownika: obecne rozumowanie AI to skomplikowany proces statystyczny, który może nas zawieść w najmniej oczekiwanym momencie.
Osiągnięcie autentycznego zrozumienia intencji pozostaje jednym z największych wyzwań technicznych. Dopóki systemy nie zaczną poprawnie interpretować naszych poleceń, powinniśmy traktować je jako pomocników, a nie nieomylnych ekspertów. Przypadek Centaura uczy nas, że to, co w świecie technologii wygląda na głębokie myślenie, bywa jedynie bardzo zaawansowanym echem danych, na których maszyna została wytrenowana.
Przeczytaj także: Rozwój sztucznej inteligencji – wnioski z badania 80 tys. osób
Opracowanie na podstawie: scitechdaily.com
Last Updated on 25 marca, 2026 by Karolina Bandulet