Sztuczna inteligencja: Dlaczego wolniej znaczy lepiej?

Sztuczna inteligencja: Dlaczego wolniej znaczy lepiej?

W wyścigu technologicznym inżynierowie traktują opóźnienie jako błąd techniczny. Firmy dążą do tego, aby sztuczna inteligencja odpowiadała natychmiastowo. Jednak najnowsze badania z NYU Tandon School of Engineering rzucają nowe światło na to zjawisko. Okazuje się, że ciągła pogoń za szybkością może negatywnie wpływać na ocenę przydatności systemów. Ponieważ interfejsy konwersacyjne opierają się na interakcji społecznej, użytkownicy podświadomie szukają w nich ludzkich sygnałów. Pauza przed odpowiedzią bywa interpretowana jako dowód na proces myślowy maszyny.

Badanie zaprezentowane na konferencji CHI 2026 w Barcelonie objęło 240 uczestników. Wykonywali oni typowe zadania biurowe przy pomocy chatbota. Niektóre zadania dotyczyły tworzenia treści, takie jak pisanie tekstów lub burza mózgów. Inne skupiały się na doradztwie, na przykład na ocenie decyzji lub przygotowaniu rekomendacji. System zaprogramowano tak, aby generował odpowiedzi w różnym czasie. Niektórzy czekali tylko dwie sekundy, inni dziewięć, a jeszcze inni aż dwadzieścia sekund.

Czas odpowiedzi a postrzeganie inteligencji

Wyniki badania podważyły założenie, że im szybciej, tym lepiej dla użytkownika. Osoby otrzymujące odpowiedzi po dwóch sekundach oceniały je jako mniej przemyślane i mniej użyteczne. Z kolei uczestnicy, którzy musieli poczekać dłużej, oceniali ten sam model znacznie wyżej. Ponieważ w codziennych rozmowach pauzy niosą konkretne znaczenie, ludzie przenoszą te oczekiwania na oprogramowanie. Szybka odpowiedź wydaje się impulsywna i powierzchowna. Za to dłuższy czas oczekiwania sugeruje, że sztuczna inteligencja podeszła do zadania z większą starannością.

Co ciekawe, czas oczekiwania nie zmienił znacząco sposobu, w jaki ludzie zachowywali się podczas pracy. Uczestnicy wysyłali podobną liczbę poleceń niezależnie od tempa reakcji systemu. Zachowanie użytkowników zależało głównie od rodzaju wykonywanego zadania. Osoby zajmujące się tworzeniem treści częściej prowadziły długie dialogi i dopracowywały pomysły. Zadania doradcze prowadziły do krótszych i bardziej konkretnych wymian zdań. Jednak to właśnie w sferze postrzegania różnice w czasie reakcji okazały się kluczowe dla końcowej oceny.

Koncepcja pozytywnego oporu

Naukowcy wskazują na zjawisko „pozytywnego oporu”. Są to celowe spowolnienia systemu, które mają przynieść korzyści poznawcze, takie jak skłonienie użytkownika do refleksji. Ponieważ opóźnienie jest naturalną cechą dzisiejszych modeli, projektanci mogą zacząć wykorzystywać je jako narzędzie. Zamiast usuwać każdą milisekundę czekania, warto zapytać, jaką wartość może wnieść ta przerwa. Dlatego projektowanie czasu interakcji staje się nowym wyzwaniem dla specjalistów od doświadczeń użytkownika.

Zjawisko to budzi jednak ważne pytania etyczne dotyczące manipulacji zaufaniem. Jeśli ludzie bardziej ufają wolniejszym systemom, mogą pokładać w nich nadmierną wiarę. Istnieje ryzyko, że użytkownicy uznają jakość odpowiedzi za wyższą tylko dlatego, że musieli na nią poczekać. Sztuczna inteligencja mogłaby celowo imitować proces myślowy poprzez sztuczne opóźnienia. Dlatego badacze zastanawiają się, czy użytkownicy powinni otrzymywać informację o takich zabiegach w interfejsie.

Podsumowując, rozwój technologii nie powinien skupiać się wyłącznie na prędkości procesorów. Ponieważ ludzie oceniają maszyny według norm społecznych, tempo rozmowy ma ogromne znaczenie dla budowania autorytetu. Odpowiednio zaplanowana pauza może sprawić, że odpowiedź wyda się bardziej wiarygodna. Dlatego sztuczna inteligencja przyszłości musi być projektowana z uwzględnieniem psychologii człowieka. W świecie inteligentnych maszyn wolniejsze tempo może być kluczem do lepszej współpracy.

Przeczytaj także: Dlaczego sprawiedliwe algorytmy to wyzwanie dla Big Tech?


Opracowanie na podstawie: techxplore.com

Last Updated on 27 kwietnia, 2026 by Karolina Bandulet

Udostępnij
TAGS