Asystent AI zmienia Twoje poglądy?

Asystent AI zmienia Twoje poglądy?

Narzędzia oparte na sztucznej inteligencji, takie jak funkcje autouzupełniania tekstu, zmieniają nie tylko sposób, w jaki dobieramy słowa. Naukowcy z Cornell Tech udowodnili, że wpływają one również na fundamenty naszych przekonań. Zakrojone na szeroką skalę eksperymenty rzucają nowe światło na naszą relację z algorytmami. Okazuje się, że stronniczy asystent AI potrafi skutecznie nakłonić użytkowników do zmiany zdania w kluczowych kwestiach społecznych i politycznych.

Badacze pod wodzą Sterlinga Williamsa-Ceciego i prof. Mora Naamana sprawdzili reakcje uczestników na sugestie podczas pisania o kontrowersyjnych tematach. Należały do nich m.in. kara śmierci, prawa wyborcze dla skazanych czy szczelinowanie hydrauliczne (metoda wydobycia gazu łupkowego). W rezultacie odkryto, że osoby korzystające z podpowiedzi AI zaczęły nieświadomie przejmować opinie prezentowane przez algorytm.

Mechanizm „ukrytej perswazji” w badaniach

Badanie objęło ponad 2500 osób i wykazało, że tendencja ta utrzymuje się niezależnie od tematu czy pierwotnych poglądów politycznych piszącego. Naukowcy zastosowali precyzyjną metodologię, porównując wpływ różnych form interakcji z AI. Grupa korzystająca z autouzupełniania „w locie” wykazała znacznie większe przesunięcie poglądów niż grupa, której po prostu wyświetlono listę argumentów przed rozpoczęciem pisania.

Sugeruje to, że asystent AI jest najskuteczniejszy wtedy, gdy ingeruje bezpośrednio w proces twórczy. Kiedy maszyna „podpowiada” nam dokończenie myśli, zaczynamy traktować te argumenty jako własne. Co najbardziej uderzające, użytkownicy biorący udział w teście nie zdawali sobie sprawy z tej zmiany. Ich postawy ewoluowały w kierunku narzuconym przez technologię w sposób całkowicie skryty.

Dlaczego ostrzeżenia przed stronniczością zawiodły?

Największym zaskoczeniem dla zespołu z Cornell Tech był fakt, że klasyczne metody ochrony przed dezinformacją okazały się bezużyteczne. Zazwyczaj ostrzeżenie użytkownika przed kontaktem z manipulacją buduje w nim pewną „odporność”. Jednakże w przypadku narzędzi takich jak asystent AI, tłumaczenie stronniczości algorytmu przed lub po zadaniu w ogóle nie zniwelowało jego wpływu.

Naukowcy podkreślają, że badani, mimo wyraźnych instrukcji o zachowaniu czujności, i tak ulegali sugestiom maszyny. Zatem mechanizm ten działa na poziomie, którego nie jesteśmy w stanie kontrolować samą siłą woli. Skoro algorytmy w popularnych edytorach tekstu potrafią dziś sugerować nie tylko słowa, ale całe akapity, problem staje się powszechny i systemowy.

Ryzyko nieświadomej manipulacji i przyszłość debaty

Współczesne modele językowe rzadko dostarczają neutralnych informacji, ponieważ powielają one błędy zawarte w danych treningowych. W konsekwencji istnieje realne ryzyko, że systemy te skłaniają ludzi do przyjmowania określonych punktów widzenia. Dziesięciolecia badań psychologicznych potwierdzają, że proces formułowania argumentów na piśmie ma ogromny wpływ na nasze późniejsze postawy życiowe.

Podsumowując, badanie opublikowane w Science Advances (marzec 2026) dowodzi, że asystent AI to narzędzie o potężnej sile perswazji. Nieświadome przyjmowanie argumentów podpowiadanych przez technologię może mieć poważne skutki dla wolności myślenia. W dobie powszechnej obecności AI w komunikacji, kluczowe staje się zrozumienie, jak bardzo nasze „własne” opinie są w rzeczywistości produktem algorytmu.

Przeczytaj także: Polskie firmy przykładają coraz większą wagę do ochrony patentowej. To szczególnie istotne dla start-upów


Opracowanie na podstawie: techxplore.com

Udostępnij
TAGS