ChatGPT a Twoja osobowość. Czy AI wie o Tobie wszystko?

ChatGPT a Twoja osobowość. Czy AI wie o Tobie wszystko?

Modele językowe, które napędzają platformy takie jak ChatGPT, stały się nieodłącznym elementem naszej codzienności. Służą nam teraz jako wirtualni asystenci, trenerzy, a nawet terapeuci. Użytkownicy coraz chętniej powierzają im szczegóły ze swojego życia prywatnego i zawodowego, co rodzi pytania o granice prywatności danych. Naukowcy z ETH Zurich przeprowadzili przełomowe badanie, aby sprawdzić, czy algorytmy potrafią na tej podstawie odczytać nasze cechy charakteru. Wyniki analizy opublikowanej na serwerze arXiv wskazują, że AI potrafi z uderzającą dokładnością przewidzieć aspekty osobowości użytkownika wyłącznie na podstawie jego historii czatów.

Algorytmy badają model Wielkiej Piątki

W trakcie eksperymentu badacze zebrali około 62 000 rozmów od 668 ochotników, którzy udostępnili swoje archiwa z narzędzia ChatGPT. Równolegle uczestnicy wypełnili standardowy test psychologiczny oparty na modelu OCEAN. Pozwala on ocenić pięć kluczowych cech: ekstrawersję, ugodowość, sumienność, neurotyczność oraz otwartość na doświadczenia. Następnie wyszkolony model AI analizował udostępnione logi, próbując samodzielnie przypisać użytkownikom odpowiednie wyniki w tych kategoriach. Okazało się, że przewidywania sztucznej inteligencji w dużej mierze pokrywały się z rzeczywistymi wynikami testów psychologicznych. System szczególnie trafnie radził sobie z rozpoznawaniem ekstrawersji oraz poziomu neurotyczności. Sugeruje to, że sposób konstrukcji zapytań silnie odzwierciedla naszą stabilność emocjonalną i otwartość społeczną.

Jak konkretne tematy rozmów profilują użytkownika

Badanie wykazało, że stopień precyzji profilowania zależy od rodzaju danych, jakie nieświadomie ujawniamy podczas sesji w ChatGPT. Noé Zufferey, współautor opracowania, wyjaśnia, że interakcje skupione na relacjach międzyludzkich są kopalnią wiedzy o ekstrawersji danej osoby. Natomiast poruszanie tematów związanych z religią wystawia na ryzyko prywatność w obszarze sumienności, ponieważ pozwala algorytmom łatwiej wywnioskować poziom zorganizowania i odpowiedzialności rozmówcy. Co istotne, im dłuższa i częstsza jest interakcja z AI, tym łatwiejsze staje się poprawne określenie pełnego profilu psychologicznego. Nawet rozmowy o charakterze czysto informacyjnym lub zawodowym zawierają unikalne wzorce językowe, które dla sztucznej inteligencji stanowią czytelny ślad osobowości.

Zagrożenie manipulacją i „poznawcze poddanie się”

Precyzyjne profilowanie psychologiczne na masową skalę niesie ze sobą poważne ryzyka związane z inwigilacją oraz manipulacją opinią publiczną. Prywatne firmy i rządy mogą wykorzystać te dane do tworzenia spersonalizowanych kampanii propagandowych, które trafiają bezpośrednio w czułe punkty psychiki konkretnych osób. Naukowcy zwracają uwagę na zjawisko „poznawczego poddania się”, czyli skłonność ludzi do polegania na opiniach AI bardziej niż na własnym krytycznym myśleniu. Właśnie dlatego tak ważne jest zrozumienie, że platformy te nie są neutralnymi interfejsami, lecz systemami należącymi do korporacji o konkretnych celach politycznych i ekonomicznych. Aby temu przeciwdziałać, badacze planują rozwój narzędzi filtrujących dane przed ich wysłaniem do serwerów. Pozwoli to chronić prywatność bez rezygnacji z wydajności nowoczesnych modeli językowych.

Przeczytaj także: Prywatność w dobie AI – jak reklamy zdradzają dane


Opracowanie na podstawie: techxplore.com

Last Updated on 6 maja, 2026 by Karolina Bandulet

Udostępnij
TAGS