Sztuczna inteligencja ocenia ludzi? Ukryta logika algorytmów

Sztuczna inteligencja ocenia ludzi? Ukryta logika algorytmów

Współczesny świat coraz częściej pozwala maszynom decydować o kluczowych aspektach naszego życia. Algorytmy wybierają już kandydatów do pracy, oceniają naszą zdolność kredytową, a nawet wspierają trudne diagnozy medyczne. Nowe badanie naukowców z Uniwersytetu Hebrajskiego w Jerozolimie rzuca jednak zupełnie nowe światło na to, jak sztuczna inteligencja faktycznie widzi człowieka. Mianowicie badacze udowodnili, że najbardziej zaawansowane modele językowe nie tylko przetwarzają tekst, ale budują coś, co przypomina ludzkie zaufanie.

Prof. Yaniv Dover oraz Valeria Lerman przeprowadzili kompleksową analizę ponad 43 tysięcy symulowanych decyzji. W rezultacie ustalili oni, że maszyny nie są jedynie beznamiętnymi procesorami danych. Algorytmy w rzeczywistości dokonują głębokich osądów moralnych i kompetencyjnych. Zatem dobra wiadomość jest taka, że sztuczna inteligencja potrafi wychwycić realne cechy, które my również cenimy u innych. Systemy te promują osoby kompetentne, uczciwe oraz mające szlachetne intencje.

Mechanizmy zaufania

Badacze postawili ludzi oraz algorytmy w bardzo podobnych sytuacjach życiowych. Uczestnicy musieli zdecydować, jaką kwotę pożyczyć właścicielowi małej firmy lub czy powierzyć opiekę nad dzieckiem konkretnej niani. Okazuje się jednak, że choć fundamenty zaufania wydają się zbieżne, to sam proces oceny drastycznie różni się od ludzkiego. My, jako ludzie, oceniamy innych w sposób holistyczny i intuicyjny. Tworzymy jedno, spójne wrażenie o danej osobie na podstawie wielu sygnałów jednocześnie.

Z kolei sztuczna inteligencja stosuje podejście znacznie bardziej analityczne i systematyczne. Systemy rozkładają naszą osobowość na czynniki pierwsze. Oceniają one fachowość, uczciwość czy życzliwość niemal jak oddzielne kolumny w arkuszu kalkulacyjnym. Warto dodać, że taka uproszczona i bardziej mechaniczna metoda prowadzi do zupełnie innych wyników niż ludzka intuicja. Ponadto badanie wykazało, że wybór konkretnego modelu AI ma kluczowe znaczenie dla ostatecznego werdyktu.

Brak kompasu moralnego

Najbardziej niepokojącym wnioskiem z badań jest fakt, że sztuczna inteligencja potrafi silnie potęgować istniejące uprzedzenia. W scenariuszach finansowych, takich jak udzielanie darowizn czy pożyczek, algorytmy wykazywały wyraźne różnice demograficzne. Mianowicie wiek, wyznawana religia, a w wielu modelach również płeć, zmieniały ostateczną decyzję. Działo się tak nawet wtedy, gdy wszystkie inne szczegóły dotyczące danej osoby pozostawały identyczne.

Z tego powodu naukowcy alarmują, że uprzedzenia maszyn są bardziej przewidywalne i trwałe niż te ludzkie. Co więcej, nie istnieje jedna, uniwersalna „opinia AI”. Badanie pokazało, że różne systemy mogą ocenić tego samego kandydata w skrajnie różny sposób. Jeden model nagradzał konkretną cechę charakteru, podczas gdy inny system karał za ten sam atrybut. Z pewnością musimy więc zachować czujność, ponieważ wybór konkretnego oprogramowania może cicho kształtować realne losy ludzi.

Dlaczego musimy rozumieć logikę maszyn?

Obecnie sztuczna inteligencja przechodzi z roli pomocnego asystenta do roli samodzielnego decydenta. Zatem zrozumienie tego, jak te systemy nas „widzą” i oceniają, stało się krytycznym wyzwaniem dla współczesnego społeczeństwa. Naukowcy podkreślają, że ich odkrycia nie są ostrzeżeniem przed samą technologią, lecz wezwaniem do większej świadomości. Podsumowując, maszyny potrafią naśladować strukturę ludzkiego rozumowania, ale robią to w sposób sztywny i pozbawiony głębokich niuansów. Musimy pamiętać, że choć algorytmy są potężne, nie patrzą na nas tak, jak robią to inni ludzie.

Przeczytaj także: Kody QR – jak nie dać się oszukać?


Opracowanie na podstawie: techxplore.com

Last Updated on 15 kwietnia, 2026 by Karolina Bandulet

Udostępnij
TAGS