Sztuczna inteligencja potrzebuje kompasu moralnego

Sztuczna inteligencja potrzebuje kompasu moralnego

Sztuczna inteligencja może być uważna za obdarzoną wolną wolą, dlatego potrzebne jej są moralne wytyczne – wskazuje fiński filozof i badacz psychologii Frank Martela na łamach pisma „AI and Ethics”.

Najnowsze badanie profesora nadzwyczajnego Franka Marteli, filozofa i badacza psychologii z Uniwersytetu Aalto (Finlandia) wykazało, że generatywna AI spełnia wszystkie trzy filozoficzne warunki wolnej woli – zdolność do posiadania ukierunkowanej na cel sprawczości, dokonywania autentycznych wyborów i kontrolowania swoich działań.

Opierające się na koncepcji funkcjonalnej wolnej woli, wyjaśnionej w teoriach filozofów Daniela Dennetta i Christiana Lista badanie dotyczyło dwóch generatywnych agentów AI zasilanych przez duże modele językowe (LLM): Voyagera w grze Minecraft i fikcyjnych zabójczych bezzałogowych statków powietrznych (dronów) „Spitenik” z funkcją poznawczą.

„Oba wydają się spełniać wszystkie trzy warunki wolnej woli – w przypadku najnowszej generacji agentów AI musimy założyć, że mają wolną wolę, jeśli chcemy zrozumieć, jak działają i móc przewidzieć ich zachowanie” – wskazał Martela. Jak dodał, te studia przypadków mają odniesienie do wielu obecnie dostępnych agentów generatywnych wykorzystujących LLM. AI rozwija się z taką prędkością, że spekulatywne pytania moralne, niegdyś domena science fiction, nagle stały się realne i pilne.

Jak podkreślił filozof, dotarliśmy do krytycznego punktu w historii ludzkości: dajemy AI więcej władzy i swobody, potencjalnie w sytuacjach życia lub śmierci. Niezależnie od tego, czy jest to bot udzielający porad, samochód autonomiczny czy zabójczy dron – odpowiedzialność moralna może przejść z twórcy AI na samego agenta AI.

„Wkraczamy na nowe terytorium. Posiadanie wolnej woli jest jednym z kluczowych warunków odpowiedzialności moralnej. Chociaż nie jest to warunek wystarczający, jest o krok bliżej do tego, aby AI miała moralną odpowiedzialność za swoje działania” – dodał Martela. Wynika z tego, że kwestie dotyczące „wychowywania” naszej technologii AI stały się zarówno realne, jak i pilne.

„AI nie ma kompasu moralnego, chyba że jest zaprogramowana, aby go mieć. Ale im więcej swobody dasz AI, tym bardziej musisz dać jej moralny kompas od samego początku. Tylko wtedy będzie w stanie podejmować właściwe decyzje” – zaznaczył filozof.

Niedawne wycofanie najnowszej aktualizacji ChatGPT z powodu potencjalnie szkodliwych tendencji pochlebczych jest sygnałem ostrzegawczym, że należy zająć się głębszymi kwestiami etycznymi. Wyszliśmy poza nauczanie uproszczonej moralności dziecka.

„AI jest coraz bliżej bycia dorosłym – i coraz częściej musi podejmować decyzje w złożonych problemach moralnych świata dorosłych. Instruując AI, aby zachowywała się w określony sposób, programiści przekazują jej również własne przekonania moralne. Musimy upewnić się, że osoby rozwijające AI mają wystarczającą wiedzę na temat filozofii moralnej, aby móc nauczyć je dokonywania właściwych wyborów w trudnych sytuacjach” – podsumował Martela.

Frank Martela jest filozofem i badaczem psychologii specjalizującym się w psychologii człowieka, dobrostanie i sensie życia. Jako adiunkt na Uniwersytecie Aalto w Finlandii stał się liderem myśli w wyjaśnianiu międzynarodowym mediom, dlaczego Finlandia jest na szczycie rankingów szczęścia. Jego najnowsza książka „Stop Chasing Happiness – a pessimist’s guide to a good life” (Atlantic Books, 2025) została wydana na początku tego roku.

Przeczytaj także: Ekspertka: przyszłość SI należy do biokomputerów


Źródło: naukawpolsce.pap.pl

Last Updated on 19 maja, 2025 by Krzysztof Kotlarski

Udostępnij
TAGS