
Rok świadomej sztucznej inteligencji. Calum Chace, autor książki „Surviving AI” i współzałożyciel Conscium
Przez lata idea świadomości maszyn należała do dziedziny filozofii i science fiction. Jednak wraz z rozwojem systemów sztucznej inteligencji, debata przenosi się ze sfery spekulacji do obszaru pilnych rozważań naukowych i etycznych.
Czy maszyny mogą rozwinąć jakąś formę świadomości? A jeśli tak, to jak moglibyśmy ją rozpoznać?
Wraz z pojawieniem się na horyzoncie sztucznej inteligencji ogólnej (AGI) i superinteligencji, rośnie prawdopodobieństwo wykształcenia się świadomości maszyn, niezależnie od tego, czy będzie to zamierzone, czy nie. Dobrze poinformowane osoby ze środowisk akademickich i społeczności zajmującej się sztuczną inteligencją coraz częściej podejmują tę kwestię.
2025 zapowiada się jako rok, w którym świadoma sztuczna inteligencja stanie się tematem poruszanym w mediach głównego nurtu. Zdefiniowanie świadomości jest trudne – filozofowie spierają się o to od tysiącleci. Sprowadza się ona jednak do posiadania doświadczeń. Maszyny przetwarzają coraz większe ilości informacji – tak jak my – i mogą stać się świadome.
Co mogłoby to oznaczać dla ludzi?
Jeśli tak się stanie, musimy być na to przygotowani. Badania opublikowane niedawno w czasopiśmie Journal of Artificial Intelligence Research (JAIR) określają pięć zasad odpowiedzialnego prowadzenia badań nad świadomą sztuczną inteligencją. Najważniejsza z tych zasad wskazuje, że rozwój świadomej sztucznej inteligencji powinien być kontynuowany tylko wtedy, gdy przyczyni się to do naszego zrozumienia sztucznej świadomości i jej wpływu na ludzkość. Innymi słowy, wraz ze wzrostem prawdopodobieństwa pojawienia się świadomości w maszynach, podejmowane decyzje stają się coraz bardziej obciążone etycznie. Badania JAIR określają ramy prac nad świadomością i ich implikacje etyczne.
Wraz z badaniami opublikowano list otwarty wzywający rządy i firmy do przyjęcia tych pięciu zasad podczas prowadzenia eksperymentów. W momencie pisania tego artykułu list podpisało ponad 100 osób, w tym Karl Friston, profesor neurobiologii na UCL; Mark Solms, kierownik katedry neuropsychologii na Uniwersytecie w Kapsztadzie; Anthony Finkelstein, informatyk i rektor City St George’s, University of London; Daniel Hulme, współzałożyciel Conscium; oraz Patrick Butlin, pracownik naukowy w Global Priorities Institute na Uniwersytecie Oksfordzkim. Najwyraźniej coś się dzieje.
Dlaczego świadomość maszyn jest tak ważna?
Pod koniec ubiegłego roku grupa czołowych naukowców i badaczy przewidziała, że pojawienie się świadomości sztucznej inteligencji nastąpi prawdopodobnie w ciągu najbliższej dekady. Dodali oni, że „perspektywa dobrobytu sztucznej inteligencji i jej moralnej cierpliwości – systemów sztucznej inteligencji posiadających własne interesy i znaczenie moralne – nie jest już kwestią wyłącznie science fiction lub odległej przyszłości”.
Jeden z autorów artykułu, Jonathan Birch, profesor filozofii w London School of Economics, powiedział, że „martwi go poważny podział społeczny” między tymi, którzy wierzą, że sztuczna inteligencja jest zdolna do świadomości, a tymi, którzy odrzucają tę koncepcję. Sztuczna inteligencja to coś więcej niż tylko wydajność i interesy komercyjne – to przyszłość harmonijnego społeczeństwa.
Co może nas obecnie przybliżyć do stworzenia AGI i potencjalnego wykształcenia przez nią świadomości?
Ściśle związane z lepszym zrozumieniem świadomości maszyn jest przetwarzanie neuromorficzne. Odnosi się ono do sprzętu komputerowego i oprogramowania, które przetwarzają informacje w sposób podobny do biologicznego mózgu. Oprócz umożliwienia maszynom uzyskania większej mocy i użyteczności, rozwój przetwarzania neuromorficznego powinien nauczyć nas wiele o tym, jak działa nasz mózg.
Sposób działania systemów neuromorficznych jest bardziej zbliżony do działania biologicznych mózgów niż obecnych systemów komputerowych. Tradycyjne systemy przetwarzają dane w sposób ciągły, podczas gdy technologie neuromorficzne działają tylko wtedy, gdy jest to konieczne. Dzięki temu modele neuromorficzne są znacznie bardziej wydajne i elastyczne niż modele tradycyjne. Obecnie szkolenie dużego modelu językowego (LLM) zużywa tyle samo energii elektrycznej, co miasto. Natomiast ludzki mózg działa przy użyciu energii odpowiadającej pojedynczej żarówce.
Sztuczna inteligencja doświadczyła dwóch wielkich przełomów. Pierwszy nastąpił w 2012 roku, kiedy Geoff Hinton i jego współpracownicy z powodzeniem uruchomili sztuczne sieci neuronowe, które zostały przemianowane na „głębokie uczenie się” (ang. deep learning). Drugi nastąpił w 2017 roku wraz z pojawieniem się transformatorów, które są podstawową technologią dzisiejszych dużych modeli językowych (LLM). Neuromorfika może być trzecim wielkim przełomem. Jeśli tak się stanie, może to pozwolić nam znacznie lepiej zrozumieć świadomość maszyn niż obecnie.
Rozwój sztucznej inteligencji wydaje się być procesem, który nie sposób już zatrzymać. Co zatem możemy zrobić, aby zapewnić jego bezpieczny przebieg?
Jeśli świadomość maszyn jest rzeczywiście możliwa, to jej zrozumienie może być kluczem do zapewnienia, że sztuczna inteligencja pozostanie bezpieczna, dostosowana do potrzeb i korzystna dla ludzkości. Wraz z postępem systemów sztucznej inteligencji stawka jest coraz wyższa. Nie tylko pod względem możliwości, ale także w szerszym kontekście społecznym i gospodarczym. Oprócz tego przełomowe osiągnięcia w dziedzinie obliczeń neuromorficznych mogą pomóc nam lepiej zrozumieć sztuczną inteligencję. Podobnie jak głębokie uczenie się i transformatory wywołały rewolucję w dziedzinie sztucznej inteligencji. Dokładnie tak obliczenia neuromorficzne mogą być kolejnym krokiem naprzód.
Wyścig o zrozumienie świadomości maszyn ma obecnie charakter globalny, a naukowcy i giganci technologiczni walczą o utrzymanie przewagi. Rok 2025 może być rokiem, który na zawsze zmieni nasze fundamentalne założenia dotyczące sztucznej inteligencji. Musimy działać szybko, aby zapewnić, że ramy etyczne nadążają za przełomami technologicznymi.
Calum Chace, autor książki „Surviving AI” i współzałożyciel Conscium
Uznany mówca, doradca i autor bestsellerów na temat sztucznej inteligencji. Jest współzałożycielem startupu AI o nazwie Conscium i współprowadzącym podcast London Futurists. Wystąpienia Caluma koncentrują się na średnio i długoterminowym wpływie sztucznej inteligencji na nas wszystkich, nasze społeczeństwa i gospodarkę. Doradza firmom i rządom w zakresie polityki dotyczącej sztucznej inteligencji.
Jego książki non-fiction na temat sztucznej inteligencji to „Surviving AI”, poświęcona superinteligencji. „The Economic Singularity”, poświęcona przyszłości miejsc pracy. Jest również autorem książek „Pandora’s Brain” i „Pandora’s Oracle”, dwóch thrillerów technologicznych o pierwszej superinteligencji. Regularnie publikuje w czasopismach, gazetach i radiu.
Zanim został pełnoetatowym pisarzem i mówcą, przez 30 lat pracował w dziennikarstwie i biznesie jako marketer, konsultant ds. strategii i dyrektor generalny. Studiował filozofię, politykę i ekonomię na Uniwersytecie Oksfordzkim.
Przeczytaj także: Polska nauka w drodze do Doliny AI. Robert Grey o strategicznej roli środowiska naukowego w budowaniu ekosystemu innowacji w erze sztucznej inteligencji
Last Updated on 25 sierpnia, 2025 by Anastazja Lach