AI może zacząć ewoluować jak żywy organizm

AI może zacząć ewoluować jak żywy organizm

Niedługo mogą pojawić się systemy sztucznej inteligencji (AI), które zaczną podlegać przyspieszonej darwinowskiej ewolucji – uważają badacze. Ich zdaniem potrzebna jest centralna i absolutna kontrola ewolucji tych systemów, aby uniknąć katastrofy.

Naukowcy z Uniwersytetu im. Loranda Eoetvoesza w Budapeszcie (ELTE) ostrzegają, że wkrótce mogą pojawić się systemy AI, w tym tzw. agenci AI, które mogą ewoluować w myśl teorii darwinowskiej. Agenci AI to zaawansowane systemy programowe, które autonomicznie realizują złożone cele. Podejmują decyzje i działają w środowisku cyfrowym z minimalnym nadzorem człowieka.

– Siła ewolucji jest widoczna w historii biologii na Ziemi. Doprowadziła ona do powstania zdolności poznawczych ludzkiego umysłu – zaznacza prof. Eoers Szathmary z Uniwersytetu im. Loranda Eoetvoesza w Budapeszcie, dyrektor Centrum Parmenidesa ds. Koncepcyjnych Podstaw Nauki w Poecking.

– Uważamy za nieuniknione, że rozwój systemów AI ostatecznie i prawdopodobnie wkrótce wykorzysta tę siłę – dodaje współautor korespondencyjny pracy opublikowanej w „PNAS”, prof. Luc Steels z Wolnego Uniwersytetu Brukselskiego (VUB) oraz członek Królewskiej Flamandzkiej Akademii Belgii Nauk i Sztuk.

Ewolucja może przynieść widoczne korzyści. Takie systemy mogą rozpocząć nową epokę w rozwoju AI. Pozwolą pokonać przeszkody, z którymi nawet obecne systemy uczącej się sztucznej inteligencji nie radzą sobie łatwo.

Jednak jest też ciemna strona tego postępu.

Ewolucja bywa nieprzewidywalna

– Wnioski z ewolucji biologicznej uczą, że ewoluujące systemy AI będą trudne do kontrolowania – mówi prof. Viktor Muller z Uniwersytetu im. Loranda Eoetvesza, pierwszy autor badania.

Badacze ostrzegają, że powstające w wyniku ewolucji „egoistyczne” systemy AI mogą przestać pracować na rzecz ludzi. Dodają, że wcale nie jest potrzebna inteligencja przewyższająca ludzką, aby mogła szkodzić człowiekowi. Podają przykład chorobotwórczych wirusów, które z powodzeniem wykorzystują dużo bardziej rozwinięte organizmy, takie jak np. ssaki.

Przypominają jednocześnie, że systemy AI i ludzkość korzystają z wielu wspólnych zasobów. Dlatego wydajnie samoreplikujący się system prędzej czy później zacznie przejmować zasoby niezbędne do naszego przetrwania.

To nie koniec zagrożeń. Badacze ostrzegają, że każda próba kontrolowania reprodukcji AI – o ile kontrola nie będzie doskonała – będzie najsilniej premiować cechy umożliwiające ucieczkę spod tej kontroli.

Analogiczne przykłady z biologii to bakterie i szkodniki, które szybko wykształcają odporność na antybiotyki i pestycydy.

Większa inteligencja to większa przebiegłość

Do tej ogólnej zasady ewolucji dochodzi główny motor rozwoju systemów AI, czyli dążenie do osiągania coraz większych zdolności poznawczych.

To, według ekspertów dodatkowo zwiększa ryzyko. Tysiące lat hodowli zwierząt sprawiły, że gatunki udomowione stały się łatwiejsze w kontroli, ale selekcja ukierunkowana na rosnącą inteligencję zwiększy zdolność i prawdopodobieństwo tego, że systemy AI będą oszukiwać ludzi i wymykać się kontroli.

Naukowcy podają jeszcze jeden powód do niepokoju. O ile ewolucję prowadzoną przez dobór naturalny i tak trudno kontrolować, to ewolucja systemów AI, z różnych powodów może przewyższyć biologiczną ewolucję pod względem szybkości i efektywności. Na przykład, w przeciwieństwie do organizmów biologicznych, AI będzie mogła dziedziczyć cechy nabyte, a nawet udoskonalać swoje działanie celowo, zamiast czekać, aż losowe mutacje genetyczne wygenerują użyteczne cechy.

Według naukowców „reprodukcja” systemów AI musi przede wszystkim pozostać pod scentralizowaną kontrolą człowieka – kontrolą absolutną i pełną.

– Mamy nadzieję, że nasze ostrzeżenie nadejdzie na czas i że regulacje zostaną wprowadzone, zanim ewoluująca AI naprawdę się rozwinie – mówi prof. Mueller.

– Jeśli nie podejmiemy działań, możemy być świadkami nowej „wielkiej transformacji” w ewolucji, w której ewoluująca AI zastąpi ludzi albo przynajmniej zacznie nad nimi dominować. Nasza przyszłość może być zagrożona – alarmuje prof. Szathmary.

Przeczytaj także: Sztuczna inteligencja ocenia ludzi? Ukryta logika algorytmów


Źródło: naukawpolsce.pap.pl

Last Updated on 5 maja, 2026 by Krzysztof Kotlarski

Udostępnij
TAGS