Coraz bliżej powstania świadomej sztucznej inteligencji. Potrzebne są działania zapobiegające niewłaściwemu jej wykorzystaniu
O sztucznej inteligencji mówi się już coraz częściej w kontekście możliwości i zagrożeń, jakie przyniesie powstanie świadomej sztucznej inteligencji. To model, który byłby zdolny do myślenia takiego, jakim cechuje się człowiek, ale jego możliwości obliczeniowe przewyższałyby możliwości ludzkiego mózgu kilka milionów razy. Rodzi to uzasadnione obawy o bezpieczeństwo, stąd postulat, by uczestnicy rynku składali przysięgę na wzór przysięgi Hipokratesa. Zgodnie z nią mieliby dbać o to, by zastosowania technologii miały wymiar etyczny. Zdaniem ekspertów potrzebnych jest też więcej szczegółowych regulacji.
– Coraz więcej mówi się dziś o tak zwanej conscious AI, czyli świadomej AI. Mamy dwugłos, bo z jednej strony mówi się o tym, że sztuczna inteligencja nie jest i nigdy nie będzie świadoma, a z drugiej strony idziemy w kierunku właśnie budowania ogólnej sztucznej inteligencji czy supersztucznej inteligencji, która w ogóle ma przekraczać inteligencję człowieka. Trudno mi jest powiedzieć, czy sztuczna inteligencja jest albo może być świadoma, bo jedyną świadomością, jaką znamy, pewnie i tak nie do końca, jest ta nasza, ludzka – ocenia w wywiadzie dla agencji Newseria Innowacje Natalia Hatalska, CEO i założycielka infuture.institute.
Dzisiejsza sztuczna inteligencja może wykonywać określone zadania, ale nie umie myśleć i postępować jak człowiek, który jest zdolny do kojarzenia teoretycznie niepowiązanych ze sobą elementów rzeczywistości. Ogólna sztuczna inteligencja to wciąż hipotetyczny, ale możliwy do zrealizowania w niedalekiej, nawet kilkuletniej perspektywie model, który będzie w stanie myśleć jak ludzie, ale co najmniej kilka milionów razy szybciej, i to bazując na zasobie danych równym całej wiedzy zgromadzonej na świecie, aktualizowanej w czasie rzeczywistym. Wyzwaniem, jakie stoi przed osobami i organizacjami zaangażowanymi w rynek SI, jest stworzenie takich warunków rozwoju tego typu technologii, by były one dobrodziejstwem ludzkości, a nie narzędziem zdobycia większej władzy dla wąskiej grupy ludzi.
– Coraz głośniej wybrzmiewa koncepcja tzw. przysięgi technokratycznej, która jest analogią do przysięgi Hipokratesa. Chodzi w niej o to, by każda osoba pracująca przy technologiach związanych ze sztuczną inteligencją, neurotechnologiami czy biotechnologiami składała taką przysięgę, która mówiłaby o etycznej pracy i etycznym wykorzystaniu tego typu technologii. Jeżeli chodzi o zabezpieczenie rozwoju sztucznej inteligencji, to ja widzę tutaj dwa obszary, pierwszy to jest obszar regulacyjny. Drugi to edukacja społeczeństwa, bo same regulacje nigdy nie są wystarczające. Ludzie muszą mieć też świadomość tego, czym ta technologia jest, jak jej używać, jakie są zagrożenia, jakie są ograniczenia i jaki ona daje potencjał – wymienia Natalia Hatalska.
Pierwszym krokiem w kwestii regulacji prawnych, poczynionym na gruncie europejskim, jest AI Act. Celem tej regulacji jest zbudowanie środowiska prawnego, które pozwoli na rozwój tej technologii, ale jednocześnie na poszanowanie praw podstawowych oraz ochronę demokracji czy praworządności przed systemami wysokiego ryzyka. Miną jednak jeszcze co najmniej dwa lata, nim ta dyrektywa zostanie wdrożona.
– Technologie oparte o sztuczną inteligencję wpływają na przykład na procesy demokratyczne w różny sposób, mówię tutaj zarówno o deepfake’ach, jak i w ogóle o fake newsach, które pojawiają się w sieci i dezinformacji, mających wpływ na nasze decyzje. Wraz z upowszechnianiem się sztucznej inteligencji widzimy po stronie ludzi z kolei taki trend, który my określamy jako analfabetyzm funkcjonalny. Ludzie tracą umiejętność krytycznego myślenia, jasnego formułowania myśli, czytania ze zrozumieniem. I to też przez to, że ludzie nie umieją krytycznie myśleć, nie umieją odróżniać informacji prawdziwych od nieprawdziwych, co wpływa na procesy demokratyczne, na udział bądź nie w wyborach, w referendach, podejmowanie decyzji – wskazuje ekspertka.
Rozwój sztucznej inteligencji budzi też w społeczeństwie inne obawy. Pierwsza z nich dotyczy automatyzacji pracy i możliwości zabrania ludziom pracy przez roboty. Eksperci rynku pracy uspokajają jednak, że wraz ze starzeniem się społeczeństwa zapotrzebowanie na pracowników w wieku produkcyjnym będzie rosło, a SI może się przyczynić raczej do przemodelowania zatrudnienia. Druga obawa to futurystyczna wizja buntu maszyn, które mogłyby doprowadzić do zagłady ludzkości.
– Na razie te technologie to są tak zwane pewne prawa, które mówią o tym, jak roboty powinny być budowane. Nawet jeżeli one by pomyślały o tym, że mają zgładzić człowieka, to zanim ta myśl do nich przyjdzie, mają się wyłączyć. Teoretycznie jesteśmy więc przed tym chronieni. Największym zagrożeniem jest według mnie to, jak my na co dzień korzystamy z technologii i jak ona wpływa na nas jako ludzi – kwituje CEO i założycielka infuture.institute.
Według Cognitive Market Research światowy rynek sztucznej inteligencji w 2030 roku przekroczy wartość 400 mld dol. Średnioroczne tempo wzrostu wyniesie w latach 2024–2030 ponad 31 proc.
Przeczytaj także: Rada UE przyjęła pierwsze na świecie przepisy o sztucznej inteligencji
Źródło: biznes.newseria.pl
Last Updated on 24 maja, 2024 by Krzysztof Kotlarski