Procesory AI i 100x mniej energii? Przełom w technologii hybrydowej
Sztuczna inteligencja pochłania zasoby w tempie, które Międzynarodowa Agencja Energetyczna uznaje za coraz trudniejsze do utrzymania. Same procesory AI i centra danych w USA zużyły w 2024 roku około 415 terawatogodzin energii. To ponad 10% całkowitej produkcji prądu w kraju, a liczba ta ma się podwoić do 2030 roku. Naukowcy z Tufts University School of Engineering opracowali jednak rozwiązanie tego problemu. Stworzyli system neuro-symboliczny, który zużywa nawet 100 razy mniej energii niż standardowe modele. To podejście łączy statystyczne sieci neuronowe z logicznym rozumowaniem symbolicznym.
Problem tradycyjnych modeli VLA
Współczesna robotyka często wykorzystuje modele Visual-Language-Action (VLA). Te zaawansowane systemy sterują tym, jak pracują procesory AI wykonujące zadania fizyczne. Niestety, proste czynności, jak układanie klocków, bywają dla nich wyzwaniem. Modele te bazują na statystyce, co prowadzi do błędów przy zmianie oświetlenia lub cieni. Takie pomyłki przypominają „halucynacje” chatbotów, które zmyślają fakty prawne lub generują obrazy z dodatkowymi palcami. Wymagają one również ogromnej mocy obliczeniowej, co drastycznie podnosi koszty eksploatacji.
Jak działa AI neuro-symboliczne?
Zespół profesora Matthiasa Scheutza naśladuje ludzki sposób rozwiązywania problemów poprzez podział na etapy i kategorie. System neuro-symboliczny stosuje abstrakcyjne zasady, takie jak kształt czy środek ciężkości. Dzięki temu procesory AI nie polegają wyłącznie na przewidywaniu statystycznym na podstawie ogromnych zbiorów danych. Algorytm wykorzystuje reguły, które ograniczają liczbę błędów podczas nauki. Skraca to czas planowania działań i pozwala szybciej dotrzeć do rozwiązania. Dlatego hybrydowe podejście oferuje bardziej niezawodny fundament dla przyszłej technologii.
Wyniki eksperymentów: Wieża Hanoi
Badacze przetestowali nową metodę na zagadce Wieży Hanoi. System neuro-symboliczny uzyskał 95% skuteczności, podczas gdy standardowe modele VLA osiągnęły zaledwie 34%. Co ważne, hybrydowe procesory AI poradziły sobie z nowymi wersjami zadań, których wcześniej nie widziały. Uzyskały w nich 78% sukcesów, podczas gdy konwencjonalne systemy zawiodły całkowicie. Różnica w czasie nauki była równie znacząca. Nowy system trenował się tylko 34 minuty. Klasycznemu modelowi zajęło to ponad półtora dnia.
Redukcja zapotrzebowania na moc
Przełom w laboratorium profesora Scheutza bezpośrednio obniża koszty operacyjne. Podczas treningu nowa metoda zużyła tylko 1% energii potrzebnej standardowym modelom. W trakcie pracy zapotrzebowanie na moc spadło do poziomu 5%. Naukowiec zauważa, że dzisiejsze procesory AI często pracują nieefektywnie względem zadania. Przykładowo, AI w wyszukiwarce Google zużywa do 100 razy więcej energii niż proste wyświetlenie listy stron. Zatem powrót do symbolicznego rozumowania może odciążyć globalne zasoby energetyczne.
Przyszłość zrównoważonej technologii
Budowa coraz większych centrów danych staje się niebezpieczna dla stabilności energetycznej. Nowoczesne obiekty wymagają setek megawatów mocy, co przekracza potrzeby wielu małych miast. Badacze z Tufts argumentują, że obecne systemy VLA i modele językowe nie są trwałe pod kątem ekologicznym. Alternatywą jest hybrydowe AI neuro-symboliczne. Oferuje ono większą stabilność przy ułamku dotychczasowych kosztów. Wymaga to przebudowy architektury, na której opierają się procesory AI. Jednak korzyści dla stabilności sieci będą kluczowe dla przemysłu.
Przeczytaj także: Praca z AI a zmęczenie psychiczne
Opracowanie na podstawie: scitechdaily.com
Last Updated on 31 marca, 2026 by Karolina Bandulet