Ekspert: akceptujemy rosnące zużycie energii na rzecz większego celu, jakim jest rozwój AI

Ekspert: akceptujemy rosnące zużycie energii na rzecz większego celu, jakim jest rozwój AI

Im większy, szybszy i dokładniejszy duży model językowy, tym więcej energii potrzeba do jego trenowania i użytkowania. Akceptujemy jednak ten stan, ponieważ mamy w głowie nadrzędny cel, jakim jest rozwój sztucznej inteligencji – powiedział dr hab. inż. Paweł Kasprowski, prof. Politechniki Śląskiej.

„W naszym codziennym życiu wiele rzeczy wymaga od nas poświęcenia. Uważam, że tutaj jest podobnie. Nam, cywilizacji, rozwój AI jest potrzebny, a wręcz niezbędny, dlatego akceptujemy, że dzieje się on kosztem takim jak ogromne zużycie energii i rosnący ślad węglowego” – ocenił naukowiec w rozmowie z PAP.

W ostatnich dniach w Paryżu odbył się międzynarodowy szczyt AI Action Summit, w którym udział wzięli przywódcy około 80 krajów, przedstawiciele globalnych gigantów branży technologicznej i wybitni naukowcy. Jednym z tematów było ogromne zapotrzebowanie na energię związane z AI (z działaniem centrów przetwarzania danych) wobec problemu globalnego ocieplenia.

Jak przypomniał Paweł Kasprowski – koordynator Priorytetowego Obszaru Badawczego Politechniki Śląskiej; Sztuczna inteligencja i przetwarzanie danych – wszystkie duże modele językowe (LLM), czyli modele sztucznej inteligencji pracują na potężnych komputerach.

„Badania sprzed kilku lat pokazały, że tylko na jedno trenowanie modelu – i to starszego modelu GPT 3 – zużywa się tyle energii, co ponad 100 gospodarstw domowych w Stanach Zjednoczonych przez rok i emituje tyle dwutlenku węgla, co ponad 30 lotów z USA do Australii. A to tylko trenowanie i to starszego modelu. Dzisiaj te modele są dużo większe i zużywają jeszcze więcej energii” – podał Paweł Kasprowski.

Sztuczna inteligencja może się jednak „odpłacić”. „Rozwijamy AI bardzo często do tego, aby coś zoptymalizować, np. zużycie energii, albo by przewidywać np. zapotrzebowanie na energię i możliwości jej dostarczania w danym momencie z wiatru czy słońca. Modele AI są też wykorzystywane do optymalizacji ruchu, transportu publicznego, autonomicznych samochodów, czy w rolnictwie. A to tylko pojedyncze przykłady szerokiego zastosowania, które umożliwiają znaczące oszczędności w zużyciu energii” – mówił.

Jednocześnie, badacz zwrócił uwagę, że czasem, owszem, można „wylać dziecko z kąpielą” – gdy algorytmy wprawdzie przyczyniają się do jakiejś oszczędności, ale jednocześnie zużywają niewspółmiernie do efektu dużo energii.

Jak jednak mówił, problem jest znany środowisku, dlatego pojawiają się kolejne inicjatywy na rzecz zmniejszana śladu węglowego w związku z rozwojem AI. Jedną z nich jest idea „Green in AI”.

„Podam przykład dla zobrazowania problemu. Mamy jakiś algorytm, który po uruchomieniu na moim komputerze oblicza coś przez 6 godzin. Dla mnie, użytkownika, to jest nieakceptowalne. Muszę zrobić tak, żeby było szybciej. Jak? Najlepiej wziąć lepszy, mocniejszy i większy komputer. Wtedy ten algorytm będzie liczył tylko 15 minut, ale kosztem znacznie większej energii. Drugie podejście jest takie, aby zoptymalizować sam algorytm, sprawdzić, czy w kodzie np. coś się liczy niepotrzebnie albo jakieś obliczenia się dublują. Możemy więc spróbować poprawić sam kod, dzięki czemu algorytm będzie liczył szybciej na moim dotychczasowym sprzęcie, zużywając znacznie mniej energii” – mówił.

Jednocześnie dodał, że dominuje to pierwsze podejście, ponieważ drugie, choć zyskuje na popularności, wymaga większych nakładów finansowych na zatrudnienie programistów oraz czasu na ich pracę.

„Dlatego w mojej ocenie, na teraz, problem równowagi między rozwojem AI a wzrostem zapotrzebowania na energię i rosnącym śladem węglowym jest nierozwiązywalny” – ocenił Paweł Kasprowski.

Przy okazji pracy nad tekstem, PAP zapytała ChatGPT: „Ile energii potrzeba na przeanalizowanie jednego pytania w ChatGPT?”.

Oto odpowiedź: „Twoje obecne pytanie nie jest szczególnie złożone, więc przetworzenie go przez model, taki jak ChatGPT, nie wymaga dużej mocy obliczeniowej w porównaniu do bardziej skomplikowanych zapytań. Mimo to, jest to nadal część obliczeń przeprowadzanych przez serwery, które zajmują się przetwarzaniem zapytania, analizowaniem go i generowaniem odpowiedzi. W tym przypadku, w przybliżeniu, moglibyśmy mówić o zużyciu energii na poziomie kilku watów mocy obliczeniowej przez krótki czas. (…)”. To porównywalnie tyle, co np. żarówka LED.

Przeczytaj także: Modele AI dla misji kosmicznych – również w formie komiksu


Źródło: naukawpolsce.pap.pl

Last Updated on 17 lutego, 2025 by Krzysztof Kotlarski

Udostępnij
TAGS