Czy komputery kwantowe rzeczywiście mają większą wydajność niż klasyczne?

Czy komputery kwantowe rzeczywiście mają większą wydajność niż klasyczne?

Klasyczne komputery probabilistyczne potrafią rozwiązywać wyjątkowo trudne zadania optymalizacyjne tak dobrze jak duże komputery kwantowe. A przy tym działają w temperaturze pokojowej i można je zbudować z klasycznych podzespołów.

Współczesny świat jest napędzany ukrytymi łamigłówkami. Gdy firma kurierska planuje trasy dostaw, fabryka układa grafik produkcji, a operator sieci energetycznej szuka najtańszego sposobu zasilania miast, w tle działa matematyka optymalizacji. To gry w stylu: ułóż idealny rozkład jazdy, w których liczba możliwych ustawień rośnie szybciej niż da się je przeliczyć i przeanalizować. Wiele z tych zadań należy do klasy tzw. twardych problemów kombinatorycznych. W ich przypadku komputer szybko znajduje rozwiązania przeciętne, ale dotarcie do tych naprawdę najlepszych staje się bardzo trudne.

Jedną z wielkich obietnic informatyki kwantowej było właśnie to, że komputery kwantowe poradzą sobie z takimi łamigłówkami lepiej niż maszyny klasyczne. W praktyce sprawdzano to m.in. na tzw. modelach Isinga. To proste modele fizyczne, w których układ wyobrażamy sobie jako siatkę małych „igiełek magnetycznych”. Każda może wskazywać tylko w jedną z dwóch stron, co matematycznie zapisuje się jako +1 lub -1. Te igiełki oddziałują ze sobą – jedne lubią być ustawione tak samo, inne przeciwnie. Szukanie najniższej energii takiego układu jest odpowiednikiem szukania najlepszego rozwiązania problemu z wieloma decyzjami tak/nie, które na siebie wzajemnie wpływają.

W pracy opublikowanej w czasopiśmie Nature Communications autorzy biorą na warsztat szczególnie trudną wersję tej łamigłówki: trójwymiarowe szkło spinowe, gdzie igiełki ułożone są w przestrzenną siatkę, a oddziaływania preferują losowo ułożenie zgodne lub przeciwne. To właśnie na takim zadaniu firma D-Wave pokazała niedawno, że jej komputer kwantowy, tzw. wyżarzarka kwantowa, skaluje się lepiej niż część klasycznych algorytmów.

Wyżarzanie kwantowe

Wyżarzanie kwantowe (ang. quantum annealing) można porównać do chłodzenia metalu. W klasycznym wyżarzaniu rozgrzany materiał powoli się schładza. Atomy mają na początku dosyć energii, by przeskakiwać z układu w układ i omijać niekorzystne konfiguracje, a z czasem stabilizują się w stanie bliskim najlepszego. W wersji kwantowej nie korzysta się z ciepła, ale z fluktuacji kwantowych: system zaczyna w prostym stanie, w którym kwantowe zachowania są bardzo silne, a następnie powoli się je osłabia. Jeśli wszystko pójdzie tak jak trzeba, to układ osiada w niskoenergetycznym, dobrym rozwiązaniu zadania optymalizacyjnego.

Autorzy pracy z „Nature Communications” używają jednak wyżarzania kwantowego w wersji symulowanej na komputerze klasycznym. W tzw. dyskretnym symulowanym wyżarzaniu kwantowym (DT-SQA) prawdziwy układ kwantowy zastępuje się wieloma kopiami klasycznego modelu Isinga, połączonymi w dodatkowym wymiarze czasowym. To matematyczna sztuczka: zamiast mieć jedną siatkę magnesików, mamy ich na przykład kilka tysięcy, powiązanych ze sobą tak, by naśladowały efekt kwantowy. Ten zabieg pozwala wykorzystać zwykłe komputery do odtwarzania zachowania wyżarzarki kwantowej.

Drugim algorytmem jest tzw. adaptacyjne temperowanie równoległe (APT). Tu także mamy wiele kopii problemu, ale każda pracuje w innej temperaturze. Jedne spokojnie skupiają się na optymalizacji detali, inne dość chaotycznie skaczą po krajobrazie rozwiązań. Co jakiś czas kopie zamieniają się konfiguracjami. Dzięki temu system ma szansę wyrwać się z lokalnych minimów, czyli sytuacji, w której rozwiązanie jest nie najgorsze, ale jednocześnie dalekie od ideału. Ten algorytm autorzy wzmacniają tzw. ruchami klastrowymi: zamiast zmieniać położenie pojedynczej igiełki, program może jednym ruchem odwrócić cały klaster, czyli grupę silnie powiązanych igiełek. Co ważne, robi to tak, że całkowita energia układu się nie zmienia, ale rozkład plusów i minusów jest inny. To jak tasowanie puzzli. Czasem mieszając elementy łatwiej można znaleźć drogę do lepszego ich ułożenia.

Komputery probabilistyczne

Cała magia dzieje się jednak dopiero wtedy, gdy połączymy te algorytmy ze specjalnym sprzętem, czyli tzw. komputerami probabilistycznymi. Już od lat 80. badacze, w tym Richard Feynman, zastanawiali się nad rolą losowości i zjawisk fizycznych w obliczeniach, ale współczesna koncepcja p-komputerów jest rozwijana dopiero od ostatnich lat. Zwykły bit przyjmuje wartość 0 lub 1. P-bit, używany w takich maszynach, zachowuje się jak moneta rzucona w powietrze: co chwilę losowo przeskakuje między -1 i +1. Prawdopodobieństwo jednego ze stanów można zwiększać w zależności od sąsiedztwa danego p-bitu. Sieć p-bitów naturalnie naśladuje zachowanie modelu Isinga. Jeśli zaprogramujemy odpowiednie połączenia między nimi, komputer probabilistyczny sam dąży w stronę dobrych rozwiązań.

Takie p-komputery można budować na wiele sposobów: jako programy na zwykłym procesorze CPU, na kartach graficznych GPU (to procesory tworzone pierwotnie do grafiki 3D, dziś masowo używane w sztucznej inteligencji), na programowalnych układach logicznych FPGA, które można elektronicznie dostosować do konkretnego zadania, a w przyszłości także w układach łączących klasyczną elektronikę CMOS z nanomagnesami. TPU, o których wspomina się w literaturze, to z kolei specjalizowane procesory tensorowe projektowane pod obliczenia stosowane w uczeniu maszynowym. Wszystkie te platformy mają jedną cechę wspólną: potrafią wykonywać mnóstwo prostych operacji równolegle, co idealnie pasuje do aktualizowania wielu p-bitów naraz.

Porównanie niekorzystne dla maszyn kwantowych

Autorzy pracy najpierw uruchamiają swoje algorytmy na klasycznych procesorach, żeby porównać matematyczne tempo zbliżania się do optimum z maszyną kwantową D-Wave. Mierzą tzw. energię resztkową, czyli to, o ile aktualne rozwiązanie jest gorsze od najlepszego z możliwych i patrzą, jak ta wielkość spada wraz z czasem. Okazuje się, że gdy w DT-SQA użyje się tysięcy równoległych replik problemu i wybierze się najlepszy wynik, krzywa poprawy staje się porównywalna, a nawet lepsza niż dla fizycznej wyżarzarki kwantowej na tym samym zadaniu 3D.

Co więcej, adaptacyjne temperowanie (ATP) równoległe z ruchami klastrowymi wypada jeszcze korzystniej. Początkowo poprawa jakości rozwiązań jest umiarkowana, ale po pewnym czasie algorytm jakby wchodzi na obroty: zaczyna szybciej redukować energię resztkową, a w dłuższej perspektywie osiąga lepsze rozwiązania niż DT-SQA. Analiza wielu rozmiarów układu sugeruje, że ten efekt jest uniwersalny – w dużych, trudnych problemach to właśnie taka metoda może być najbardziej praktyczna.

Przewaga kwantowa to iluzja?

W tle cały czas toczy się dyskusja o tym, ile w przewadze maszyn kwantowych jest „kwantowej magii”, a ile sprytnego sprzętu. Prawdziwe komputery kwantowe muszą być chłodzone do temperatur bliskich zera absolutnego. To domena kriogeniki, czyli techniki bardzo niskich temperatur. Pracują w specjalnych lodówkach, często przy użyciu niezwykle drogiego ciekłego helu, a mimo to wciąż zmagają się z dekoherencją: delikatne stany kwantowe łatwo psują się pod wpływem otoczenia, jak gdyby układ tracił pamięć o wszystkich możliwych ścieżkach naraz. Wymaga to skomplikowanej korekcji błędów i dodatkowego sprzętu, co zmniejsza potencjalną przewagę.

Komputery probabilistyczne działające w temperaturze pokojowej nie mają tych problemów, bo opierają się na zjawiskach klasycznych. Energia, jaką zużywają na obrót pojedynczego p-bita, może być, według szacunków, nawet o kilka rzędów wielkości mniejsza niż w przypadku dzisiejszych układów GPU czy TPU używanych do podobnych obliczeń. A jednocześnie łatwo je skalować i dostosowywać do konkretnych zadań.

Ważne jest także to, że wśród autorów pracy pochodzących z Włoch, USA i Holandii jest także polski fizyk Marek M. Rams z Instytutu Fizyki Teoretycznej Uniwersytetu Jagiellońskiego w Krakowie. Odpowiadał on za część związaną z fizyką szkieł spinowych i analizą zachowania tych złożonych układów. To przykład na to, że polskie ośrodki badawcze uczestniczą w światowej dyskusji o tym, jak faktycznie mierzyć przewagę kwantową i jakie klasyczne podejścia trzeba wziąć pod uwagę, zanim ogłosi się przełom.

Przeczytaj także: Nobel 2025 z fizyki za mechanikę kwantową


Źródło: naukawpolsce.pap.pl

Last Updated on 26 listopada, 2025 by Krzysztof Kotlarski

Udostępnij
TAGS