Mastodon
Zdjęcie okładkowe wpisu AlphaQubit – nowa AI od Google rozwiązuje jeden z największych problemów komputerów kwantowych

AlphaQubit – nowa AI od Google rozwiązuje jeden z największych problemów komputerów kwantowych

0
Dodane: 3 dni temu

Z dużym zainteresowaniem przeczytałem kilka informacji na temat nowej AI od Google, o nazwie AlphaQubit. Ta sztuczna inteligencja nie jest jednak kolejnym czatbotem czy generatorem grafik, bądź wideo. Robi jednak to, czego nikomu wcześniej dokonać się nie udało: jest w stanie identyfikować błędy przetwarzania danych w komputerach kwantowych.

O komputerach kwantowych mówi się od dziesięcioleci (od lat 80. XX wieku, by być bardziej precyzyjnym). Wiemy jaki jest ich potencjał, nie chodzi tylko o łamanie szyfrów, których siła opiera się na trudności faktoryzacji olbrzymich liczb, ale też o odkrycia nowych leków, nowe technologie materiałowe, prognozowanie i modelowanie wycinków rzeczywistości i wiele więcej. Jest tylko jeden problem: niby coraz lepsze komputery kwantowe wciąż nie chcą być niezawodne, a istniejące, laboratoryjne implementacje choć interesujące z punktu widzenia nauki, wciąż są dalekie od tego, by być praktycznie użytecznymi rozwiązaniami.

Google nie tak dawno udowodniło, że jest w stanie zbudować chip kwantowy (Willow, następca układu Sycamore), który ma potencjał do przeprowadzenia skomplikowanych obliczeń w zaledwie kilka minut. Obliczeń, które najszybszemu komputerowi zajęłyby czas znacznie dłuższy niż wiek wszechświata. Szkopuł w tym, że te obliczenia choć dowodzą przewagi kwantowych obliczeń, wciąż są techniczną, matematyczną sztuczką, nie mającą praktycznego zastosowania.

Willow – najnowszy chip kwantowy Google to imponujące osiągnięcie wykraczające poza czyste obliczenia kwantowe

Na czym polega główny problem? Dlaczego wciąż nie dysponujemy realnie użytecznym komputerem kwantowym? Cóż, komputery kwantowe to niezwykle delikatne urządzenia. Kubity jako elementy świata kwantowego są niezwykle wrażliwe na otoczenie. Jakiekolwiek nieintencjonalne naruszenie ich stanu (zwane dekoherencją), czym mogą być drgania, niezwykle subtelne wahania temperatury czy wszechobecne promieniowanie kosmiczne, naruszają ich stan i niszczą przechowywane w konkretnym momencie dane.

Google AlphaQubit

Wizja kubitu wygenerowana przez AI (Gemini / Imagen 3)

W informatyce klasycznej informacja przechowywana jest w bitach, które mogą przyjmować wartość 0 lub 1. W informatyce kwantowej mamy kubity, które dzięki zasadom mechaniki kwantowej mogą być w superpozycji stanów 0 i 1 jednocześnie. Można to sobie wyobrazić jako “mieszankę” 0 i 1, gdzie kubit ma pewne prawdopodobieństwo bycia w stanie 0 i pewne prawdopodobieństwo bycia w stanie 1.

Dekoherencja to proces, w którym kubit traci swoją kwantową “magię”, czyli zdolność do bycia w superpozycji. Dzieje się tak na skutek oddziaływania kubitu z otoczeniem (np. z innymi cząstkami, polem elektromagnetycznym, temperaturą, mówiąc ogólnie: z szumem otoczenia). To oddziaływanie powoduje, że informacja o stanie kubitu “wycieka” do otoczenia, a kubit zachowuje się wówczas jak klasyczny bit (czyli przyjmuje konkretną wartość 0 lub 1). Jeżeli dekoherencja zajdzie zanim komputer kwantowy wykona obliczenia, wynik do niczego się nie nadaje.

Te błędy to istna zakała komputerów kwantowych, stojąca na drodze do ich skalowania. Dotychczas im większą liczbą kubitów dysponowała konkretna kwantowa maszyna, tym większy poziom błędów odnotowywano, bo kubity oprócz reakcji na otoczenie, reagowały też same ze sobą. Rozumiecie problem? Nie dość, że wyzwaniem jest zapewnienie dostatecznie izolowanego środowiska, pozbawionego zakłóceń, które mogłyby wpływać na stan kwantowy kubitów, to jeszcze próba zwiększenia ich liczby (celem jest użyteczność systemu) również powoduje lawinowy wzrost błędów.

Google jednak pochwaliło się AI o nazwie AlphaQubit. Jest to dekoder oparty na sztucznej inteligencji, który – jak informuje zespół Google DeepMind i Google Quantum AI na oficjalnym blogu –identyfikuje błędy obliczeń kwantowych z niespotykaną dotąd dokładnością.

Jak wspomniałem kluczowym problemem w komputerach kwantowych jest dekoherencja, czyli utrata informacji kwantowej z powodu interakcji z otoczeniem. Błędy pojawiają się bardzo często, co uniemożliwia wykonywanie złożonych obliczeń. Korekcja błędów kwantowych ma na celu rozwiązanie tego problemu. AlphaQubit wykorzystuje redundancję, czyli nadmiarowość.

Zamiast przechowywać informację kwantową w jednym kubicie fizycznym (rzeczywistym kubicie, z którym mamy do czynienia w urządzeniu kwantowym), koduje się informację, która ma być podstawą kwantowych obliczeń w wielu kubitach fizycznych. Taki zbiór kubitów fizycznych, reprezentuje wówczas jeden kubit logiczny. Udaje się to właśnie za pomocą redundancji: nawet zaburzenie jednego fizycznego kubitu nie powoduje utraty informacji z kubitu logicznego.

Artystyczna wizja chipu kwantowego wygenerowana przez AI (Gemini / Imagen 3)

Aby wykryć błędy, regularnie przeprowadza się tzw. kontrole spójności i tym właśnie zadaniem zajmuje się wytrenowany przez Google transformer, czyli właśnie dekoder AlphaQubit. Zapewnia on automatyczną kontrolę, która pozwala sprawdzić, czy między kubitami fizycznymi wchodzącymi w skład kubitu logicznego zachodzą poprawne relacje. Nie mierzymy przy tym bezpośrednio stanu kubitów logicznych, żeby ich nie zniszczyć (pomiar w sensie fizycznym jest tym, co dekoherencja, jedyna różnica polega na tym, że w przeciwieństwie do zaburzeń losowych jest zaburzeniem celowym). Mierzymy jedynie pewne cechy, które pozwalają zidentyfikować, czy i jaki błąd wystąpił. Wynik tych pomiarów nazywamy syndromem błędu.

Jesteście jeszcze? To jedziemy dalej. Dekoder AlphaQubit to wytrenowana sieć neuronowa, algorytm AI, który analizuje wyniki kontroli spójności (syndromy błędów). Na podstawie tych wyników dekoder identyfikuje, jaki typ błędu wystąpił i w którym miejscu (na którym kubicie fizycznym). Oczywiście dekoder robi to bez mierzenia stanu kubitów logicznych, co zniszczyłoby informację kwantową. Po zidentyfikowaniu błędu, dekoder stosuje odpowiednią korektę, czyli operację na kubitach fizycznych, która cofa skutki błędu. Dzięki temu informacja kwantowa przechowywana w kubicie logicznym zostaje zachowana.

Przełom? W sensie naukowym tak, bo udało się zniwelować największą dotychczas wadę systemów kwantowych: rosnący lawinowo poziom błędów wraz ze wzrostem kubitów w maszynie kwantowej. Co więcej, Google osiągnęło wręcz sytuację, w której większa siatka kubitów fizycznych składająca się na kubit logiczny zapewnia stabilniejsze przechowywanie informacji. To jest rewolucja. Czy to oznacza, że niebawem zobaczymy użyteczne komputery kwantowe, bitcoin jest zagrożony (serio, widziałem takie teksty), a szyfrowane algorytmami asymetrycznymi (z kluczem publicznym) dane przestaną być bezpieczne? Nic z tych rzeczy.

AlphaQubit to niewątpliwy sukces, nowy układ kwantowy Google Willow to także imponujące osiągnięcie. Ile kubitów potrzebujemy by uzyskać praktyczny system kwantowy zdolny do przełomowych osiągnięć, takich jak np. złamanie szyfru RSA z kluczem 4096-bitowym lub dłuższym, czy obliczenia użyteczne dla projektowania nowych metamateriałów? Szacuje się że jakiś milion kubitów. Najnowszy chip kwantowy Google – Willow – ma ich… 105.

Dla tych którzy chcieliby poszerzyć horyzonty: wpis na blogu Google oraz ciekawy artykuł dotyczący AlphaQubit w Nature.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .