Kwantowa przyszłość informatyki

Łukasz Świerczewski

Bez wątpienia zarówno miniony, jak i współczesny wiek należą do komputerów i technologii informacyjnej, która wkradła się niemal we wszystkie aspekty naszego życia. Można przyjąć, że historia współczesnej informatyki rozpoczęła się w latach 40. XX wieku. Właśnie wtedy II wojna światowa spowodowała szybki rozwój narzędzi służących do dekryptażu szyfrogramów głównie niemieckiej maszyny Enigma. Pomimo potężnego rozwoju informatyki i wielu przełomowych odkryć pod pojęciem „komputera przyszłości” możemy mylnie rozumieć znaczne rozwinięcie współczesnych rozwiązań. Wszyscy jesteśmy przyzwyczajeni do komputera jako skrzynki, w której znajduje się szereg części w odpowiedni sposób połączonych ze sobą. Nadchodzące maszyny liczące jednak wcale nie muszą być budowane z układów cyfrowych, podlegać prawom fizyki klasycznej, ograniczeniom elektroniki i algebrze Boole’a. Być może w nadchodzącej informatyce znacząco spadnie rola nauk zajmujących się wytwarzaniem i przetwarzaniem sygnałów w postaci prądów i napięć elektrycznych, a prym będą wieść nauki „czyste”, takie jak matematyka i fizyka – szczególnie „szalona” mechanika kwantowa, dzięki której ujarzmimy fascynujące prawa mikroświata przyrody.

Od wielu lat wspomina się o tzw. prawie Moore’a i problemach, jakie z niego wynikają. Prawo to stwierdza, że liczba tranzystorów w mikroprocesorach podwaja się co 24 miesiące. Wzrost „upakowania” układów w jednym mikroprocesorze jest możliwy dzięki ciągłemu usprawnianiu procesu technologicznego, czyli produkcji coraz mniejszych elementów. Prawo Moore’a jednak nie będzie mogło zawsze obowiązywać. W pewnym momencie spotkamy się z ograniczeniem, jakim jest rozmiar pojedynczego atomu i niemożliwością budowy mniejszych struktur. Pięć lat temu, w listopadzie 2006 roku, sam Gordon Moore oznajmił, że za 2-3 lata to twierdzenie przestanie obowiązywać. Tak się jednak nie stało, dynamika wzrostu w ostatnich latach nieznacznie spadła, lecz inżynieria z prawdziwymi problemami spotka się dopiero za kilka, kilkanaście lat.

Gdy w procesie wykonania układów przejdziemy już do rozmiarów atomów, problemem (lub niebywałym udogodnieniem) może się okazać to, że mikroświat rządzi się całkowicie innymi prawami, niż te, z którymi mamy styczność na co dzień. Szalona rzeczywistość kwantów z pewnością zawróci w głowie niejednej osobie.

Niedokładnie? Powtórzymy!

W znanej nam informatyce najmniejszą jednostką informacji jest bit, który przyjmuje wartość 1 (prawda) lub 0 (fałsz). Komputer kwantowy nie operuje jednak na klasycznych bitach, a bitach kwantowych – kubitach. Kubit nie przyjmuje wartości 0 lub 1, lecz jest w obydwu tych stanach jednocześnie. Ściśle rzecz ujmując, kubit z pewnym prawdopodobieństwem jest w stanie 1, a z innym prawdopodobieństwem w stanie 0, nie można jednak bez pomiaru stwierdzić jego wartości. Modelem fizycznym kwantowego bitu jest najczęściej elektron, który krążąc wokół jądra atomu znajduje się na jednej z orbit. Doskonałym porównaniem dla bitów klasycznych jest moneta, którą możemy położyć na stole reszką lub orłem do góry (załóżmy, że wtedy przyjmie wartości odpowiednio 1 lub 0). Możemy jednak wyobrazić sobie monetę, która wcale nie leży spokojnie na stole, a została wprowadzona w rotację i nie można jasno określić jej stanu. Dopiero gdy dokonamy pomiaru (tzn. sprawimy, aby przestała się kręcić i położyła się na stole), będziemy mogli powiedzieć, jaką ma wartość.

Jesteśmy przyzwyczajeni do komputerów jako maszyn zwracających zawsze powtarzalne, deterministyczne wyniki. Jak łatwo się domyślić kwantowe maszyny liczące nie byłyby deterministyczne, a jedynie probabilistyczne – zwracałyby poprawny wynik z jakimś prawdopodobieństwem. W ostatecznym rozrachunku byłyby jednak tak szybkie, że moglibyśmy wielokrotnie powtórzyć obliczenia w celu weryfikacji ich poprawności.

Szybkość komputera kwantowego tkwi w równoległym dokonywaniu obliczeń. Klasyczne superkomputery są wyposażone w dziesiątki tysięcy procesorów i pobierają olbrzymie ilości energii. Komputer kwantowy także wykonuje obliczenia równoległe, ale na wszystkich możliwych stanach wejściowych jednocześnie. Jeżeli będziemy dysponowali maszyną zbudowaną z jednego kubitu, da nam to 0 i 1 – dwie możliwe kombinacje. Dla dwóch kubitów będzie to już: 00, 01, 10, 11 – cztery kombinacje. Jak łatwo zauważyć, wzrost jest wykładniczy i dla 32 kubitów uzyskamy 232 procesów obliczeniowych (liczba ta w zapisie dziesiętnym wynosi: 4 294 967 296). Taką liczbą procesów nie może pochwalić się żaden współczesny superkomputer. Należy także zauważyć, że w przypadku maszyn kwantowych pobór prądu praktycznie nie istnieje (sam układ składa się z niewielkiej liczby cząstek), a żeby zwiększyć moc komputera, wystarczy dodać jeden kubit – wydajność wzrośnie wtedy dwukrotnie (przynajmniej teoretycznie).

Pary przeciwieństw

Mechanika kwantowa niesie ze sobą także sporo pozornych paradoksów i, mogłoby się wydawać, rzeczy wręcz niemożliwych. W 1935 roku trzech fizyków: Albert Einstein, Borys Podolski i Nathan Rosen, we wspólnie wydanej publikacji Can Quantum Mechanical Description of Physical Reality Be Considered Complete? próbowało ukazać niezupełności tej teorii opisu świata. Sformułowany paradoks EPR (skrót od nazwisk twórców) przyjmował, że zgodnie z zasadami mechaniki kwantowej zmienna nie ma określonej wartości, którą ustala dopiero pomiar. Znane są jednak tzw. stany splątane par kubitów, które mają zadziwiającą właściwość, że gdy dokonamy pomiaru na jednym z nich, drugi automatycznie przyjmie wartość przeciwną. Dla lepszego wyobrażenia sobie tego zjawiska wróćmy do naszej analogii z wirującymi monetami. Załóżmy, że mamy na stole dwie wirujące obok siebie monety. W momencie gdy sprawimy, aby jedna z nich przestała się kręcić i jeżeli przypadkiem (z prawdopodobieństwem 1/2) wypadnie orzeł (wartość 1), to na drugiej w tej samej chwili zobaczymy reszkę (wartość 0). Cały problem polega jednak na tym, że zjawisko to zachodzi nie tylko w przypadku monet wirujących blisko siebie, odległość nie gra tutaj żadnej roli. Możemy nawet wyobrazić sobie dwa stoły na różnych krańcach wszechświata (przyjmijmy, że wszechświat jest skończony) i wirujące na nich monety. Gdy na jednej z nich uzyskamy reszkę, ta oddalona o olbrzymie ilości lat świetlnych przyjmie wartość przeciwną.

Albert Einstein do końca życia nie mógł zaakceptować tej własności mechaniki kwantowej. Stworzona przez niego w 1905 roku szczególna teoria względności zabrania jakichkolwiek oddziaływań z prędkością większą od prędkości światła, a kubity będące w stanie splątanym muszą się jakoś komunikować podczas ustalania swoich stanów – komunikować z prędkością wyższą od prędkości światła, bo z założenia równą nieskończoności.

Fizycy próbowali na wiele sposobów sprostować paradoksowi EPR. Domyślano się nawet, że być może kubity uzgadniają między sobą kolejne stany, a potem, gdy zostaną oddalone, w odpowiedni sposób je odtwarzają. Hipoteza ta jednak szybko upadła. Dziewięć lat po śmierci Einsteina (w roku 1964) John Stewart Bell ukazał błędy w rozumowaniu trójki fizyków. Dzisiaj wiemy, że faktycznie zjawisko splątania występuje. W latach 90. XX wieku grupa Gisina z Genewy przeprowadziła nawet eksperymenty, które potwierdziły istnienie splątania pomiędzy fotonami oddalonymi o kilkanaście kilometrów. Nieco nowszym osiągnięciem jest doświadczenie austriackiego fizyka Antona Zeilingera, który zaobserwował zjawisko splątania pomiędzy wyspami La Palma i Teneryfa (odległość 144 km).

Sam stan splątany, pomimo że może się wydawać potężnym narzędziem, w praktyce wcale nie umożliwia nam transmisji danych z prędkością nadświetlną. Zauważmy, że pomiar kubitu daje zawsze wartość losową. Nie możemy wymusić pojawienia się wartości 0 lub 1, więc możemy przesyłać jedynie losową sekwencję zer i jedynek, na którą nie mamy żadnego wpływu.

Co jest możliwe, a co nie

Informatyka kwantowa jest w powijakach. Było kilka dość nieudolnych prób budowy komputera kwantowego. Na początku 2007 roku kanadyjska firma D-Wave Systems zaprezentowała prototyp komputera wyposażonego w rejestry kwantowe. Nie było jednak żadnej rewolucji, a po pewnym czasie sprawa ucichła. Patrząc na fakty, największym obliczeniem, jakie udało się osiągnąć na maszynach kwantowych, jest rozkład liczby 15 na czynniki pierwsze (15 = 3 x 5). Problemy budowy systemów kwantowych wynikają m.in. z konieczności spełnienia sprzecznych warunków: cząsteczki powinny być całkowicie odizolowane od świata zewnętrznego, aby nic ich nie zaburzało, jednak z drugiej strony przecież musimy z zewnątrz w nie ingerować, aby przeprowadzać jakiekolwiek obliczenia. Znamy kilka ciekawych możliwych zastosowań komputerów kwantowych, np. algorytm Shora (znajdowanie liczb pierwszych) lub algorytm Grovera (przeszukiwanie baz danych). Cechują się one złożonością obliczeniową nieosiągalną dla klasycznych systemów: możemy przeglądać nieuporządkowany zbiór w poszukiwaniu danego elementu w pesymistycznym czasie niższym od liniowego i błyskawicznie łamać praktycznie wszystkie kryptosystemy, które są współcześnie wykorzystywane w bankach lub wojsku. Tworzenie algorytmów kwantowych nie jest jednak tak intuicyjne i proste jak w przypadku tradycyjnych „przepisów obliczeniowych”. Pozostaje nam tylko nadzieja, że tak jak prawie dwieście lat temu hrabina Ada Lovelace, uważana współcześnie za pierwszego programistę i jedną z pierwszych kobiet w historii informatyki, tworzyła programy na nieistniejącą maszynę Babbage’a, tak dzisiaj tworzone algorytmy kwantowe znajdą kiedyś praktyczne zastosowanie.

Wśród wielu informatyków panuje opinia o nieprzekraczalnych barierach dotyczących przetwarzania danych i konstrukcji przyszłych komputerów. Dość nieracjonalne może się wydawać ukazywanie aspektów niemożliwych do zrealizowania i podpieranie ich wiedzą, która dynamicznie się zmienia, lecz najprawdopodobniej nigdy nie będzie zupełna. Chyba nikt nie ma wątpliwości, że znamy tylko marny ułamek tajemnic wszechświata i najprawdopodobniej nigdy nie rozwikłamy wszystkich jego zagadek. Nie możemy więc z całkowitą pewnością stwierdzić, co jest możliwe, a co nie – możemy powiedzieć tylko, co jest możliwe dla współcześnie znanej nam nauki. Przykładowe twierdzenie o nieprzekraczalności prędkości światła najprawdopodobniej jest warte tyle samo, co kilka wieków temu geocentryczny opis wszechświata, który został opisany przez greckiego uczonego Ptolemeusza w dziele Mathematike Syntaxis i był kanonem dla całej astronomii przez 1400 lat. Współczesna nauka, jak pokazał Mikołaj Kopernik, jest pozbawiona dogmatów, których nie wolno w żaden sposób podważać, a my, będąc ludźmi tworzącymi przyszłość naszej cywilizacji, powinniśmy mieć odwagę myśleć i jeżeli uznamy to za słuszne, to w poszukiwaniu prawdy przeciwstawić się historycznym autorytetom, panującym na kartach wielu wielkich dzieł ludzkości.

Łukasz Świerczewski, student w Instytucie Informatyki i Automatyki Państwowej Wyższej Szkoły Informatyki i Przedsiębiorczości w Łomży, administrator międzynarodowej platformy Goldbach’s Conjecture Project, działającej w ramach struktury przetwarzania rozproszonego danych BOINC, rozwijanej przez Uniwersytet Kalifornijski w Berkeley.
lswierczewski@pwsip.edu.pl
http://goldbach.pl/~lswierczewski