47

Te wyniki Google i NASA wskazują jasno – czas na komputery kwantowe!

Komputery kwantowe to wcale nie taka nowinka – z tym pojęciem jesteśmy już od lat 80. ubiegłego wieku. W ciągu kolejnych kilka lat stworzono podwaliny teoretyczne dla takiego układu, a za zaletami dla tego typu komputera rozglądano się nieco później, bo w roku 1994, gdy Peter Shor w AT&T Bell Labs stworzył algorytm, który w […]

Komputery kwantowe to wcale nie taka nowinka – z tym pojęciem jesteśmy już od lat 80. ubiegłego wieku. W ciągu kolejnych kilka lat stworzono podwaliny teoretyczne dla takiego układu, a za zaletami dla tego typu komputera rozglądano się nieco później, bo w roku 1994, gdy Peter Shor w AT&T Bell Labs stworzył algorytm, który w połączeniu z potencjałem komputera kwantowego dałby radę szybko rozkładać ogromne liczby na iloczyny liczb pierwszych. (tzw. algorytm faktoryzacji Shora)

Tradycyjne komputery w niektórych typach obliczeń będą zawsze w pewnym stopniu „wolniejsze” od zakładanych możliwości komputerów kwantowych. Przede wszystkim – wymyślenie określonego algorytmu kwantowego dla obliczeń według naukowców da możliwość osiągnięcie dokładnych wyników w krótszym czasie, niż ma się to w przypadku najszybszych obecnie superkomputerów na świecie. W ogromnym uproszczeniu – siłą komputera kwantowego jest sposób reprezentowania informacji przez stan kwantowy układu. W standardowych komputerach mamy do czynienia z bitami, które prezentują dwa stany, nie ma mowy o stanie pośrednim. Jeden i zero. Kubit nie przyjmie żadnej znanej nam ze zwykłych sposobów reprezentowania danych wartości – zawsze będzie to jakiś stan pośredni, a zatem w pojedynczym kubicie da się „na chłopski rozum” zapisać większą ilość informacji – stwarza to również możliwość wykonania wielu obliczeń równolegle.

DWave_128chip

Komputer kwantowy jest i nie jest (cóż za ironia… ;) ) wynalazkiem pozwalającym na rozwiązywanie zupełnie nowych problemów matematycznych. Dlaczego jest i nie jest? Zależy, jak na to popatrzeć. Z jednej strony należy pamiętać o tym, że każdy komputer kwantowy, który otrzyma za pomocą odpowiedniego algorytmu problem do rozwiązania, odpowiednio zaprogramowany problem dla standardowego komputera również będzie zdatny do przeanalizowania i obydwie maszyny otrzymają te same wyniki. Problem jednak w tym, że układy oparte na bitach w niektórych problemach dzieli ogromna przepaść od układów kwantowych. Niektóre obliczenia trwałyby tak straszliwie długo, że nie starczyłoby na nie czasu równającego się całej historii homo sapiens na globie, choć w tym wypadku użyłem i tak zbyt małej skali. Wszystko po to, byście mogli sobie uświadomić, jak ogromne ograniczenia stoją przed standardowymi komputerami. Wyobraźcie sobie takie ograniczenia w skali wieku Wszechświata. Trudne, prawda?

A zatem, komputer kwantowy pozwoli (warunkowo, na potrzeby przykładu) na rozwiązywanie nowych problemów – tych, których rozwiązanie za pomocą standardowego komputera zajęłoby miliony lat. Przybliżenie ludzkości dostępu do ostatecznego wyniku danego problemu zapewni nam szereg odpowiedzi na wiele nurtujących naukowców pytań z zakresu matematyki, fizyki, astronomii. Wszędzie tam, gdzie obliczenia odbywają się na ogromnych liczbach, jest ich wiele i… są po prostu trudne.

Problemem w komputerach kwantowych jest zjawisko dekoherencji – znowu upraszczając, każde oddziaływanie z otoczeniem przez elementy układu może zaburzyć ogólny wynik. Naukowcy starają się wyeliminować tę niedogodność przez utrzymywanie atomów w pułapkach magnetycznych, a następnie sterowanie tychże za pomocą światła laserowego. Każdy rok przynosi kolejne postępy w eliminowaniu zjawiska dekoherencji, w 2013 roku udało się stłumić to zjawisko na 39 minut. Warto wspomnieć, że rok wcześniej były to… 2 sekundy.

Google i NASA mają „swój” komputer kwantowy. Nie byle jaki

D-WAVE 2X będący wspólnym projektem Google oraz NASA (ów komputer stworzyła firma D-Wave dla obu firm) został przetestowany i wychodzi na to, że w konkretnym problemie różnice w szybkości uzyskania wyniku mogą wynosić nawet 100 milionów razy. W problemie dotyczącym optymalizacji D-WAVE 2X wyprzedził konwencjonalny, jednordzeniowy układ w naprawdę imponujący sposób.

dwavewyniki

W tym wypadku mowa jest o porównaniu całkowicie zwyczajnego układu do „całkowicie zwyczajnego” komputera kwantowego. Operacja, która komputerowi kwantowemu zajmie 1 sekundę, zwykłemu zajęłaby 10 000 lat. To sporo. Przełożenie tych różnic na superkomputery dałoby zapewne jeszcze większe różnice. Adaptacja komputerów kwantowych zależy nie tylko od ich relatywnie wysokiej ceny, ale także i postępu technologii w eliminowaniu niekorzystnego dla wyników obliczeń zjawiska dekoherencji. W świetle tych badań jednak warto zwrócić uwagę na kilka rzeczy – mniejszy superkomputer kwantowy zużyje mniej prądu, a także szybciej dokona obliczeń również oszczędzając energię. Jeżeli przyszłość ma wyglądać właśnie w ten sposób – to ja jestem jak najbardziej za.

Grafika wprowadzająca: Steve Jurvetson @ Flickr na licencji CC BY 2.0

Pozostałe grafiki: 1, 2