Komputery kwantowe to wcale nie taka nowinka - z tym pojęciem jesteśmy już od lat 80. ubiegłego wieku. W ciągu kolejnych kilka lat stworzono podwaliny...
Komputery kwantowe to wcale nie taka nowinka - z tym pojęciem jesteśmy już od lat 80. ubiegłego wieku. W ciągu kolejnych kilka lat stworzono podwaliny teoretyczne dla takiego układu, a za zaletami dla tego typu komputera rozglądano się nieco później, bo w roku 1994, gdy Peter Shor w AT&T Bell Labs stworzył algorytm, który w połączeniu z potencjałem komputera kwantowego dałby radę szybko rozkładać ogromne liczby na iloczyny liczb pierwszych. (tzw. algorytm faktoryzacji Shora)
Tradycyjne komputery w niektórych typach obliczeń będą zawsze w pewnym stopniu "wolniejsze" od zakładanych możliwości komputerów kwantowych. Przede wszystkim - wymyślenie określonego algorytmu kwantowego dla obliczeń według naukowców da możliwość osiągnięcie dokładnych wyników w krótszym czasie, niż ma się to w przypadku najszybszych obecnie superkomputerów na świecie. W ogromnym uproszczeniu - siłą komputera kwantowego jest sposób reprezentowania informacji przez stan kwantowy układu. W standardowych komputerach mamy do czynienia z bitami, które prezentują dwa stany, nie ma mowy o stanie pośrednim. Jeden i zero. Kubit nie przyjmie żadnej znanej nam ze zwykłych sposobów reprezentowania danych wartości - zawsze będzie to jakiś stan pośredni, a zatem w pojedynczym kubicie da się "na chłopski rozum" zapisać większą ilość informacji - stwarza to również możliwość wykonania wielu obliczeń równolegle.
Komputer kwantowy jest i nie jest (cóż za ironia... ;) ) wynalazkiem pozwalającym na rozwiązywanie zupełnie nowych problemów matematycznych. Dlaczego jest i nie jest? Zależy, jak na to popatrzeć. Z jednej strony należy pamiętać o tym, że każdy komputer kwantowy, który otrzyma za pomocą odpowiedniego algorytmu problem do rozwiązania, odpowiednio zaprogramowany problem dla standardowego komputera również będzie zdatny do przeanalizowania i obydwie maszyny otrzymają te same wyniki. Problem jednak w tym, że układy oparte na bitach w niektórych problemach dzieli ogromna przepaść od układów kwantowych. Niektóre obliczenia trwałyby tak straszliwie długo, że nie starczyłoby na nie czasu równającego się całej historii homo sapiens na globie, choć w tym wypadku użyłem i tak zbyt małej skali. Wszystko po to, byście mogli sobie uświadomić, jak ogromne ograniczenia stoją przed standardowymi komputerami. Wyobraźcie sobie takie ograniczenia w skali wieku Wszechświata. Trudne, prawda?
A zatem, komputer kwantowy pozwoli (warunkowo, na potrzeby przykładu) na rozwiązywanie nowych problemów - tych, których rozwiązanie za pomocą standardowego komputera zajęłoby miliony lat. Przybliżenie ludzkości dostępu do ostatecznego wyniku danego problemu zapewni nam szereg odpowiedzi na wiele nurtujących naukowców pytań z zakresu matematyki, fizyki, astronomii. Wszędzie tam, gdzie obliczenia odbywają się na ogromnych liczbach, jest ich wiele i... są po prostu trudne.
Problemem w komputerach kwantowych jest zjawisko dekoherencji - znowu upraszczając, każde oddziaływanie z otoczeniem przez elementy układu może zaburzyć ogólny wynik. Naukowcy starają się wyeliminować tę niedogodność przez utrzymywanie atomów w pułapkach magnetycznych, a następnie sterowanie tychże za pomocą światła laserowego. Każdy rok przynosi kolejne postępy w eliminowaniu zjawiska dekoherencji, w 2013 roku udało się stłumić to zjawisko na 39 minut. Warto wspomnieć, że rok wcześniej były to... 2 sekundy.
Google i NASA mają "swój" komputer kwantowy. Nie byle jaki
D-WAVE 2X będący wspólnym projektem Google oraz NASA (ów komputer stworzyła firma D-Wave dla obu firm) został przetestowany i wychodzi na to, że w konkretnym problemie różnice w szybkości uzyskania wyniku mogą wynosić nawet 100 milionów razy. W problemie dotyczącym optymalizacji D-WAVE 2X wyprzedził konwencjonalny, jednordzeniowy układ w naprawdę imponujący sposób.
W tym wypadku mowa jest o porównaniu całkowicie zwyczajnego układu do "całkowicie zwyczajnego" komputera kwantowego. Operacja, która komputerowi kwantowemu zajmie 1 sekundę, zwykłemu zajęłaby 10 000 lat. To sporo. Przełożenie tych różnic na superkomputery dałoby zapewne jeszcze większe różnice. Adaptacja komputerów kwantowych zależy nie tylko od ich relatywnie wysokiej ceny, ale także i postępu technologii w eliminowaniu niekorzystnego dla wyników obliczeń zjawiska dekoherencji. W świetle tych badań jednak warto zwrócić uwagę na kilka rzeczy - mniejszy superkomputer kwantowy zużyje mniej prądu, a także szybciej dokona obliczeń również oszczędzając energię. Jeżeli przyszłość ma wyglądać właśnie w ten sposób - to ja jestem jak najbardziej za.
Grafika wprowadzająca: Steve Jurvetson @ Flickr na licencji CC BY 2.0
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu