IBM właśnie przedstawił nowy komputer kwantowy: Condora. Wyposażony w ponad 1000 kubitów był najważniejzym punktem konferencji producenta z 4 grudnia i reprezentuje dlsze badania nad jak na razie raczkującą jeszcze technologią kwantowych maszyn liczących. IBM od dawna koncentruje się na zwiększaniu liczby kubitów w swoich komputerów - natomiast coraz bardziej zaczyna stawiać na poprawianie ich odporności na błędy.
Kubit - czyli odpowiednik tradycyjnego bitu w komputerze jest podstawową jednostką informacji w obliczeniach kwantowych. W ostatnich latach pojawiło się sporo maszyn liczących, których moc obliczeniową ujmujemy w skali kilkuset kubitów. Ze względu na fakt, iż komputery kwantowe mają na razie ogromną tendencję do popełniania błędów, IBM stara się uczynić Condora absolutnie bezbłędnym. Jednak ze względu na fakt, iż kubity w takich komputerach są wysoce niestabilne, a warunki zewnętrzne mogą na nie w prosty sposób wpływać - IBM postanowił przyjrzeć się właśnie temu problemowi, który - według firmy - stanowi główną przeszkodę w rozwoju kolejnych generacji kwantowych maszyn liczących.
Komputery kwantowe mają potencjał do rozwiązywania problemów, które są poza zasięgiem klasycznych komputerów. Wykorzystują one zjawiska fizyczne typowe dla mechaniki kwantowej takie jak: splątanie i superpozycja, które pozwalają kubitom działać nie tylko w stanach: "prąd płynie" i "nie płynie", ale i "płynie i nie płynie jednocześnie". Jak wspomnieliśmy wyżej - te stany kwantowe trudno jest utrzymywać cały czas w takiej samej pozycji i jak na razie - komputery kwantowe popełniają całkiem sporo błędów.
Nowa strategia IBM zakłada budowanie maszyn kwantowych charakteryzujących się niską skłonnością do błędów. Jednym z przykładów jest chip o nazwie Heron, rozwijający 133 kubity, który charakteryzuje rekordowo niski poziom błędu: trzykrotnie niższy niż w przypadku poprzednich procesorów kwantowych. Naukowcy twierdzą, że aby osiągnąć naprawdę użyteczne obliczenia kwantowe, potrzebne są systemy korekcji błędów, które wymagają ponad 1000 fizycznych kubitów na jeden logiczny kubit. Jednak niedawno pojawił się alternatywny schemat korekcji błędów, znany jako kwantowa kontrola parzystości o niskiej gęstości (qLDPC), który może znacząco zmniejszyć rozmiary systemów korygujących błędy. IBM skupia się teraz na budowie chipów przystosowanych do pracy z qLDPC i połączeniu ich w sieć.
Niestety - jak twierdzi samo IBM - implementacja tej technologii może zająć wiele lat, ze względu na trudności związane z połączeniem odpowiedniej liczby kubitów. Warto zauważyć, że inne zespoły naukowe również prowadzą badania nad wdrożeniem qLDPC do własnych projektów.
Do końca 2030 roku użyteczne obliczenia kwantowe powinny stać się faktem, a to będzie oznaczało dotąd niedostępne możliwości dla nauki i technologii. Komputery kwantowe mogą okazać się szalenie istotne w kontekście również takich "wynalazków" jak sztuczna inteligencja, czy symulacje. Warto kibicować IBM w zakresie rozwijania maszyn liczących opartych na zjawiskach kwantowych - korekcja błędów jak na razie jest największym problemem naukowców i to ów fakt spędza ich sen z powiek, gdy myślą o powszechnym użyciu technologii kubitowej w informatyce.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu