Czy możliwe jest, by komputery przyszłości zamiast prądu używały światła do przetwarzania informacji? A dlaczego nie? Dwie amerykańskie firmy zaprezentowały urządzenia, które wykorzystują lasery do przeprowadzania obliczeń matematycznych. I niby wyglądają niepozornie, jednak w ich wnętrzu kryją się rewolucyjne wręcz możliwości. Zastosowanie światła jako narzędzia obliczeniowego to nie tylko zmiana medium, ale właściwie zmiana paradygmatu architektury komputerów i ich przyszłości.

Współczesne komputery elektroniczne stają się coraz mniej efektywne. Od dekad rozwój ich mocy obliczeniowej opierał się na prawie Moore'a – liczbie tranzystorów, które da się upchnąć na jednym chipie. Problem w tym, że z fizycznego punktu widzenia zaczynamy dochodzić do granic wyznaczanych nam przez fizykę. Ciepło, zakłócenia, energochłonność – to wszystko sprawia, że kolejne generacje chipów przestają nas zaskakiwać.
Na drugim biegunie znajduje się sztuczna inteligencja, której potrzeby obliczeniowe rosną właściwie w tempie wykładniczym. GPT-4, Claude, Gemini wymagają przetwarzania ogromnych macierzy danych. I właśnie tutaj przyda nam się... światło. Wydajność tradycyjnych chipów nie nadąża za potrzebami obliczeniowymi AI. I dlatego właśnie fotonika budzi w nas wielkie emocje. To wręcz obietnica szybszych, wydajniejszych i potężniejszych układów w urządzeniach.
Komputery, które liczą za pomocą światła
Lightmatter z Kalifornii i Lightelligence z Bostonu pokazały światu dwa nowe typy procesorów, które część obliczeń wykonują za pomocą światła laserowego. Nie chodzi tu o samo przesyłanie danych (jak w łączach światłowodowych), ale o rzeczywiste operacje matematyczne, np. mnożenie macierzy – arcyważne dla trenowania sieci neuronowych. Czynnikiem warunkującym sukces są tu prędkość i energooszczędność: światło porusza się znacznie szybciej niż elektrony, a komponenty optyczne nagrzewają się mniej niż ich elektroniczne odpowiedniki.
Uruchomiono na nich m.in. algorytm uczący się grać w Pac-Mana oraz duże modele językowe. I tutaj zaznaczamy: to nie prototypy, a już gotowe układy, które spokojnie mogą trafić do użytku przemysłowego nawet w ciągu najbliższych kilku lat. Fakt, że udało się uruchomić na nich zaawansowane modele AI, pokazuje, że rewolucja w tym zakresie odbywa się "na serio". To nie są ani mrzonki, ani pobożne życzenia.
Lightmatter integruje cztery chipy fotoniczne i dwa elektroniczne, umożliwiając precyzyjne sterowanie danymi wewnątrz systemu. Układ hybrydowy pozwala łączyć szybkość światła z niezawodnością elektronicznych kontrolerów. Z kolei PACE od Lightelligence skupia się na rozwiązywaniu problemów optymalizacyjnych: tu skorzystają m.in. logistyka, zarządzanie ruchem, analiza ryzyka oraz finanse. Szybkość przetwarzania ogromnych ilości danych przy możliwie niskim poborze mocy może być game-changerem w owych sektorach.
Architektura oparta na świetle
Fotony niosą informacje zawsze i wciąż - odmiennie od układu: "prąd płynie lub nie płynie". Nawet niewielkie zakłócenia mogą powodować i wyeskalować poważne błędy obliczeniowe. Lightmatter i Lightelligence radzą sobie z tym inaczej: pierwszy integruje układy elektroniczne do kontroli strumienia danych, drugi – wykorzystuje kontrolowaną losowość jako zaletę w problemach optymalizacyjnych. Różne formy walki z problemem analogowości sygnałów świetlnych pokazują, że fazę teorii już dawno przekroczyliśmy. Mamy w rękach gotowe rozwiązania i one... działają.
Innym problemem pozostaje programowanie i integracja z obecnymi systemami. Komputery fotoniczne będą wymagać innych narzędzi optymalizacji kodu. Jednak fakt, iż komponenty mogą być wytwarzane w istniejących fabrykach chipów, znacznie skraca czas ich adaptacji rynku. Co więcej, ich modularność i możliwość łączenia z istniejącymi układami pozwala na elastyczne skalowanie stopnia ich wdrożenia. To będzie oznaczać, że koszty takiego przejścia w kierunku nowszej technologii nie będą mordercze. Z czasem natomiast uda się zmniejszyć jej pułap cenowy — jak zwykle to zresztą ma miejsce w przypadku "nowinek".
Mówimy o komputerach, które nie tylko działają inaczej, ale mogą być produkowane przy użyciu tych samych narzędzi, co chipy oparte na krzemie. Skalowalność? Realna. Przewaga? Niesamowita. Jest się o co bić.
Czytaj również: Polska idzie w półprzewodniki. Ministerstwo Cyfryzacji odsłania karty
Czy idziemy w kierunku rewolucji?
Centra danych mogą już w ciągu 3–5 lat zyskać hybrydowe jednostki obliczeniowe oparte na świetle. Co to oznacza dla nas — przeciętnych użytkowników? Bardziej zaawansowane AI, szybsze odpowiedzi, mniejsze zużycie energii. A dla branży? Całkowitą redefinicję architektury systemów informatycznych. To zaś może wpłynąć nie tylko na producentów sprzętu, ale także na software house’y, firmy analityczne, twórców oprogramowania i operatorów infrastruktur IT. Nowe kompetencje, nowe języki, nowe możliwości – i nowi liderzy na rynku. A potem już tylko nowe możliwości i jeszcze więcej korzyści dla klienta końcowego.
Nadeszła era fotoniki nie teoretycznej, nie eksperymentalnej, ale tej stosowanej. Uzyskaliśmy wreszcie pełnoprawny, funkcjonalny model nowego typu komputera. A to nie zdarza się często. Ktokolwiek wątpi w to, że mamy przed sobą nową erę w informatyce, powinien w tym momencie zastanowić się po raz wtóry.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu