Technologie

Nowy chip działa za pomocą... światła. Czy tak wygląda przyszłość?

Jakub Szczęsny
Nowy chip działa za pomocą... światła. Czy tak wygląda przyszłość?
Reklama

Czy możliwe jest, by komputery przyszłości zamiast prądu używały światła do przetwarzania informacji? A dlaczego nie? Dwie amerykańskie firmy zaprezentowały urządzenia, które wykorzystują lasery do przeprowadzania obliczeń matematycznych. I niby wyglądają niepozornie, jednak w ich wnętrzu kryją się rewolucyjne wręcz możliwości. Zastosowanie światła jako narzędzia obliczeniowego to nie tylko zmiana medium, ale właściwie zmiana paradygmatu architektury komputerów i ich przyszłości.

Współczesne komputery elektroniczne stają się coraz mniej efektywne. Od dekad rozwój ich mocy obliczeniowej opierał się na prawie Moore'a – liczbie tranzystorów, które da się upchnąć na jednym chipie. Problem w tym, że z fizycznego punktu widzenia zaczynamy dochodzić do granic wyznaczanych nam przez fizykę. Ciepło, zakłócenia, energochłonność – to wszystko sprawia, że kolejne generacje chipów przestają nas zaskakiwać.

Reklama

Na drugim biegunie znajduje się sztuczna inteligencja, której potrzeby obliczeniowe rosną właściwie w tempie wykładniczym. GPT-4, Claude, Gemini wymagają przetwarzania ogromnych macierzy danych. I właśnie tutaj przyda nam się... światło. Wydajność tradycyjnych chipów nie nadąża za potrzebami obliczeniowymi AI. I dlatego właśnie fotonika budzi w nas wielkie emocje. To wręcz obietnica szybszych, wydajniejszych i potężniejszych układów w urządzeniach.

Komputery, które liczą za pomocą światła

Lightmatter z Kalifornii i Lightelligence z Bostonu pokazały światu dwa nowe typy procesorów, które część obliczeń wykonują za pomocą światła laserowego. Nie chodzi tu o samo przesyłanie danych (jak w łączach światłowodowych), ale o rzeczywiste operacje matematyczne, np. mnożenie macierzy – arcyważne dla trenowania sieci neuronowych. Czynnikiem warunkującym sukces są tu prędkość i energooszczędność: światło porusza się znacznie szybciej niż elektrony, a komponenty optyczne nagrzewają się mniej niż ich elektroniczne odpowiedniki.

Uruchomiono na nich m.in. algorytm uczący się grać w Pac-Mana oraz duże modele językowe. I tutaj zaznaczamy: to nie prototypy, a już gotowe układy, które spokojnie mogą trafić do użytku przemysłowego nawet w ciągu najbliższych kilku lat. Fakt, że udało się uruchomić na nich zaawansowane modele AI, pokazuje, że rewolucja w tym zakresie odbywa się "na serio". To nie są ani mrzonki, ani pobożne życzenia.

Lightmatter integruje cztery chipy fotoniczne i dwa elektroniczne, umożliwiając precyzyjne sterowanie danymi wewnątrz systemu. Układ hybrydowy pozwala łączyć szybkość światła z niezawodnością elektronicznych kontrolerów. Z kolei PACE od Lightelligence skupia się na rozwiązywaniu problemów optymalizacyjnych: tu skorzystają m.in. logistyka, zarządzanie ruchem, analiza ryzyka oraz finanse. Szybkość przetwarzania ogromnych ilości danych przy możliwie niskim poborze mocy może być game-changerem w owych sektorach.

Architektura oparta na świetle

Fotony niosą informacje zawsze i wciąż - odmiennie od układu: "prąd płynie lub nie płynie". Nawet niewielkie zakłócenia mogą powodować i wyeskalować poważne błędy obliczeniowe. Lightmatter i Lightelligence radzą sobie z tym inaczej: pierwszy integruje układy elektroniczne do kontroli strumienia danych, drugi – wykorzystuje kontrolowaną losowość jako zaletę w problemach optymalizacyjnych. Różne formy walki z problemem analogowości sygnałów świetlnych pokazują, że fazę teorii już dawno przekroczyliśmy. Mamy w rękach gotowe rozwiązania i one... działają.

Innym problemem pozostaje programowanie i integracja z obecnymi systemami. Komputery fotoniczne będą wymagać innych narzędzi optymalizacji kodu. Jednak fakt, iż komponenty mogą być wytwarzane w istniejących fabrykach chipów, znacznie skraca czas ich adaptacji rynku. Co więcej, ich modularność i możliwość łączenia z istniejącymi układami pozwala na elastyczne skalowanie stopnia ich wdrożenia. To będzie oznaczać, że koszty takiego przejścia w kierunku nowszej technologii nie będą mordercze. Z czasem natomiast uda się zmniejszyć jej pułap cenowy — jak zwykle to zresztą ma miejsce w przypadku "nowinek".

Mówimy o komputerach, które nie tylko działają inaczej, ale mogą być produkowane przy użyciu tych samych narzędzi, co chipy oparte na krzemie. Skalowalność? Realna. Przewaga? Niesamowita. Jest się o co bić.

Reklama

Czytaj również: Polska idzie w półprzewodniki. Ministerstwo Cyfryzacji odsłania karty

Czy idziemy w kierunku rewolucji?

Centra danych mogą już w ciągu 3–5 lat zyskać hybrydowe jednostki obliczeniowe oparte na świetle. Co to oznacza dla nas — przeciętnych użytkowników? Bardziej zaawansowane AI, szybsze odpowiedzi, mniejsze zużycie energii. A dla branży? Całkowitą redefinicję architektury systemów informatycznych. To zaś może wpłynąć nie tylko na producentów sprzętu, ale także na software house’y, firmy analityczne, twórców oprogramowania i operatorów infrastruktur IT. Nowe kompetencje, nowe języki, nowe możliwości – i nowi liderzy na rynku. A potem już tylko nowe możliwości i jeszcze więcej korzyści dla klienta końcowego.

Reklama

Nadeszła era fotoniki nie teoretycznej, nie eksperymentalnej, ale tej stosowanej. Uzyskaliśmy wreszcie pełnoprawny, funkcjonalny model nowego typu komputera. A to nie zdarza się często. Ktokolwiek wątpi w to, że mamy przed sobą nową erę w informatyce, powinien w tym momencie zastanowić się po raz wtóry.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama