Dzisiejsza AI kojarzy nam się przede wszystkim z usługami internetowymi napędzanymi przez superkomputery ulokowane w serwerowniach gdzieś na świecie. Tymczasem przyszłość to sztuczna inteligencja na naszych osobistych komputerach. Już teraz możemy tego doświadczyć dzięki kartom graficznym NVIDIA GeForce RTX.
Możesz mieć AI na swoim komputerze - darmową i szybszą niż Chat GPT. Jak to zrobić?
AI w chmurze ma oczywiście mnóstwo zalet. Instalujemy prostą aplikację na telefonie albo wchodzimy na stronę www i wpisujemy prompty. To wygodne. Sęk w tym, że nie jest to rozwiązanie idealne. Nasze dane są przesyłane na zewnętrzne serwery firmy, a zapytania (i odpowiedzi) wykorzystywane do wyuczania algorytmów sztucznej inteligencji. Usługi w chmurze bywają też nierzadko przeciążone i niedostępne. Oczywiście zazwyczaj nie jest to większym problemem, ale w przypadku niektórych użytkowników może odgrywać dużą rolę.
Pewną alternatywą jest sztuczna inteligencja działająca lokalnie na naszym komputerze. I tutaj doskonale sprawdzają się karty graficzne NVIDIA GeForce RTX – które skądinąd napędzają też wspomniane wyżej superkomputery obsługujące AI w chmurze.
Sercem technologii RTX są bowiem rdzenie Tensor wykorzystywane do obliczeń związanych ze sztuczną inteligencją. Przez ostatnie lata ich rola w głównej mierze sprowadzała się do zastosowań gamingowych, czego pokłosiem jest rewelacyjna technologia podnoszenia rozdzielczości w grach, a także generowania klatek znana jako DLSS.
Teoretycznie do działań związanych z AI możemy też wykorzystywać CPU, ale nie będzie to aż tak efektywne i po prostu wolniejsze. Procesor jest mniej efektywny w wykonywaniu masowej równoległej obróbki danych w porównaniu do GPU. Tym samym z AI najlepiej będą radziły sobie najnowsze karty GeForce RTX z rodziny 40XX, oparte na architekturze Ada Lovelace, które są wysoko zoptymalizowane i posiadają rdzenie Tensor czwartej generacji.
Tyle teorii, a jak to działa w praktyce?
Uruchomienie lokalnej sztucznej inteligencji na naszej maszynie nie jest skomplikowane. Możemy w tym celu posłużyć się narzędziem Ollama dostępnym na wszystkie popularne systemy lub skorzystać z jednego z „wrapperów” – przypominających ChatGPT aplikacji samodzielnie pobierających modele AI z sieci. Jedną z nich jest np. Jan.
Wspomniane modele są rozwijane przez mniejsze i większe firmy w modelu open-source, a następnie udostępniane bezpłatnie społeczności. Można je pobierać ze stron takich jak Hugging Face czy NVIDIA Playground. Tu warto zwrócić uwagę, że różnią się one liczbą parametrów (a tym samym skutecznością). Przyjęło się, że najlepiej, aby model, z którego chcemy korzystać miał maksymalny rozmiar niższy niż liczba gigabajtów pamięci VRAM dostępnych w naszej karcie graficznej. Jeżeli zatem mamy ich 16 – szukajmy modeli 16B i mniejszych. Przy czym jest to oczywiście pewne uproszczenie i faktyczne zapotrzebowanie na VRAM może się różnić w zależności od implementacji i optymalizacji modelu.
A co potem? Po uruchomieniu aplikacji z podłączonym modelem możemy z niej korzystać tak samo jak ze wspomnianego ChataGPT i mu podobnych. Różnica polega jednak na tym, że wszystko dzieje się na naszym komputerze i żadne dane nie są wysyłane w przestrzeń. Nasza lokalna AI jest też w pełni dostępna tak długo, jak mamy włączony komputer i wykorzystywana tylko i wyłącznie na nasze potrzeby. Mało tego, możemy wystawić nawet endpointy API, a następnie podłączyć do nich używane przez nas aplikacje i narzędzia, co docenią zapewne przede wszystkim programiści.
A co jeżeli chcielibyśmy generować lokalnie grafikę lub nawet filmy? Tutaj również mamy do dyspozycji stosowne narzędzia. Najpopularniejsze z nich to ComfyUI oraz AUTOMATIC1111. Tutaj również do działania będziemy potrzebowali odpowiedniego modelu, który możemy znaleźć na jednej ze wspomnianych wyżej stron lub na CIVITAI. Konieczne będzie również zrozumienie zasad działania samplerów, ponieważ wybieramy je manualnie.
ComfyUI jest pod tym względem nieco bardziej złożonym programem, bo jego interfejs bazuje na węzłach. Daje to jednak o wiele większe możliwości dostosowania finalnego efektu. Oba z tych rozwiązań są jednak bardzo intensywnie rozwijane przez społeczność i oferują dziesiątki wtyczek, które pozwalają uzyskać najróżniejsze efekty – począwszy od bajkowych postaci, przez urzekające scenerie, a na hiperrealistycznych portretach skończywszy. A to wszystko kompletnie bez dodatkowych opłat i wyłącznie w oparciu o moc obliczeniową karty GeForce RTX zainstalowanej w naszym komputerze.
Tym samym jest to doskonałe rozwiązanie wspierające pracę kreatywną. Generowane obrazy, animacje i filmy mogą bowiem stanowić doskonałą inspirację, punkt wyjścia do dalszej edycji i bardziej zaawansowanych prac lub po prostu zostać wykorzystane w mniej lub bardziej amatorskich projektach.
Aplikacje z AI już tu są
Lokalne działanie AI nie sprowadza się jedynie do uruchomienia na swoim komputerze własnego chata czy lokalnego odpowiednika Midjourney. Coraz więcej dostawców oprogramowania i deweloperów sięga po sztuczną inteligencję, aby uczynić swoje produkty bardziej użytecznymi. Dostrzegli to też już tacy giganci, jak Adobe czy Blackmagic, implementując tego typu mechanizmy.
W Adobe Lightroom możemy na przykład wykorzystywać moc obliczeniową naszej karty RTX podczas redukcji szumu na edytowanych fotografiach. Adobe Premiere pozwala nam natomiast z użyciem AI wzbogacać dialogi, a nawet całe sceny czy stosować inteligentne kadrowanie. Prawdziwa magia dzieje się natomiast w Photoshopie, gdzie sztuczna inteligencja usuwa obiekty, nakłada filtry neuronowe czy generuje część obrazów (rozszerzenie generatywne). W DaVinci Resolve lokalna AI jest wykorzystywana natomiast w kluczowych mechanizmach edycji, jak SpeedWarp, AI Scene Detection, AI Smart Reframe czy Magic Mask.
Zresztą sama NVIDIA pokazuje możliwości sztucznej inteligencji w swoich własnych aplikacjach. Tu największe wrażenie robi program NVIDIA Broadcast adresowany do streamerów, twórców wideo i nie tylko. Dzięki niemu możemy w inteligentny sposób redukować hałasy z otoczenia, usuwać tło, a nawet utrzymywać stały kontakt wzrokowy z obiektywem kamery, co jest wręcz magiczne.
Innym przykładem jest NVIDIA Canvas, która pozwala przekształcać „maźnięcia” pędzlem w fotorealistyczne obrazy. Już teraz rozwiązanie to jest wykorzystywane nie tylko przez artystów, ale także do m.in. wizualizacji architektonicznej.
Zastosowania sztucznej inteligencji są niezwykle szerokie, a kolejne wdrożenia możemy obserwować praktycznie codziennie. Technologie NVIDIA, zwłaszcza karty graficzne GeForce RTX, stanowią trzon współczesnych sieci neuronowych, oferując bezkonkurencyjną moc obliczeniową dla zadań związanych ze sztuczną inteligencją. Do tego udostępniono bogaty zestaw narzędzi i oprogramowania dla deweloperów i użytkowników końcowych. Ten kompletny ekosystem określa się mianem RTX AI.
Można się zatem spodziewać, że tych imponujących rozwiązań będzie stale przybywać.
Przyszłość to komputery AI
Widząc moc, jaką dziś dysponują karty NVIDIA GeForce RTX możemy spodziewać się stale rosnącej liczby rozwiązań AI, które będą działały lokalnie na naszych komputerach. Dla dostawców usług i aplikacji to jak najbardziej korzystne rozwiązanie, bo niweluje potrzebę utrzymywania drogiej infrastruktury. Dla użytkowników to natomiast gwarancja, że takie rozwiązania i funkcje bazujące na AI będą bezpieczne, nieustannie dostępne i szanujące ich prywatność.
Lokalna AI daje większą kontrolę nad danymi (choć oczywiście wymaga odpowiedniego sprzętu, oprogramowania i wiedzy technicznej). A to staje się kluczowe – szczególnie w przypadku osób, które wykorzystują aktywnie AI w swojej pracy i nie mogą udostępniać newralgicznych informacji na zewnątrz lub po prostu potrzebują, aby ich narzędzia były niezawodne, szybkie i stabilne (co w przypadku chmurowych odpowiedników nie jest regułą). Wówczas lokalnie działające modele AI i napędzające je karty GeForce RTX błyszczą najmocniej.
Lokalne modele AI pokazują również siłę społeczności open-source. W zdecydowanej większości są to bowiem rozwiązania otwartoźródłowe, nad którymi pracują pasjonaci (choć oczywiście za modelami często stoją duże koncerny, jak chociażby Meta). Tym samym my możemy dziś z nich korzystać zupełnie bezpłatnie, co jest równie dużym atutem.
-
Artykuł powstał we współpracy z firmą NVIDIA
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu