Sztuczna inteligencja

Auto-GPT to ChatGPT na sterydach. Jest kilka haczyków

Jakub Szczęsny
Auto-GPT to ChatGPT na sterydach. Jest kilka haczyków
0

ChatGPT jako interfejs do obsługi modelu GPT (3.5, w przypadku Auto-GPT jest wynikający ze specyfiki dostęp do GPT 4) jest dosyć prosty i wymaga wpisania dosyć pokaźnych czasami poleceń, które dopiero po podaniu wszystkich parametrów, dają nam pożądany efekt. Auto-GPT usprawnia cały proces, a ponadto - daje możliwość wykorzystania pełnego potencjału GPT 4.

Auto-GPT autorstwa Significant Gravitas nie ma jak na razie swojej wersji webowej, takiej "open and play". Podstawowym haczykiem jest to, że Auto-GPT trzeba sobie zainstalować, a ponadto - trzeba mieć płatne konto w OpenAI. A tutaj już lekko (i tanio) nie jest: wykorzystanie tokenów przez GPT 4 jest spore przy okazji używania Auto-GPT, a to może narazić nas na bardzo wysokie koszty. Dlatego warto monitorować użycie tokenów przez Auto-GPT, by nie okazało się, że korzystanie z rozwiązania będzie nas kosztowało naprawdę drogo.

Polecamy na Geekweek: Unia Europejska chce regulować sztuczną inteligencję. Jest ważny powód

Przede wszystkim, aby zainstalować Auto-GPT, musimy użyć odpowiedniego środowiska. Możemy je stworzyć za pomocą VSCode + devcontainera, Dockera lub Pythona 3.10 lub nowszego. Co bardzo ważne - nie potrzebujemy wcale tylko Linuksa do tego, aby odpowiednie środowisko do obsługi Auto-GPT sobie wytworzyć: może to być również Windows lub macOS z zainstalowanymi wszystkimi wyżej komponentami. Potem należy podpiąć nasz klucz API, który będzie stanowić niejako "potwierdzenie", że mamy konto w OpenAI i ów klucz API niejako wskazuje na nasze konto w zakresie wykorzystania tokenów (i następnie obciążania naszego konta). Najistotniejsze jest to, że Auto-GPT to projekt, który miał na celu stworzenie "autonomicznego ChatGPT", który nie będzie wymagał od nas zbyt dużego zaangażowania, aby móc uzyskać określone efekty.

Dla Auto-GPT po prostu ustala się konkretny cel (np. obsługa konta na Twitterze, odpowiadanie na odpowiedzi, generowanie codziennie jakiegoś angażującego tweeta) i wszystko to dzieje się niejako z automatu. Właściwie, to Auto-GPT pozwala nam stworzyć m. in. własnego chatbota opartego również na GPT 4, co może spodobać się wielu biznesom. Ale poza tym - Auto-GPT to także świetne narzędzie do "produkowania" treści na konkretne tematy, przy założeniu ich dużej objętości oraz ilości. Otwartoźródłowość Auto-GPT sprawia, że kumaty adept programowania może dostosować sobie narzędzie do własnych potrzeb.

Podstawowe ograniczenia Auto-GPT? Przede wszystkim, nie jest dla każdego

Interfejs ChatGPT jest prosty nie bez powodu: to narzędzie wręcz wymaga od nas tego, abyśmy wiedzieli na temat środowisk uruchomieniowych, programowania, AI coś więcej, niż tylko byli w stanie wygenerować w ChatGPT działającego "Hello Worlda" w dowolnym języku programowania. I to jest problem: to oznacza pewną ekskluzywność Auto-GPT. Z drugiej strony: nie rozumiem, po co "zwykli" użytkownicy mieliby korzystać z Auto-GPT, który może i jest znacznie potężniejszy, ale z drugiej strony - nie potrafię wyjaśnić, w jaki sposób supermoce wynikające z używania tego narzędzia, miałyby być dla nich przydatne.

Pewne jest co innego: OpenAI oraz możliwość zbudowania narzędzi wokół modeli GPT mają sojuszników w formie deweloperów, którzy są w stanie zbudować prawdziwie przerażające (w kontekście swoich możliwości) narzędzia: i to niejako w technologiach oraz otwartoźródłowych projektach jest piękne. Co więcej, ta inicjatywa w sumie jest bardzo przydatna dla samego OpenAI, które dzięki Auto-GPT może stać się bardziej interesujące dla konkretnych grup użytkowników... a te po prostu zapłacą za tokeny. Twórca ChatGPT i GPT 4 zdecydowanie nie może narzekać.

Warto nadmienić, że GPT 4 potrafi pracować na grafikach oraz materiałach wideo, a także ma możliwość pracy na treściach pozyskanych z Internetu. Jest to więc narzędzie znacznie potężniejsze, niż model w wersji 3.5.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu