Stało się — OpenAI oficjalnie wypuściło na rynek GTP-4, ulepszoną wersję modelu językowego sztucznej inteligencji, stojącej za ChatGPT.
ChatGPT właśnie stał się jeszcze mądrzejszy. GPT-4 oficjalnie debiutuje!
GPT-4, czyli nowy etap dla sztucznej inteligencji
Chociaż ChatGPT potrafił zaskoczyć i w bardzo krótkim czasie naprawdę zrewolucjonizował rynek, to nie był rozwiązaniem idealnym. Model językowy OpenAI nie działał najszybciej i przede wszystkim był w stanie poradzić sobie „tylko” z tekstem — lecz Microsoft oraz firma, w którą zainwestowali na tym etapie już miliardy dolarów, nie chcieli na tym poprzestać. Efektem tego jest GPT-4, które dziś oficjalnie ujrzało światło dzienne.
Polecamy na Geekweek: Teraz to już przesadzili. Midjourney v5 robi takie zdjęcia, że szok!
OpenAI nazywa GPT-4 najnowszym kamieniem milowym w swoich wysiłkach na rzecz uczenia sztucznej inteligencji. Nowy model językowy jest już dostępny za pośrednictwem API OpenAI z listą oczekujących, a także dla wszystkich aktywnych subskrybentów ChatGPT Plus, planu premium OpenAI.
Co nowego w GPT-4? Dlaczego to tak ważna premiera?
Modły zostały wysłuchane — jak podaje OpenAI, GPT-4 rozumie już nie tylko tekst, ale jest w stanie przyjmować dane i analizować obrazy, odpowiadając na pytania dotyczące wybranej grafiki. Firma zapewnia również, że całość działa na „poziomie ludzkim” w różnych profesjonalnych i akademickich testach porównawczych. W teorii świetna sprawa, w praktyce jesteśmy coraz bliżej momentu, w którym SI będzie w stanie zastąpić ludzi na wielu różnych stanowiskach.
OpenAI przyznaje, że w zwykłej rozmowie rozróżnienie GPT-3.5 od GPT-4 może nie być wcale takie proste i zmiany nie będą jakoś niezwykle widoczne. Różnica pojawia się jednak w momencie, w którym złożoność zadania osiąga wystarczający próg; na blogu firmy czytamy, że GPT-4 jest dużo bardziej niezawodny, kreatywny i jest w stanie obsłużyć znacznie bardziej szczegółowe instrukcje niż GPT-3.5.
Warto jednak zaznaczyć, że funkcja analizowania obrazów nie jest jeszcze dostępna dla wszystkich. Jak możemy się dowiedzieć, na początek OpenAI testuje tę funkcję z firmą Be My Eyes. Niemniej, dodanie jej dla wszystkich jest zaledwie kwestią czasu.
Źródło, grafika wyróżniająca: OpenAI
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu