Sztuczna Inteligencja

ChatGPT właśnie stał się jeszcze mądrzejszy. GPT-4 oficjalnie debiutuje!

Kacper Cembrowski
ChatGPT właśnie stał się jeszcze mądrzejszy. GPT-4 oficjalnie debiutuje!
23

Stało się — OpenAI oficjalnie wypuściło na rynek GTP-4, ulepszoną wersję modelu językowego sztucznej inteligencji, stojącej za ChatGPT.

GPT-4, czyli nowy etap dla sztucznej inteligencji

Chociaż ChatGPT potrafił zaskoczyć i w bardzo krótkim czasie naprawdę zrewolucjonizował rynek, to nie był rozwiązaniem idealnym. Model językowy OpenAI nie działał najszybciej i przede wszystkim był w stanie poradzić sobie „tylko” z tekstem — lecz Microsoft oraz firma, w którą zainwestowali na tym etapie już miliardy dolarów, nie chcieli na tym poprzestać. Efektem tego jest GPT-4, które dziś oficjalnie ujrzało światło dzienne.

Polecamy na Geekweek: Teraz to już przesadzili. Midjourney v5 robi takie zdjęcia, że szok!

Źródło: Depositphotos

OpenAI nazywa GPT-4 najnowszym kamieniem milowym w swoich wysiłkach na rzecz uczenia sztucznej inteligencji. Nowy model językowy jest już dostępny za pośrednictwem API OpenAI z listą oczekujących, a także dla wszystkich aktywnych subskrybentów ChatGPT Plus, planu premium OpenAI.

Co nowego w GPT-4? Dlaczego to tak ważna premiera?

Modły zostały wysłuchane — jak podaje OpenAI, GPT-4 rozumie już nie tylko tekst, ale jest w stanie przyjmować dane i analizować obrazy, odpowiadając na pytania dotyczące wybranej grafiki. Firma zapewnia również, że całość działa na „poziomie ludzkim” w różnych profesjonalnych i akademickich testach porównawczych. W teorii świetna sprawa, w praktyce jesteśmy coraz bliżej momentu, w którym SI będzie w stanie zastąpić ludzi na wielu różnych stanowiskach.

Źródło: Depositphotos

OpenAI przyznaje, że w zwykłej rozmowie rozróżnienie GPT-3.5 od GPT-4 może nie być wcale takie proste i zmiany nie będą jakoś niezwykle widoczne. Różnica pojawia się jednak w momencie, w którym złożoność zadania osiąga wystarczający próg; na blogu firmy czytamy, że GPT-4 jest dużo bardziej niezawodny, kreatywny i jest w stanie obsłużyć znacznie bardziej szczegółowe instrukcje niż GPT-3.5.

Warto jednak zaznaczyć, że funkcja analizowania obrazów nie jest jeszcze dostępna dla wszystkich. Jak możemy się dowiedzieć, na początek OpenAI testuje tę funkcję z firmą Be My Eyes. Niemniej, dodanie jej dla wszystkich jest zaledwie kwestią czasu.

Źródło: Depositphotos

Źródło, grafika wyróżniająca: OpenAI

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy:

news