Sztuczna Inteligencja

Taki będzie nowy ChatGPT. Lista zmian robi wrażenie

Kamil Pieczonka
Taki będzie nowy ChatGPT. Lista zmian robi wrażenie
Reklama

OpenAI ogłosiło wprowadzenie nowej serii zaawansowanych modeli językowych dostępnych za pośrednictwem swojego API - GPT 4.1.

Rodzina GPT-4.1 obejmuje trzy warianty: GPT-4.1, GPT-4.1 mini oraz, po raz pierwszy jeszcze mniejszy model GPT-4.1 nano. Według OpenAI, nowe modele oferują znaczącą poprawę wydajności w porównaniu do poprzednich generacji, w tym GPT-4o i GPT-4o mini, szczególnie w obszarach kluczowych dla deweloperów i zastosowań komercyjnych.

Reklama

Jakie zmiany w nowych modelach?

Jednym z fundamentalnych obszarów ulepszeń w serii GPT-4.1 są zdolności programistyczne. Model GPT-4.1 wykazuje znaczący wzrost precyzji w standardowych benchmarkach kodowania, osiągając wynik 54.6% w teście SWE-bench Verified, co stanowi poprawę o 21.4 punktu procentowego w stosunku do GPT-4o. Deweloperzy mogą również oczekiwać większej niezawodności przy zadaniach takich jak generowanie różnic w kodzie w różnych formatach oraz precyzyjniejsze stosowanie się do wymogów formatowania. W wewnętrznych testach OpenAI zaobserwowano spadek liczby niepotrzebnych edycji kodu z 9% (GPT-4o) do zaledwie 2% w przypadku GPT-4.1.

Kolejną istotną poprawką jest ulepszone śledzenie instrukcji. Modele z rodziny GPT-4.1 demonstrują wyższą niezawodność w wykonywaniu złożonych poleceń użytkownika. Obejmuje to precyzyjne stosowanie się do specyficznych formatów wyjściowych (np. XML, YAML), respektowanie instrukcji negatywnych (określających, czego model ma unikać), wykonywanie zadań w zadanej kolejności oraz spełnianie wymogów dotyczących treści odpowiedzi. Poprawa jest widoczna również w kontekście konwersacji, gdzie model efektywniej wykorzystuje informacje z wcześniejszych wiadomości. Wyniki w benchmarkach takich jak IFEval (wzrost z 81.0% dla GPT-4o do 87.4% dla GPT-4.1) potwierdzają wyraźną poprawę.

Seria GPT-4.1 wprowadza również rewolucyjne zmiany w obsłudze długiego kontekstu. Modele te są w stanie przetwarzać dane wejściowe o długości do jednego miliona tokenów, co stanowi znaczące rozszerzenie możliwości w porównaniu do poprzednich modeli (128 tys. tokenów). Co istotne, zwiększona pojemność idzie w parze z lepszym zrozumieniem i wykorzystaniem dostarczonego kontekstu. Testy typu "needle-in-a-haystack" wykazały, że GPT-4.1 potrafi precyzyjnie odnaleźć ukrytą informację niezależnie od jej położenia w tak obszernym oknie kontekstowym.

Jeszcze lepsze rozpoznawanie obrazów

Modele GPT-4.1 wykazują również zaawansowane zdolności w zakresie rozumienia obrazu. Cała rodzina modeli charakteryzuje się wysoką wydajnością w tej dziedzinie. Szczególnie interesujący jest fakt, że model GPT-4.1 mini, mimo mniejszego rozmiaru, często osiąga wyniki porównywalne lub nawet lepsze niż GPT-4o w standardowych benchmarkach wizyjnych. Zdolności te obejmują również przetwarzanie długich materiałów wideo, gdzie GPT-4.1 osiągnął czołowe wyniki w teście Video-MME, analizując filmy trwające 30-60 minut.

Nowa oferta OpenAI została zaprojektowana z myślą o zróżnicowanych potrzebach deweloperów, stąd podział na trzy warianty. GPT-4.1 jest najbardziej zaawansowanym modelem, przeznaczonym do najbardziej wymagających zadań. GPT-4.1 mini oferuje zbalansowaną wydajność, stanowiąc znaczący postęp w segmencie mniejszych modeli i będąc atrakcyjną opcją pod względem stosunku możliwości do kosztu i szybkości. Z kolei GPT-4.1 nano to najszybszy i najtańszy model w ofercie, zoptymalizowany pod kątem aplikacji wymagających minimalnych opóźnień.

Reklama

Warto również odnotować, że wszystkie modele z serii GPT-4.1 posiadają bazę wiedzy zaktualizowaną do czerwca 2024 roku. W tej chwili są one dostępne wyłącznie za pośrednictwem API, choć OpenAI deklaruje, że niektóre z ulepszeń będą stopniowo integrowane z modelem GPT-4o dostępnym w interfejsie ChatGPT. Nowe modele wprowadzono wraz z korzystniejszą strukturą cenową – GPT-4.1 jest średnio o 26% tańszy od GPT-4o dla typowych zapytań. Znaczące usprawnienia w kluczowych obszarach, takich jak kodowanie, rozumienie instrukcji i praca z długim kontekstem, w połączeniu z elastycznym wyborem wariantów modelu i zoptymalizowaną strukturą cenową, otwierają nowe perspektywy dla tworzenia zaawansowanych i niezawodnych aplikacji opartych na sztucznej inteligencji.

źródło: OpenAI

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama