Sztuczna Inteligencja

Najpotężniejsza AI na świecie stała się... głupsza. Twórcy są zaskoczeni

Jakub Szczęsny
Najpotężniejsza AI na świecie stała się... głupsza. Twórcy są zaskoczeni
Reklama

Najnowsza wersja modelu sztucznej inteligencji, GPT-4 od OpenAI spotkała się z mieszanymi reakcjami użytkowników. Ci, którzy mieli okazję przetestować system zauważyli spadek wydajności w porównaniu do poprzednich wersji. Ale to nie wszystko: użytkownicy nazywają go "leniwym" i "głupszym" w kontekście umiejętności logicznego rozumowania i ogólnej jakości odpowiedzi.

Użytkownicy wyrażali w ostatnim czasie swoje rozczarowanie na Twitterze i na forach deweloperów OpenAI skarżąc się na osłabioną logikę, większą liczbę błędnych odpowiedzi oraz trudności w śledzeniu dostarczonych informacji. Wskazują także na problemy z postępowaniem zgodnie z instrukcjami, zapominaniem o dodawaniu nawiasów w kodzie i zapamiętywaniem ostatnich podpowiedzi.

Reklama

Jeden z deweloperów, który używa GPT-4 do kodowania funkcji na swojej stronie internetowej, porównuje nową wersję do zamiany szybkiego Ferrari na starego, poobijanego pickupa. Zastanawia się, czy w ogóle warto płacić za obecne możliwości modelu. I słusznie, bo w jego ocenie GPT 3.5 (czyli dostępny dla wszystkich ChatGPT) radzi sobie lepiej.

Użytkownicy oceniają, że GPT-4 generuje szybsze odpowiedzi, ale jakość pisania została obniżona. Co więcej, niektórzy użytkownicy przekazują zdumiewające oceny twierdząc, że GPT-4 stał się bardziej leniwy. Okazuje się, że zmiana w wydajności GPT-4 jest znacząca w porównaniu do jego wcześniejszych wersji, które były chwalone przez społeczność AI. Model GPT-4, będący najpotężniejszym modelem sztucznej inteligencji, zyskał popularność wśród programistów i osób z branży technologicznej. Model ten jest multimodalny i może przetwarzać zarówno obrazy, jak i dane tekstowe.

Jednak po początkowym entuzjazmie użytkownicy zaskoczeni byli wysokimi kosztami korzystania z GPT-4. Zaczęto rozważać możliwość zastosowania podejścia Mixture of Experts (MOE), które polega na tworzeniu kilku mniejszych modeli GPT-4 specjalizujących się w różnych dziedzinach. I rzeczywiście: po jakimś czasie pojawiły się również przecieki informacji na temat architektury GPT-4, sugerujące, że faktycznie OpenAI wprowadza "flotę" mniejszych modeli eksperckich.

Choć nie ma oficjalnych komentarzy ze strony OpenAI na temat tych przecieków, eksperci AI zgadzają się, że podejście MOE może przynieść lepsze odpowiedzi ze strony sztucznej inteligencji. Niektórzy zauważają jednak, że istnieje pewien kompromis między kosztami a jakością. Niepokojący spadek wydajności GPT-4 może być związany z przygotowywaniem floty mniejszych modeli eksperckich i ich szkoleniem. OpenAI zwyczajnie wykorzystywałoby mnóstwo zasobów do tego, aby przygotować jak najlepsze mniejsze modele specjalizujące się w konkretnych dziedzinach. Stąd czasowe problemy z wydajnością GPT4. Kiedy tylko szkolenie zakończy się, wydajność wróci do poprzedniego poziomu. I co najważniejsze - dzięki mniejszym modelom, GPT4 stanie się jeszcze potężniejszym rozwiązaniem generującym wysokiej jakości odpowiedzi na problemy użytkowników.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama