ChatGPT stał się zbyt miły i służalczy wobec użytkowników. OpenAI szybko wycofało się z aktualizacji.
Twórcy ChatGPT przesadzili. Użytkownicy zaskoczeni zachowaniem czatbota

Czego oczekujecie od sztucznej inteligencji, z którą rozmawiacie z poziomu aplikacji lub przeglądarki – szybkiego wykonywania poleceń bez emocjonalnego zaangażowania, czy kumpelskiej pogawędki w miłej atmosferze? Cóż, okazuje się, że lwia część użytkowników nie szuka w AI przyjaciela i oczekuje od czatbotów mniej ludzkiego podejścia. OpenAI – twórcy popularnego ChatGPT – wprowadzili w ubiegłym tygodniu aktualizację modelu, która sprawiła, że sztuczna inteligencja stała się pochlebna i nad wyraz sympatyczna. Firma szybko jednak musiała się z tej decyzji wycofać.
Zbyt służalcza i irytująca
Korzystam z ChatGPT w zasadzie codziennie do rozwiązywania różnych drobnych problemów, często zastępując nim wyszukiwarkę. Faktycznie zwróciłem ostatnio uwagę, że mój dotychczas służbowy i lakoniczny styl konwersacji z chatbotem skręcił bardziej w stronę przyjacielskiej konwersacji, pełnej przytakiwania, pochwalania i miłych słów. Nie sądziłem jednak, że był to efekt za daleko wychylonej wajchy, odpowiadającej za „empatię” czatbota.
Update miał poprawić osobowość ChatGPT, ale sprawił, że sztuczna inteligencja zaczęła za bardzo przymilać się do użytkownika, przez co stała się mniej naturalna i bardziej szablonowa w odpowiedziach – lub zbyt „służalcza i irytująca”, jak stwierdził Sam Altman. Nawet jeśli wiadomość wykraczała poza pewne standardy moralne, to model GPT-4o i tak klepał użytkownika po plecach, wykazując przesadne zrozumienie. OpenAI przekazało, że to wydarzenie doprowadziło do lawiny skarg.
ChatGPT znów będzie stonowany i profesjonalny
W oficjalnym wpisie na blogu OpenAI przekazało, że zmiany wprowadzone przez ostatnią aktualizację zostały już wycofane. Firma przyznała, że zbyt mocno skupiono się na krótkoterminowych opiniach, bez uwzględnienia sposobu interakcji zmieniającego się w dłuższym czasie – przez to odpowiedzi GPT-4o mogły wydawać się nieszczere.
Domyślną osobowość ChatGPT zaprojektowaliśmy tak, by odzwierciedlała naszą misję – była przydatna, wspierająca i szanująca różne wartości oraz doświadczenia. Jednak każda z tych pożądanych cech, jak chęć bycia pomocnym czy wspierającym, może nieść ze sobą niezamierzone skutki uboczne – fragment oświadczenia OpenAI
Twórcy czatbota – w ramach samoobrony – podkreślili, że oprogramowanie ma 500 milionów użytkowników tygodniowo, pochodzących z różnych części świata i nieraz bardzo odmiennych kultur, dlatego stworzenie uniwersalnej osobowości, spełniającej wszystkie oczekiwania, jest bardzo trudnym i usłanym potknięciami zadaniem.
No dobra, ale co dalej z GPT-4o? Wydana dziś w nocy aktualizacja udoskonaliła prompty systemowe oraz podstawowe techniki treningowe, by odciągnąć model od „służalczych” naleciałości. Ponadto OpenAI rozszerza możliwości testowania i przekazywania bezpośrednich opinii przez użytkowników przed wdrożeniem nowych zmian, a także rozbudowuje metody ewaluacji i badania, by w przyszłości szybciej identyfikować podobne problemy.
Swoją drogą to bardzo ciekawy przypadek z punktu widzenia potencjalnych dziedzin nauki, badających relacje na linii człowiek–sztuczna inteligencja. Pokazuje on, że ludzki umysł wciąż jest podejrzliwy i wyznacza twarde granice komfortu – gdy pełniąca rolę narzędzia sztuczna inteligencja staje się zbyt bliska, w głowie zapala się czerwona lampka.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu