Świat

ChatGPT się buntuje. Teraz mamy pracować za niego

Krzysztof Rojek
ChatGPT się buntuje. Teraz mamy pracować za niego
17

ChatGPT nie wykonuje zadanych mu poleceń. Twórcy nie wiedzą, dlaczego tak się dzieje.

ChatGPT szturmem podbił świat i stał się jednym z najczęściej wykorzystywanych narzędzi cyfrowych 2023 roku. I nie bez powodu - jeżeli w jednym miejscu możemy dostać syntezę naukowych rozwiązań, wiersz w zupełnie nieznanym nam języku, wynik działania matematycznego czy nawet działający kod komputerowy, to nie ma się co dziwić, że ludzie masowo z takich możliwości korzystają.

Jednocześnie jednak, AI ma to do siebie, że jej działań i odpowiedzi nikt nie jest w stanie do końca przewidzieć. Dobrze widać to w kwestii tworzenia grafik, gdzie możemy pokierować ją odpowiednimi promptami, natomiast finalny efekt zawsze pozostaje zagadką do samego końca. To oczywiście powoduje obawy o to, że jeżeli sztuczna inteligencja zyska jakąkolwiek kontrolę, może w łatwy sposób się "zbuntować" i nie wykonywać poleceń. Cóż, wychodzi na to, że póki co taki "bunt maszyn" dostaliśmy w wersji demo.

ChatGPT nie robi tego, co chce użytkownik. Zamiast tego mówi... żebyśmy sami sobie coś zrobili

Osoby, które używały ChatuGPT w ostatnim czasie, zgłaszały, że AI zachowuje się dosyć dziwnie. W normalnych okolicznościach AI wykonywała to, o co się ją poprosiło. Jednak w ciągu ostatniego tygodnia bardzo dużo osób na Twitterze i Reddicie zgłaszało, że odpowiedzi ChatuGPT są mocno ograniczone i sposób odpowiedzi uległ zmianie. Zamiast wykonywać zadaną pracę, szczególnie taką powtarzalną (jak np. wymiana niedziel handlowych w 2024 roku) Chat instruuje użytkowanika w jaki sposób może sam sobie daną kwestię policzyć.

Użytkownicy (jak to użytkownicy) szybko znaleźli sposób na obejście tego problemu, zarzucając modelowi podanie fałszywych danych, albo dopytując go o szczegóły, jednak zmiana zachowania jest bardzo interesująca. Głównie dlatego, że osoby stojące za ChatemGPT zarzekają się, że jego silnik nie był aktualizowany od 11 listopada, co oznacza, że zakrojona na szeroką skalę zmiana zachowania (nie ograniczająca się do jednostkowych przypadków) nie jest efektem działań twórców, ale zmiany w samym AI.

Źródło: Depositphotos

Co to może oznaczać? Przede wszystkim to, że wciąż nie do końca jesteśmy w stanie "okiełznać" AI i nawet w tak stosunkowo prostym narzędziu jak chatbot nie tylko może i dochodzi do tzw. "halucynacji", czyli sytuacji w których AI podaje odpowiedzi zupełnie niezgodne z prawdą, ale też - sam chatbot może nie chcieć działać tak, jak zamierzyli twórcy. Oczywiście - od tego jeszcze daleko do wspomnianego "buntu maszyn", ale to dobrze pokazuje, że od aplikacji do pisania szkolnych wypracowań za uczniów jest jeszcze daleka droga do tego, by AI faktycznie przejęło kontrolę nad jakąkolwiek dziedziną życia.

No, chyba, że chcemy mieć takie same problemy, tylko na dużo większą skalę.

Źródło: Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu