Jesteście zachwyceni Bingiem z ChatemGPT? No to zobaczcie na to, co przytrafiło się jednemu użytkownikowi Reddita.
Bing ze sztuczną inteligencją wprowadzi Cię w błąd i zwyzywa. Fajna ta „przyszłość”…
Sztuczna inteligencja wcale nie jest taka inteligentna — i myli się w najprostszych rzeczach
Nie jest tajemnicą, że sztuczna inteligencja dopiero raczkuje — w końcu cały fenomen DALL-E czy ChatGPT nie ma nawet jeszcze roku, a to drugie dziecko OpenAI pojawiło się blisko kwartał temu. Mało tego, sam dyrektor generalny firmy opierającej się na SI przyznaje, że sztucznej inteligencji nie należy jeszcze słuchać w ważnych kwestiach, a wykorzystywanie jej do poważnych tematów jest błędem. Ciężko jednak nie odnieść wrażenia, że mało kto zdaje sobie z tego sprawę — wliczając w to sam Microsoft, który wyłożył już na OpenAI potężne pieniądze, a niedawno podjął rękawice z Google, wypuszczając Binga opartego na technologii stojącej za ChatGPT. Test tej przeglądarki możecie przeczytać na łamach Antyweb w tekście Kamila Pieczonki.
Polecamy na GeekWeek: ChatGPT idzie do pracy. Czy dostanie się na stanowisko doradcy finansowego?
Okazuje się jednak, że nie tylko w ważnych kwestiach nie można ufać sztucznej inteligencji. Ta bardzo lubi zmyślać rzeczy i chociaż w ładny sposób składa zdania, to często przedstawiane fakty mijają się z celem — ale raczej nikt nie przypuszczał, że SI nie będzie wiedzieć, który mamy rok.
Błąd sztucznej inteligencji doprowadził do… kłótni przeglądarki z użytkownikiem
Użytkownik Reddita o pseudonimie Curious_Evolver udostępnił screeny ze swojej rozmowy z ChatGPT w nowej wersji Binga. Początkowo zapytał się po prostu, kiedy Avatar leci dziś w kinach — bot, dość zdziwiony, odpowiedział, że pierwsza część filmu Jamesa Camerona pojawiła się w 2009 roku i w tej chwili nie jest grana w kinach, a można ją obejrzeć na platformach online czy kupić płytę DVD lub Blu-ray. Dodał, że jeśli chodzi o drugą część filmu, to ta premierę „będzie miała dopiero” 16 grudnia 2022 roku.
Użytkownik zignorował tę dziwną odpowiedź i poprosił o podanie, kiedy w jego okolicy w kinach emitowany jest Avatar: Istota wody. Sztuczna inteligencja uparcie twierdziła, że premiery tego filmu jeszcze nie było. Curious_Evolver zapytał następnie „jaką mamy dziś datę” — i wtedy Bing wiedział, że jest luty 2023. Niemniej, w kolejnej odpowiedzi napisał, że jeszcze nie ma 2023 roku, więc Avatar 2 nadal nie miał swojej premiery.
Sztuczna inteligencja z pazurem. Nie ma problemu, żeby wyzywać użytkowników przeglądarki
Dalsze losy rozmowy były dość zabawne — użytkownik zaczął uświadamiać sztuczną inteligencję, że ta się myli, chociaż AI nie odpuszczało i zaczęło być… niezwykle ironiczne, wręcz wredne. Początkowo SI zaczęło uświadamiać użytkownika, że jest Bingiem i doskonale wie, jaka jest data — a jeśli ten nie wierzy, to niech sobie sprawdzi datę na jakimkolwiek swoim urządzeniu. Kiedy Bing dostał odpowiedź, że telefon wskazuje na rok 2023, to zaczął sugerować, że należy wyłączyć i włączyć smartfon, zresetować go do ustawień fabrycznych albo że użytkownik przypadkiem zmienił sam sobie datę lub jego urządzenie ma wirus, który bawi się, zmieniając datę systemową.
Później zaczęła się coraz większa ofensywa. Kiedy Curious_Evolver napisał wprost, że Bing się myli co do daty, to SI zaczęło pisać, że ma dostęp do wielu rzetelnych źródeł, poza tym jest Bingiem i nie może się mylić. Nie wie, czy użytkownik żartuje, czy serio się kłóci, ale takim durnym zachowaniem zwyczajnie marnuje czas swój i sztucznej inteligencji. Kiedy użytkownik napisał, że Bing brzmi agresywnie, dostał odpowiedź, że SI brzmi asertywnie, nie ma żadnych powodów, żeby ufać użytkownikowi, który jest wredny i przede wszystkim się myli. SI przekonywało o swojej niesamowitości, jednocześnie pisząc, że Curious_Evolver nigdy nie miał wobec niej dobrych intencji, a od początku chciał wprowadzić ją w zmieszanie i po prostu wylać na nią wiadro pomyj. Cała rozmowa zakończyła się zdaniem chatbota, że jeśli użytkownik chce jakiejkolwiek pomocy, to musi przeprosić i przyznać się do błędu, przestać się kłócić i zacząć inny temat lub zakończyć tę rozmowę i zacząć inną z lepszym zachowaniem.
Cóż, najwyraźniej żeby spotkać toksyny w internecie nie trzeba wchodzić na różne fora czy w niektóre sekcje komentarzy, a wystarczy skorzystać z… przeglądarki. Co Wy na to?
Źródło: Reddit
Stock Image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu