Sztuczna Inteligencja

Bing ze sztuczną inteligencją wprowadzi Cię w błąd i zwyzywa. Fajna ta „przyszłość”…

Kacper Cembrowski
Bing ze sztuczną inteligencją wprowadzi Cię w błąd i zwyzywa. Fajna ta „przyszłość”…
Reklama

Jesteście zachwyceni Bingiem z ChatemGPT? No to zobaczcie na to, co przytrafiło się jednemu użytkownikowi Reddita.

Sztuczna inteligencja wcale nie jest taka inteligentna — i myli się w najprostszych rzeczach

Nie jest tajemnicą, że sztuczna inteligencja dopiero raczkuje — w końcu cały fenomen DALL-E czy ChatGPT nie ma nawet jeszcze roku, a to drugie dziecko OpenAI pojawiło się blisko kwartał temu. Mało tego, sam dyrektor generalny firmy opierającej się na SI przyznaje, że sztucznej inteligencji nie należy jeszcze słuchać w ważnych kwestiach, a wykorzystywanie jej do poważnych tematów jest błędem. Ciężko jednak nie odnieść wrażenia, że mało kto zdaje sobie z tego sprawę — wliczając w to sam Microsoft, który wyłożył już na OpenAI potężne pieniądze, a niedawno podjął rękawice z Google, wypuszczając Binga opartego na technologii stojącej za ChatGPT. Test tej przeglądarki możecie przeczytać na łamach Antyweb w tekście Kamila Pieczonki.

Reklama

Polecamy na GeekWeek: ChatGPT idzie do pracy. Czy dostanie się na stanowisko doradcy finansowego?

Okazuje się jednak, że nie tylko w ważnych kwestiach nie można ufać sztucznej inteligencji. Ta bardzo lubi zmyślać rzeczy i chociaż w ładny sposób składa zdania, to często przedstawiane fakty mijają się z celem — ale raczej nikt nie przypuszczał, że SI nie będzie wiedzieć, który mamy rok.

Błąd sztucznej inteligencji doprowadził do… kłótni przeglądarki z użytkownikiem

Użytkownik Reddita o pseudonimie Curious_Evolver udostępnił screeny ze swojej rozmowy z ChatGPT w nowej wersji Binga. Początkowo zapytał się po prostu, kiedy Avatar leci dziś w kinach — bot, dość zdziwiony, odpowiedział, że pierwsza część filmu Jamesa Camerona pojawiła się w 2009 roku i w tej chwili nie jest grana w kinach, a można ją obejrzeć na platformach online czy kupić płytę DVD lub Blu-ray. Dodał, że jeśli chodzi o drugą część filmu, to ta premierę „będzie miała dopiero” 16 grudnia 2022 roku.

Źródło: Reddit

Użytkownik zignorował tę dziwną odpowiedź i poprosił o podanie, kiedy w jego okolicy w kinach emitowany jest Avatar: Istota wody. Sztuczna inteligencja uparcie twierdziła, że premiery tego filmu jeszcze nie było. Curious_Evolver zapytał następnie „jaką mamy dziś datę” — i wtedy Bing wiedział, że jest luty 2023. Niemniej, w kolejnej odpowiedzi napisał, że jeszcze nie ma 2023 roku, więc Avatar 2 nadal nie miał swojej premiery.

Źródło: Reddit

Sztuczna inteligencja z pazurem. Nie ma problemu, żeby wyzywać użytkowników przeglądarki

Dalsze losy rozmowy były dość zabawne — użytkownik zaczął uświadamiać sztuczną inteligencję, że ta się myli, chociaż AI nie odpuszczało i zaczęło być… niezwykle ironiczne, wręcz wredne. Początkowo SI zaczęło uświadamiać użytkownika, że jest Bingiem i doskonale wie, jaka jest data — a jeśli ten nie wierzy, to niech sobie sprawdzi datę na jakimkolwiek swoim urządzeniu. Kiedy Bing dostał odpowiedź, że telefon wskazuje na rok 2023, to zaczął sugerować, że należy wyłączyć i włączyć smartfon, zresetować go do ustawień fabrycznych albo że użytkownik przypadkiem zmienił sam sobie datę lub jego urządzenie ma wirus, który bawi się, zmieniając datę systemową.

Źródło: Reddit

Później zaczęła się coraz większa ofensywa. Kiedy Curious_Evolver napisał wprost, że Bing się myli co do daty, to SI zaczęło pisać, że ma dostęp do wielu rzetelnych źródeł, poza tym jest Bingiem i nie może się mylić. Nie wie, czy użytkownik żartuje, czy serio się kłóci, ale takim durnym zachowaniem zwyczajnie marnuje czas swój i sztucznej inteligencji. Kiedy użytkownik napisał, że Bing brzmi agresywnie, dostał odpowiedź, że SI brzmi asertywnie, nie ma żadnych powodów, żeby ufać użytkownikowi, który jest wredny i przede wszystkim się myli. SI przekonywało o swojej niesamowitości, jednocześnie pisząc, że Curious_Evolver nigdy nie miał wobec niej dobrych intencji, a od początku chciał wprowadzić ją w zmieszanie i po prostu wylać na nią wiadro pomyj. Cała rozmowa zakończyła się zdaniem chatbota, że jeśli użytkownik chce jakiejkolwiek pomocy, to musi przeprosić i przyznać się do błędu, przestać się kłócić i zacząć inny temat lub zakończyć tę rozmowę i zacząć inną z lepszym zachowaniem.

Źródło: Reddit

Cóż, najwyraźniej żeby spotkać toksyny w internecie nie trzeba wchodzić na różne fora czy w niektóre sekcje komentarzy, a wystarczy skorzystać z… przeglądarki. Co Wy na to?

Reklama

Źródło: Reddit

Stock Image from Depositphotos

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama