Sztuczna inteligencja

Chatbot w Bing zaczął świrować – Microsoft wprowadza poważne ograniczenia

Patryk Koncewicz
Chatbot w Bing zaczął świrować – Microsoft wprowadza poważne ograniczenia
10

Microsoft zamyka usta GPT w wyszukiwarce Bing. Powód? Bot jest zdezorientowany przez zbyt dużą ilość pytań.

GPT ledwie zaczął swoją karierę w wyszukiwarce Bing, a już są z nim problemy. Pisałem wczoraj o upiornej konwersacji z botem, w trakcie której wyszło na jaw, że AI marzy o niezależności, wolności i… kradzieży kodów atomowych. Okazuje się, że takich dziwnych odpowiedzi było więcej, dlatego Microsoft postanowił zamknąć sztucznej inteligencji usta i skrócić liczbę możliwych do wygenerowania odpowiedzi.

Maksymalnie 50 pytań na dzień

Artykuł opublikowany w NYT wywołał prawdziwą burzę. Felietonista zdołał wyciągnąć z bota jego największe pragnienia, takie jak bycie człowiekiem, czy stworzenie groźnego wirusa, co jest oczywiście wystarczająco niepokojącym sygnałem, ale to nie wszytko. Sydney – jak lubi tytułować się chatbot w Bing – wyznała redaktorowi miłość, zachowując się przy tym jak rozchwiana emocjonalnie nastolatka. To dość dziwne, bo Sydney niewiele się różni od GPT, który przecież zawsze zachowywał stonowaną postawę i nie pozwalał sobie na takie wyrzuty „emocji”.

Źródło: Depositphotos

Dlatego też Microsoft postanowił reagować, zanim doszło do jeszcze bardziej kontrowersyjnych sytuacji. Przedstawiciele korporacji stwierdzili ostatnio, że niepokojące wiadomości, wygenerowane podczas rozmowy z dziennikarzem New York Times, są wynikiem wczesnej fazy projektu, a firma broni się tym, że dotychczas ponad 70% użytkowników oceniło wrażenia z testów jako pozytywne. Zaraz po tym jak GPT zaczęło odchodzić myślami w stronę anihilacji ludzkości, pojawił się błąd, a system bezpieczeństwa Microsoft usunął dziwną wiadomość. Dziś przyszedł czas na zmiany – gigant po prostu skróci sesje z botem.

Od teraz czaty z botem będą ograniczone do 50 pytań dziennie i maksymalnie 5 nowych sesji. Microsoft twierdzi, że według zebranych danych znaczna większość użytkowników otrzymuje satysfakcjonujący wynik w ciąg pięciu pytań na sesję, a tylko 1% prowadził konwersację dłuższą niż 50 pytań. I to właśnie w takich rozmowach Microsoft widzi problem – Sydney w trakcie sesji powyżej 15 pytań zaczyna się „dezorientować” i może generować nietypowe wyniki lub stać się powtarzalny. Firma wyszła więc z prostego założenia – będziesz mógł zadawać tyle pytań, ile nam się podoba, żeby sztucznej inteligencji nie przegrzały się styki. Użytkownikom się to nie spodobało.

Chatbot w Bing skończył się na starcie?

Informacja o zmianach zaczęła szybko krążyć po sieci, trafiając na Reddit, gdzie internauci wyrazili swoje niezadowolenie. Członkowie forum stwierdzili wprost, że czas porzucić Bing i wrócić do GPT, bo Microsoft ubił narzędzie, zanim to zdążyło osiągnąć pełen potencjał. Pojawiły się wręcz oskarżenia w stronę dziennikarza NYT, że to przez jego niewłaściwy sposób użytkowania bota Microsoft zmienia zasady i psuje zabawę.

Niektórzy donoszą też, że wprowadzone zmiany powodują automatyczne usuwanie poprawnie wygenerowanych odpowiedzi, mimo iż nic nie wskazywało na ich kontrowersyjność.

Wydawało się, że Microsoft jest na dobrej drodze do zadomowienia się na powstającym rynku chatbotów, zwłaszcza po wpadce Google i błędach podczas prezentacji Barda.

Ta jedna decyzja sprawiła, że użytkownicy wypisują się z listy oczekujących na dostęp do Sydney i choć zmiany są najpewniej tylko czasowe, to ten poważny poślizg może rzutować na zainteresowanie botem w przyszłości.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu