Sztuczna Inteligencja

Twierdzi, że GPT postawił lepszą diagnozę, niż weterynarz. Czy to nie lekka przesada?

Patryk Koncewicz
Twierdzi, że GPT postawił lepszą diagnozę, niż weterynarz. Czy to nie lekka przesada?
6

GPT jako weterynarz? Tym razem mu się udało, ale do medycznej wyroczni jeszcze mu daleko

Chatboty w zaledwie kilka miesięcy z technologicznej ciekawostki stały się nieocenionym asystentem, wyręczającym ludzi w szeroko pojętej pracy twórczej. Pisanie maili, tworzenie tekstów marketingowych, rozwiązywanie zadań matematycznych, czy pisanie rozprawek – nie ma problemu, do tego nadaje się fantastycznie. Jednak w momencie, gdy bot staje się wyrocznią w sprawach zdrowotnych, powinna zapalić nam się czerwona lampka. Czy to nie za wcześnie na tak duże zaufanie?

Weterynarz nie potrafił znaleźć rozwiązania na powracająca anemię

Użytkownik Twittera skrywający się pod nickiem Cooper stworzył ciekawy wątek, w którym opisuje historię diagnozy swojego psa rasy border collie. Suczka o imieniu Sassy borykała się z anemią, spowodowaną chorobą przenoszoną przez kleszcze. Właściciel psa udał się do weterynarza, który pomógł załagodzić wstępne objawy, ale zły stan zwierzęcia powrócił po kilku dniach.

Źródło: Depositphotos

Specjalista przeprowadził serię testów w celu wykrycia infekcji, ale ostatecznie musiał przyznać się do porażki – weterynarz nie miał pojęcia, co powoduje powracające objawy. Zasugerował, że najlepszym rozwiązaniem będzie po prostu bierne oczekiwanie i obserwowanie stanu psa, w nadziei na poprawę. Taka odpowiedź była dla właściciela Sassy nieakceptowalna, dlatego zaczął szukać pomocy na własną rękę. Czekając na diagnozę w drugiej klinice weterynaryjnej, postanowił zwrócić się po pomoc do sztucznej inteligencji od Open AI, bo „diagnostyka medyczna wydaje się być czymś, w czym GPT4 może być naprawdę dobry” – cytując jego wypowiedź.

GPT miał rację, ale powstrzymajmy się jeszcze przed popadaniem w zachwyty

Cooper przekazał GPT diagnozę lekarza, dodając do tego zestaw objawów psa, takich jak wysoka gorączka oraz powracająca anemia, którą potwierdzały badania krwi. Według weterynarza pies chorował na babeszjozę – rzadką chorobę wywoływaną przez pierwotniaki – którą próbowano leczyć antybiotykami. Jednak stan psa nie polepszał się, a dziąsła pupila przybrały niepokojącą, białą barwę.

GPT po przeanalizowaniu wyników badań stwierdził, że kuracja antybiotykami od samego początku była nieskuteczna, a białe dziąsła są wynikiem niedoleczonej anemii. Informacje podane przez właściciela skłoniły AI do postawienia diagnozy – pies prawdopodobnie cierpi na IMHA, czyli chorobę, w której organizm atakuje własne erytrocyty. GPT zaznaczył przy tym, że nie jest weterynarzem, dlatego zaleca skonsultowanie wniosków ze specjalistą, bo jako sztuczna inteligencja może zapewnić tylko podstawowe informacje w zakresie anemii u psów.

Właściciel zwierzaka zebrał dane wygenerowane przez GPT i udał się do kliniki weterynaryjnej. Personel przeprowadził niezbędne badania krwi w celu wykrycia IMHA i okazało się, że… GPT miał rację. Sztuczna inteligencja faktycznie okazała się bardziej kompetentna niż pierwszy weterynarz.

„Nie mogę sobie wyobrazić, jak diagnostyka medyczna będzie wyglądać za 20 lat”

Autor tweeta na fali optymizm uważa, że GPT-4 powinien być używany przez specjalistów do diagnozowania chorób, ale z tym aż tak mocno bym nie szarżował. GPT wielokrotnie przyłapano na błędach, krzywdzącym generalizowaniu i dopowiadaniu swoich szczegółów, które nie miały nic wspólnego z rzeczywistością. Fakt, to genialne narzędzie, ale nie możemy go traktować jako wyroczni, zwłaszcza w tak ważnych sprawach jak zdrowie i profilaktyka.

Źródło: Depositphotos

Owszem, tutaj właściciel zachował się bardzo racjonalnie i skonsultował diagnozę AI z wiedzą weterynarza, ale ile osób w swej ignorancji postawi wszystko na jedną kartę, słuchając tylko zaleceń chatbota? Zapewne wiele. Dlatego apeluje o rozważne korzystanie z dobroci GPT – być może kiedyś narzędzie to będzie wystarczająco komplementarne, by w pełni mu zaufać, ale póki co to wciąż wadliwa technologia i nawet pomimo tej jednej trafnej diagnozy należy stosować wobec niej zasadę ograniczonego zaufania.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu