Sztuczna inteligencja

ChatGPT to nie lekarz – w kwestii leczenia chorób nie można mu ufać

Patryk Koncewicz
ChatGPT to nie lekarz – w kwestii leczenia chorób nie można mu ufać
8

Badacze sprawdzili, czy ChatGPT potrafi wygenerować zalecenia odnośnie leczenia nowotworów. Wynik? Plecie bzdury, choć brzmi bardzo przekonująco.

ChatGPT to narzędzie pełne skrajności. Z jednej strony nieraz wykazało się już większą „wiedzą” i przydatnością niż specjalności niektórych dziedzin (przykładowo lepiej poprowadziło proces leczenia psa, niż weterynarz), ale z drugiej potrafi mylić się w bardzo wrażliwych kwestiach, gdzie nie można pozwolić sobie na błąd. Badacze udowodnili, że narzędzie od Open AI wykłada się na zaleceniach dotyczących leczenia nowotworów, a sugerowanie się jego radami może być tragiczne w skutkach.

ChatGPT – lekarz empatyczny, ale wiedzą nie grzeszy

Sztuczna inteligencja napisze Ci książkę, przetłumaczy tekst, poprawi błędy w opowiadaniu i rozwiąże zadanie matematyczne, ale w sprawach medycznych lepiej zastosować zasadę ograniczonego zaufania. Choć ChatGPT w symulowanych rozmowach z pacjentem okazje się znacznie bardziej empatyczny, niż ludzcy lekarze, to nad samą wiedzą musi jeszcze popracować – zwłaszcza jeśli mówimy o leczeniu nowotworów.

Źródło: Depositphotos

Naukowcy z bostońskiego Brigham and Women's Hospital sprawdzili, czy ChatGPT może okazać się przydatny w planowaniu procesu leczenia raka. Zadali mu ponad 100 pytań, a wyniki badania okazały się rozczarowujące.

Kłamca doskonały – zmylił nawet ekspertów

Nowotwory zbierają upiorne żniwo – rocznie na raka umiera niespełna 10 milionów osób na całym świecie. Nie dziwne więc, że naukowcy – poszukując rozwiązania – sięgają też po wsparcie sztucznej inteligencji, która przecież w ostatnich miesiącach przeżywa gigantyczny rozkwit. ChatGPT stał się niejako synonimem rewolucji AI, a narzędzie to uznawane jest za wręcz genialne. Okazje się jednak, że nie jest wystarczająco genialne do wygenerowania wytycznych leczenia raka. To znaczy jest, ale ich trafność pozostawia wiele do życzenia…

Z badania opublikowanego w czasopiśmie JAMA Oncology wynika, że zespół naukowców przygotował 104 zapytania o opracowanie metod leczenia różnych rodzajów raka. Zadanie wydawało się dość proste, bowiem zostały one szeroko opisane w amerykańskiej Krajowej Sieci Kompleksowej ds. Walki z Rakiem. I faktycznie, 98% zawierało conajmniej 1 zalecenie ze wspomnianych wytycznych, ale jedna trzecia informacji wygenerowanych przez bota okazała się stekiem bzdur.

Źródło: Depositphotos

ChatGPT miał nie tylko tendencję do uproszczeń i niedokładności, ale także mieszania ze sobą zaleceń leczenia poszczególnych rodzajów nowotworów, a przecież nie ma jednej uniwersalnej metody na leczenie raka. Naukowcy byli zaskoczeni, z jaką pewnością AI mieszała ze sobą informacje prawdziwe z nieprawdziwymi, przez co nawet ekspertom trudniej było wychwycić błędy. I to właśnie ta zdolność do przekonującego brzmienia wzbudziła u badaczy największe obawy – wskazówki leczenia raka to bowiem hermetyczny przykład, ale jeśli spojrzeć na to pod kątem coraz większej popularności ChatuGPT i skłonności internautów do poszukiwania w sieci pomocy z różnorakimi problemami medycznymi, to może okazać się, że AI może narobić więcej szkód niż pożytku.

Zostawimy więc AI pisanie rozprawek, a z chorobami udajmy się do specjalistów – przynajmniej do momentu, gdy sztuczna inteligencja przestanie zgrywać eksperta, plotąc przy tym kompletne głupoty.

Stock image form Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu