Prawnik chciał ułatwić sobie pracę przy pomocy ChatuGPT. Teraz ma spore problemy, ponieważ AI kompletnie go oszukało.
ChatGPT to narzędzie niezwykle potężne, które dziś wykorzystywane jest by uprościć wiele mozolnych kwestii. AI potrafi przede wszystkim dobrze podsumowywać skomplikowane badania naukowe, dostarczać dowodów na potwierdzenie hipotez, rozwiązywać zadania matematyczne czy nawet interpretować zadany tekst. Oczywiście, to też powoduje, że wiele osób kuszonych jest chęcią pójścia na skróty i wykorzystania sztucznej inteligencji do zrobienia za nich pewnych zadań. Przewodzą w tym uczniowie, którzy dzięki AI odrabiają prace domowe i oszukują na egzaminach.
Niestety, obecnie nie mamy odpowiednich narzędzi, by takie elementy wykrywać, co oczywiście przyczynia się do jeszcze powszechniejszego wykorzystywania takich narzędzi. Oczywiście - do momentu, w którym sztuczna inteligencja pomyli się tak znacząco, że fakt jej użycia wyjdzie na jaw. I niestety - wychodzi w coraz poważniejszych dziedzinach życia.
Prawnik szukał dowodów przez ChatGPT. Ten podał mu fałszywe wyniki
Sytuacja wydarzyła się podczas procesu jednego z pasażerów z kolumbijskimi liniami lotniczymi Avianca. Pasażer uskarżał się na to, że ucierpiał, kiedy jedna ze stewardess uderzyła go wózkiem do serwowania potraw. Incydent wydawał się niegroźny, więc oczywiście linie lotnicze złożyły wniosek o odwołanie sprawy. Prawnik reprezentujący pasażera, Steven Schwartz, miał w takim wypadku tylko jedno wyjście - przedstawić sądowi listę podobnych spraw, w których zapadały wyroki, aby udowodnić, że inni sędziowie nie traktowali takich spraw jako błahe.
W tym celu prawnik zapytał ChatGPT o listę podobnych spraw. Ten podał mu dokładną listę z nazwiskami i datami. Lista ta została potem przedłożona w sądzie. Jak się już pewnie domyślacie, problemy zaczęły się w momencie, w którym ktoś z biura sądowego postanowił dokładniej sprawdzić wspomniane sprawy. Jak się okazało - żadna z przedstawionych spraw nigdy nie istniała, a wszystko było wynikiem "halucynacji" bota, który bazując na złych danych, bądź nie rozumiejąc zadanego pytania przedstawił listę kompletnie fikcyjnych spraw.
Teraz Steven Schwartz ma poważne kłopoty, ponieważ jakby nie patrzeć - skłamał przed sądem i czekają go za to konsekwencje, nie mówiąc, że jego kariera prawnicza właśnie legła w gruzach. Tego wszystkiego oczywiście dałoby się uniknąć, gdyby tylko sprawy przed przedłożeniem sędziemu zostały zweryfikowane pod kątem istnienia. To pokazuje bardzo dobrze, że choć AI to potężne narzędzie, to jednak trzeba podchodzić do niego z dystansem, ponieważ ślepe ufanie technologii (jak zawsze) może skończyć się bardzo źle.
Źródło: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu