Sztuczna Inteligencja

Akta wygenerowane przez Chat GPT okazały się fałszywe – prawnicy zapłacą karę

Patryk Koncewicz
Akta wygenerowane przez Chat GPT okazały się fałszywe – prawnicy zapłacą karę
2

Przy pomocy AI wygenerowali fałszywe dokumenty sądowe. Przyłapani na gorącym uczynku zeznali, że nie mieli o tym pojęcia.

Szybko przeszliśmy od zbiorowej fascynacji narzędziami AI do karania za ich użytek. Przedstawiciele wielu profesji wspomagają się na co dzień Chatem GPT, jednak o ile w zwodzie tłumacza czy copywritera może być to uzasadnione i nie prowadzi do większych konsekwencji, tak w przypadku pracy na stanowisku z wyższą odpowiedzialnością społeczną trzeba już mocno się pilnować i nie przesadzać, bo zabawa ze sztuczną inteligencją może przynieść więcej szkód niż pożytku. Przekonali się o tym amerykańcy prawnicy, którzy GPT posłużyli się do opracowania dokumentów sądowych.

Polecamy na Geekweek: Ludzie używają ChatGPT jako trenera personalnego. To dobry pomysł?

Chat GPT wymyślił sześć fikcyjnych spraw

Steven Schwartz i Peter LoDuca to prawnicy z nowojorskiej kancelarii Levidow, Levidow & Oberman. Mężczyźni prowadzili sprawę przeciwko kolumbijskiej linii lotniczej Avianca, jednak ich rola ograniczyła się tylko do części na sali rozpraw. Brudną robotę odwaliła za nich sztuczna inteligencja o czym wstępnie pisaliśmy pod koniec maja.

Źródło: Depositphotos

Prawnicy potrzebowali bowiem kilku wypadków lotniczych wspomnianej linii, by podeprzeć się nimi w sądzie, ale nie byli w stanie znaleźć wystarczającej ilości materiału. Postanowili więc użyć narzędzia od Open AI i zmyślić historie, dając się ponieść wyobraźni chatbota. Kłamstwo ma krótkie nogi, a nieistniejące katastrofy zostały szybko zweryfikowane przez sąd. Najzabawniejsze jest jednak to, że nowojorscy prawnicy zawzięcie bronili swojej wersji.

Błąd w dobrej wierze

Schwartz i LoDuca początkowo nie zgadzali się z wątpliwościami sędziego, idąc w zaparte, że przedstawione materiały mają pokrycie w rzeczywistości. Później jednak narracja zmieniła się na „błąd w dobrej wierze”. Panowie stwierdzili, że owszem wykorzystali GPT do wygenerowania fałszywych dowodów w sprawie, ale nie sądzili, że sztuczna inteligencja może zniekształcać fakty.

Źródło: Depositphotos

Można założyć, że GPT faktycznie samo z siebie dodało do historii trochę pikanterii – znamy już takie przypadki – ale nawet jeśli się tak stało, to prawnicy i tak powinni zweryfikować informacje podane na tacy przez AI, bo niektóre z nich były wręcz banalne do sprawdzenia. GPT wplotło bowiem w historię nazwy linii lotniczych, które nigdy nie istniały.

Zaniechali swoich obowiązków, gdy przedstawili nieistniejące orzeczenia sądowe z fałszywymi cytatami stworzonymi przez narzędzie sztucznej inteligencji ChatGPT, a następnie kontynuowali bronienie fałszywych opinii po tym, jak orzeczenia sądowe podważyły ich prawdziwość. – sędzia P. Kevin Castel

W werdykcie sędzia P. Kevin Castel przekazał, że nie ma nic złego we wspomaganiu się nowoczesnymi technologiami, ale to właśnie na osobach parających się prawem powinna spoczywać rola strażnika faktów. Steven Schwartz i Peter LoDuca z tej roli się nie wywiązali, za co zostali ukarani karą grzywny 5 tys. dolarów. Prawnicy sami sobie na to zasłużyli, bo prawdopodobnie nie pokusili się nawet o przeczytanie wygenerowanych przez AI dokumentów. Sędzia zeznał bowiem, że część informacji była bezsensowna, brzmiąc momentami jak totalny bełkot.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu