Sztuczna inteligencja

Profesor nie zaliczył studentom prac końcowych bo… Chat GPT mu tak powiedział

Patryk Koncewicz
Profesor nie zaliczył studentom prac końcowych bo… Chat GPT mu tak powiedział
1

To nie żart – studenci otarli się o niezaliczenie roku, bo niekompetentny wykładowca na słowo uwierzył botowi od Open AI.

Czy można bezgranicznie ufać sztucznej inteligencji? Oczywiście, że nie – wystarczy spojrzeć na liczne błędy i potknięcia Chatu GPT, którego wystarczy podejść, by zaczął generować wyssane z palca bzdury. Przekonałem się o tym prosząc go o kilka faktów na mój temat – dowiedziałem się, że jestem aktywnym wykładowcą akademickim i wielokrotnie nagradzanym autorem książek, co jest oczywiście wierutnym kłamstwem, dlatego do bajek chatbota od Open AI podchodzę z dużym dystansem. Nie wszyscy jednak podzielają ten pogląd – wykładowca z USA postanowił wyręczyć się sztuczną inteligencją w procesie sprawdzania prac końcowych studentów. Doprowadziło to absurdalnej sytuacji.

Polecamy na Geekweek: Mężczyźni pracujący w trybie zmianowym tracą zdrowie. Badacze mają dowód

Nie zaliczyłeś, bo „Chat GTP” powiedział, że to jego praca

Ta historia brzmi nieprawdopodobnie, ale niestety nie jest to fikcja literacka. Absolwenci Texas A&M University–Commerce zakończyli edukację i przeszli już nawet przez ceremonię dyplomową, by na samym końcu dowiedzieć się, że nie otrzymają dokumentów potwierdzających ukończenie studiów. Dlaczego? Bo jeden z wykładowców w swej kompletnej ignorancji wyręczył się „Chatem GTP” (tak, GTP – nie znał nawet poprawnej nazwy narzędzia, którym posłużył się w tak ważnej sprawie) do sprawdzenia ostatnich prac zaliczeniowych.

Źródło: Depositphotos

Dr. Jared Mumm – prowadzący zajęcia o tematyce rolniczej – przesłał w ubiegłym tygodniu szokującego maila do swoich podopiecznych. Przekazał, że dwukrotnie przepuścił prace studentów przez bota, a ten jednogłośnie stwierdził, że to właśnie on jest ich autorem. Niekompetentny profesor nawet nie próbował weryfikować informacji – zamiast tego wspaniałomyślnie zaproponował studentom wykonanie dodatkowych zadań w ramach uniknięcia oceny niedostatecznej.

Myślicie, że to wystarczająco absurdalne? Nope, im dalej w lasy, tym robi się jeszcze ciekawej. Oburzeni studenci próbowali dyskutować z upartym wykładowcą, ale ten twardo stał przy swoim stanowisku. Część pokrzywdzonych deklarowała, że nie ma pojęcia czym jest GPT i nigdy nie miała okazji go używać, ale profesor odrzucał tę argumentację. Stwierdził, że nie będzie oceniał bzdur wygenerowanych przez AI, co w tej sytuacji jest wyjątkowo zabawne, bo w procesie weryfikacji posłużył się właśnie narzędziem AI.

Niewinni studenci mają problem, a niekompetentny profesor może spać spokojnie

Sprawa szybko trafiła do społeczności Reddita, bo uczelnia – jak to zwykle bywa – średnio interesowała się niekompetencją pracownika. Tam zrodził się pomysł pokonania krnąbrnego belfra jego własną bronią. Jeden z użytkowników odnalazł w sieci pracę naukową Dr. Jareda Mumma o hodowli świń i zapytał GPT, czy tekst mógł zostać wygenerowany przez sztuczną inteligencję. Bot bez zastanowienia stwierdził, że tak, a odpowiednio zachęcony przyznał też, że mail wysłany do studentów jest jego dziełem.

Źródło: Depositphotos

Sprawa trafiła do władz uczelni, a ta zobowiązała się do przeprowadzenia śledztwa. Z informacji podanych przez Rolling Stones wynika, że jeden z uczniów został już oczyszczony z zarzutów i otrzymał nawet przeprosiny od wykładowcy.

"Władze uniwersytetu prowadzą dochodzenie w tej sprawie i opracowują zasady dotyczące wykorzystania lub nadużycia technologii AI w sali wykładowej. Pracują również nad wdrożeniem narzędzi do wykrywania AI i innych zasobów służących zarządzaniu połączenia technologii AI i wyższego wykształcenia” – stanowisko władz uczelni Texas A&M University-Commerce

Sprawa jest nieco bardziej skomplikowana w przypadku dwóch studentów, którzy przyznali, że wspomagali się chatbotem podczas pisania niektórych esejów. Wciąż podtrzymują jednak, że Chat GPT nie ingerował w końcową pracę zaliczeniową – ich przypadki są indywidualnie rozpatrywane przez władze uczelni i Jareda Mumma.

Spójrzcie jednak na te podwójne standardy. Uczniowie i studenci, którzy korzystają z GPT są traktowani jak podli oszuści, tymczasem profesor niesłusznie narażający podopiecznych na niezaliczenie roku przez nieumiejętne stosowanie technologii dalej uczestniczy w procesie sprawdzania prac. Wszystko wskazuje na to, że nie spadnie mu włos z głowy, a w najgorszym wypadku będzie musiał przejść intensywne szkolenie.

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu