Sztuczna inteligencja

Profesor nie zaliczył studentom prac końcowych bo… Chat GPT mu tak powiedział

Patryk Koncewicz
Profesor nie zaliczył studentom prac końcowych bo… Chat GPT mu tak powiedział
Reklama

To nie żart – studenci otarli się o niezaliczenie roku, bo niekompetentny wykładowca na słowo uwierzył botowi od Open AI.

Czy można bezgranicznie ufać sztucznej inteligencji? Oczywiście, że nie – wystarczy spojrzeć na liczne błędy i potknięcia Chatu GPT, którego wystarczy podejść, by zaczął generować wyssane z palca bzdury. Przekonałem się o tym prosząc go o kilka faktów na mój temat – dowiedziałem się, że jestem aktywnym wykładowcą akademickim i wielokrotnie nagradzanym autorem książek, co jest oczywiście wierutnym kłamstwem, dlatego do bajek chatbota od Open AI podchodzę z dużym dystansem. Nie wszyscy jednak podzielają ten pogląd – wykładowca z USA postanowił wyręczyć się sztuczną inteligencją w procesie sprawdzania prac końcowych studentów. Doprowadziło to absurdalnej sytuacji.

Reklama

Polecamy na Geekweek: Mężczyźni pracujący w trybie zmianowym tracą zdrowie. Badacze mają dowód

Nie zaliczyłeś, bo „Chat GTP” powiedział, że to jego praca

Ta historia brzmi nieprawdopodobnie, ale niestety nie jest to fikcja literacka. Absolwenci Texas A&M University–Commerce zakończyli edukację i przeszli już nawet przez ceremonię dyplomową, by na samym końcu dowiedzieć się, że nie otrzymają dokumentów potwierdzających ukończenie studiów. Dlaczego? Bo jeden z wykładowców w swej kompletnej ignorancji wyręczył się „Chatem GTP” (tak, GTP – nie znał nawet poprawnej nazwy narzędzia, którym posłużył się w tak ważnej sprawie) do sprawdzenia ostatnich prac zaliczeniowych.

Źródło: Depositphotos

Dr. Jared Mumm – prowadzący zajęcia o tematyce rolniczej – przesłał w ubiegłym tygodniu szokującego maila do swoich podopiecznych. Przekazał, że dwukrotnie przepuścił prace studentów przez bota, a ten jednogłośnie stwierdził, że to właśnie on jest ich autorem. Niekompetentny profesor nawet nie próbował weryfikować informacji – zamiast tego wspaniałomyślnie zaproponował studentom wykonanie dodatkowych zadań w ramach uniknięcia oceny niedostatecznej.

Myślicie, że to wystarczająco absurdalne? Nope, im dalej w lasy, tym robi się jeszcze ciekawej. Oburzeni studenci próbowali dyskutować z upartym wykładowcą, ale ten twardo stał przy swoim stanowisku. Część pokrzywdzonych deklarowała, że nie ma pojęcia czym jest GPT i nigdy nie miała okazji go używać, ale profesor odrzucał tę argumentację. Stwierdził, że nie będzie oceniał bzdur wygenerowanych przez AI, co w tej sytuacji jest wyjątkowo zabawne, bo w procesie weryfikacji posłużył się właśnie narzędziem AI.

Niewinni studenci mają problem, a niekompetentny profesor może spać spokojnie

Sprawa szybko trafiła do społeczności Reddita, bo uczelnia – jak to zwykle bywa – średnio interesowała się niekompetencją pracownika. Tam zrodził się pomysł pokonania krnąbrnego belfra jego własną bronią. Jeden z użytkowników odnalazł w sieci pracę naukową Dr. Jareda Mumma o hodowli świń i zapytał GPT, czy tekst mógł zostać wygenerowany przez sztuczną inteligencję. Bot bez zastanowienia stwierdził, że tak, a odpowiednio zachęcony przyznał też, że mail wysłany do studentów jest jego dziełem.

Źródło: Depositphotos

Sprawa trafiła do władz uczelni, a ta zobowiązała się do przeprowadzenia śledztwa. Z informacji podanych przez Rolling Stones wynika, że jeden z uczniów został już oczyszczony z zarzutów i otrzymał nawet przeprosiny od wykładowcy.

"Władze uniwersytetu prowadzą dochodzenie w tej sprawie i opracowują zasady dotyczące wykorzystania lub nadużycia technologii AI w sali wykładowej. Pracują również nad wdrożeniem narzędzi do wykrywania AI i innych zasobów służących zarządzaniu połączenia technologii AI i wyższego wykształcenia” – stanowisko władz uczelni Texas A&M University-Commerce

Reklama

Sprawa jest nieco bardziej skomplikowana w przypadku dwóch studentów, którzy przyznali, że wspomagali się chatbotem podczas pisania niektórych esejów. Wciąż podtrzymują jednak, że Chat GPT nie ingerował w końcową pracę zaliczeniową – ich przypadki są indywidualnie rozpatrywane przez władze uczelni i Jareda Mumma.

Spójrzcie jednak na te podwójne standardy. Uczniowie i studenci, którzy korzystają z GPT są traktowani jak podli oszuści, tymczasem profesor niesłusznie narażający podopiecznych na niezaliczenie roku przez nieumiejętne stosowanie technologii dalej uczestniczy w procesie sprawdzania prac. Wszystko wskazuje na to, że nie spadnie mu włos z głowy, a w najgorszym wypadku będzie musiał przejść intensywne szkolenie.

Reklama

Stock image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama