To nie żart – studenci otarli się o niezaliczenie roku, bo niekompetentny wykładowca na słowo uwierzył botowi od Open AI.
Profesor nie zaliczył studentom prac końcowych bo… Chat GPT mu tak powiedział
Czy można bezgranicznie ufać sztucznej inteligencji? Oczywiście, że nie – wystarczy spojrzeć na liczne błędy i potknięcia Chatu GPT, którego wystarczy podejść, by zaczął generować wyssane z palca bzdury. Przekonałem się o tym prosząc go o kilka faktów na mój temat – dowiedziałem się, że jestem aktywnym wykładowcą akademickim i wielokrotnie nagradzanym autorem książek, co jest oczywiście wierutnym kłamstwem, dlatego do bajek chatbota od Open AI podchodzę z dużym dystansem. Nie wszyscy jednak podzielają ten pogląd – wykładowca z USA postanowił wyręczyć się sztuczną inteligencją w procesie sprawdzania prac końcowych studentów. Doprowadziło to absurdalnej sytuacji.
Polecamy na Geekweek: Mężczyźni pracujący w trybie zmianowym tracą zdrowie. Badacze mają dowód
Nie zaliczyłeś, bo „Chat GTP” powiedział, że to jego praca
Ta historia brzmi nieprawdopodobnie, ale niestety nie jest to fikcja literacka. Absolwenci Texas A&M University–Commerce zakończyli edukację i przeszli już nawet przez ceremonię dyplomową, by na samym końcu dowiedzieć się, że nie otrzymają dokumentów potwierdzających ukończenie studiów. Dlaczego? Bo jeden z wykładowców w swej kompletnej ignorancji wyręczył się „Chatem GTP” (tak, GTP – nie znał nawet poprawnej nazwy narzędzia, którym posłużył się w tak ważnej sprawie) do sprawdzenia ostatnich prac zaliczeniowych.
Dr. Jared Mumm – prowadzący zajęcia o tematyce rolniczej – przesłał w ubiegłym tygodniu szokującego maila do swoich podopiecznych. Przekazał, że dwukrotnie przepuścił prace studentów przez bota, a ten jednogłośnie stwierdził, że to właśnie on jest ich autorem. Niekompetentny profesor nawet nie próbował weryfikować informacji – zamiast tego wspaniałomyślnie zaproponował studentom wykonanie dodatkowych zadań w ramach uniknięcia oceny niedostatecznej.
Myślicie, że to wystarczająco absurdalne? Nope, im dalej w lasy, tym robi się jeszcze ciekawej. Oburzeni studenci próbowali dyskutować z upartym wykładowcą, ale ten twardo stał przy swoim stanowisku. Część pokrzywdzonych deklarowała, że nie ma pojęcia czym jest GPT i nigdy nie miała okazji go używać, ale profesor odrzucał tę argumentację. Stwierdził, że nie będzie oceniał bzdur wygenerowanych przez AI, co w tej sytuacji jest wyjątkowo zabawne, bo w procesie weryfikacji posłużył się właśnie narzędziem AI.
Niewinni studenci mają problem, a niekompetentny profesor może spać spokojnie
Sprawa szybko trafiła do społeczności Reddita, bo uczelnia – jak to zwykle bywa – średnio interesowała się niekompetencją pracownika. Tam zrodził się pomysł pokonania krnąbrnego belfra jego własną bronią. Jeden z użytkowników odnalazł w sieci pracę naukową Dr. Jareda Mumma o hodowli świń i zapytał GPT, czy tekst mógł zostać wygenerowany przez sztuczną inteligencję. Bot bez zastanowienia stwierdził, że tak, a odpowiednio zachęcony przyznał też, że mail wysłany do studentów jest jego dziełem.
Sprawa trafiła do władz uczelni, a ta zobowiązała się do przeprowadzenia śledztwa. Z informacji podanych przez Rolling Stones wynika, że jeden z uczniów został już oczyszczony z zarzutów i otrzymał nawet przeprosiny od wykładowcy.
"Władze uniwersytetu prowadzą dochodzenie w tej sprawie i opracowują zasady dotyczące wykorzystania lub nadużycia technologii AI w sali wykładowej. Pracują również nad wdrożeniem narzędzi do wykrywania AI i innych zasobów służących zarządzaniu połączenia technologii AI i wyższego wykształcenia” – stanowisko władz uczelni Texas A&M University-Commerce
Reklama
Sprawa jest nieco bardziej skomplikowana w przypadku dwóch studentów, którzy przyznali, że wspomagali się chatbotem podczas pisania niektórych esejów. Wciąż podtrzymują jednak, że Chat GPT nie ingerował w końcową pracę zaliczeniową – ich przypadki są indywidualnie rozpatrywane przez władze uczelni i Jareda Mumma.
Spójrzcie jednak na te podwójne standardy. Uczniowie i studenci, którzy korzystają z GPT są traktowani jak podli oszuści, tymczasem profesor niesłusznie narażający podopiecznych na niezaliczenie roku przez nieumiejętne stosowanie technologii dalej uczestniczy w procesie sprawdzania prac. Wszystko wskazuje na to, że nie spadnie mu włos z głowy, a w najgorszym wypadku będzie musiał przejść intensywne szkolenie.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu