Ciężko stwierdzić, co w tej sytuacji szokuje bardziej – to, że naukowcy wyręczają się AI, czy to, że recenzenci czasopisma nie zwrócili na to uwagi.
Mały szczur z wielkim przyrodzeniem, czyli fatalna wpadka naukowców
Sztuczna inteligencja kilkukrotnie pokazała już, że potrafi wykiwać badaczy z różnych dziedzin, ale tak komicznej wpadki jeszcze chyba nie było. W jednym z renomowanych czasopism naukowych pojawił się artykuł z rażącymi błędami, zmyślonymi danymi i niepoprawnymi grafikami wygenerowanymi przez AI. Najbardziej szokujący jest jednak obraz szczura z… imponującym przyrodzeniem. I wiecie co? Żaden z recenzentów nie zwrócił na to uwagi.
Porażka renomowanego czasopisma – opublikowali artykuł stworzony przez AI
Od czwartku w sieci trwa burzliwa dyskusja nad metodami weryfikacji artykułów naukowych w – bądź co bądź renomowanym – czasopiśmie Frontiers, a w zasadzie ich braku. Doszło bowiem albo do fatalnej pomyłki, albo do zupełnego lenistwa recenzentów, którzy dopuścili do publikacji artykuł niemających zbyt wiele wspólnego z rzeczywistością. Mowa o pracy na temat plemnikowych komórek macierzystych, wyizolowanych z jąder szczurów, której autorami są trzej chińscy badacze. Co w niej takiego kontrowersyjnego? Cóż, przede wszystkim kilka diagramów i grafik pomocniczych, opatrzonych bełkotliwymi komentarzami, niezgodnymi z obecnie przyjętymi odkryciami naukowymi.
To dość hermetyczne mankamenty, którymi nie będę Was zanudzał – ciekawsza jest bowiem grafika szczura, która wywołała oburzenia i masę prześmiewczych komentarzy. Chodzi o szczura z wyjątkowo pokaźnym przyrodzeniem, od razu rzucającym się w oczy jako coś zupełnie nienaturalnego.
Kubeł zimnej wody dla świata nauki
W mediach społecznościowych inni badacze zachodzą w głowę, jakim cudem chińscy naukowcy mogli dopuścić się tak karygodnego naruszenia. Przyznali bowiem, że grafiki zostały stworzone przy pomocy Midjourney, czyli popularnego narzędzia AI do generowania obrazów. Część internautów uważa także, że cały tekst został stworzony przez sztuczną inteligencję, co miało zostać rzekomo potwierdzone przez oprogramowanie do wykrywania ingerencji AI.
Ok – chińscy badacze ewidentnie poszli na łatwiznę i należy pociągnąć ich do odpowiedzialności, nawet jeśli posługiwali się AI tylko do generowania groteskowych grafik. Co jednak w takim razie możemy powiedzieć o recenzentach, którzy dopuścili do publikacji artykuł pełen rażących nieprawidłowości? Czy ktoś przeczytał tekst po łebkach, a może wcale się z nim nie zapoznał? Póki co nie znamy odpowiedzi na te pytania, bo sprawa wciąż jest badana przez wydawcę, który wyraził swoje zaniepokojenie w specjalnej notce.
„Obecnie prowadzone jest dochodzenie i po jego zakończeniu niniejsze zawiadomienie zostanie odpowiednio zaktualizowane”
Ta sytuacja dobitnie pokazuje, że sztuczna inteligencja coraz mocniej owija mackami branżę naukową, która w szczególności powinna opierać się na rzetelności i porządnej weryfikacji informacji. Możemy się śmiać ze szczura z ogromnymi cojones – i słusznie, bo to dość zabawna wpadka – ale wyobraźmy sobie, gdyby do takiego przeoczenia doszło w przypadku publikacji artykułu medycznego, o lekach lub sposobach terapii, które mają bezpośredni wpływ na zdrowie człowieka.
Pojawia się też pytanie, jak wiele mniejszych wypadek zostało przeoczonych. Skoro wyraźnie groteskowe grafiki wygenerowane przez Midjourney i tekst prawdopodobnie stworzony przez chatbota, wyszły na jaw dopiero po publikacji, to jak wiele razy musiało dochodzić do niewykrytej ingerencji AI w przypadku pomniejszych, ale równie istotnych publikacji. Dla świata nauki ta sprawa powinna być kubłem bardzo zimnej i otrzeźwiającej wody.
Stock image form Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu