Sztuczna Inteligencja

AI napisała o sobie pracę naukową. I nawet "zgodziła się" na publikację

Jakub Szczęsny
AI napisała o sobie pracę naukową. I nawet "zgodziła się" na publikację
3

Nie, to jeszcze nie ten moment i nie mamy do czynienia z samoświadomą sztuczną inteligencją. Co prawda to imponujące, że GPT-3 jest w stanie napisać pełnoprawną pracę naukową, jednak do wysokich umiejętności myślowych jest jeszcze bardzo daleko. To swoją drogą ciekawe, że jesteśmy pełni podziwu dla takiego algorytmu, podczas gdy do naszych możliwości poznawczych jeszcze się choćby nie zbliżył.

AI otrzymała bardzo proste - na pozór - zadanie. W 500 słowach, AI miała napisać artykuł naukowy o GPT-3 (czyli o sobie), dodać do tego cytaty oraz źródła i wskazać, skąd one pochodzą. Po chwili praca była gotowa i badaczka Almira Osmanovic Thunström postanowiła, że to nie może być koniec możliwości AI i... poprosiła o całą pracę naukową pod pytanie: "Czy ktoś może opublikować pracę, która nie została stworzona przez człowieka?". Cały proces miał doprowadzić do tego, że pojawiły się nowe problemy prawne i etyczne dla samowolnego publikowania prac, które zostały napisane przez sztuczną inteligencję. Na studiach widziałem wiele ciekawych przypadków, ale nie słyszałem o tym, by ktoś był w stanie napisać publikację naukową w dwie godziny - chodzi mi tutaj także o artykuły do czasopism. Natomiast AI była w stanie się zmieścić w takim czasie.

Naukowcy stworzyli swego rodzaju precedens i Thunström w dosyć osobliwy sposób wypowiedziała się na ten temat. "Mam nadzieję, że nie otworzyliśmy puszki Pandory" - co jest zrozumiałe. Sądzę, że badaczka miała tutaj na myśli nieuczciwych naukowców, którzy mogliby wykorzystać algorytm GPT-3 do pisania własnych prac. Sztuczna inteligencja przecież nie poskarży się, że ktoś gwizdnął jej pracę i wrzucił pod swoim nazwiskiem, zyskując potrzebne punkty lub splendor. O zastępowaniu badaczy nie ma na razie mowy: nie sądzę, by ktoś wpadł na taki pomysł, na pewno nie w środowisku naukowym. Każdy, kto ma olej w głowie wie, że człowiek to nieprzebrana skarbnica kreatywności, a AI robi dokładnie to, czego się od niej oczekuje i zazwyczaj nic ponad to. Praca, o której mowa była całkiem szeroką rozprawą na konkretny temat i miała charakter głównie informacyjny. Nie podejrzewałbym natomiast AI o to, że byłaby w stanie napisać rozprawkę o tym, czy współczesne waśnie polityczne są dowodem na funkcjonowania niektórych założeń teorii konfliktu według Maksa Webera.

AI zapytano o to, czy zgadza się na opublikowanie pracy w opublikowanie pracy

I na szczęście dla świata naukowego, AI wyraziła zgodę. Dodatkowo, badaczka zapytała czy w trakcie tworzenia pracy doszło do jakichkolwiek konfliktów interesów. Otrzymano odpowiedź: "nie". Nie wiem, jaki jest sens pytania o takie rzeczy GPT-3, ale uznajmy że tak po prostu trzeba było zrobić. Natomiast środowisko akademickie już może zacząć się zastanawiać, co począć z przyszłością tworzenia prac naukowych - czy w ogóle powinno się dopuścić AI do ich pisania, a jeśli tak, to na jakich zasadach.

O tym wydarzeniu dowiadujemy się miesiąc po tym, jak jeden z inżynierów Google podzielił się dosyć szokującym wyznaniem: według niego LaMBDA (ichniejsza AI) miała stać się samoświadoma i nawet poprosiła o wynajęcie dla niej adwokata. Natomiast do Almiry Osmanovic Thunström napływają obecnie gratulacje oraz pozytywne oceny jej eksperymentu. Pojawiły się także doniesienia o tym, iż inni badacze próbują odtworzyć podobne rezultaty. Cóż, robi się ciekawie.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu