Sztuczna Inteligencja

Chat GPT i spółka nie mogą być autorami prac naukowych. Jeszcze

Kamil Świtalski
Chat GPT i spółka nie mogą być autorami prac naukowych. Jeszcze
0

Nowy dzień, nowe problemy ze sztuczną inteligencją. Teraz pojawia się kwestia tego, czy AI może być autorem pracy naukowej. Według największego wydawnictwa — nie.

Brak reguł, brak odpowiednich regulacji prawnych, a do tego jeszcze dziesiątki pytań z nią związanych. Oto wyzwania, z którymi musi się teraz mierzyć sztuczna inteligencja. A tym samym — z którymi musimy się mierzyć my, poszukujący odpowiedzi na wyzwania i nowe sytuacje związane z efektami jej pracy. A jak pokazały nam ostatnie miesiące — stać ją na naprawdę wiele. Pierwszą rewolucją i przebiciem się narzędzi bazujących na sztucznej inteligencji do mainstreamu były bez wątpienia grafiki tworzone za pośrednictwem narzędzi takich jak Midjourney. Przykuły one uwagę szerszej publiczności, ale też — a może przede wszystkim — były zaczątkiem do rozmów na temat praw autorskich związanych z takimi kreacjami. Bo to przecież żadna tajemnica, że prace te w dużej mierze bazują na kradzionych fragmentach innych grafików i ich stylach.

Po obrazach nadszedł czas na tekst. Chat GPT to jedna z tych rewolucji, których chyba nikt się tak naprawdę nie spodziewał. Ale fakty są takie, że ostatnie tygodnie w świecie technologii upływają w 100% pod kątem kolejnych odkryć, dyskusji i rozmów na temat tego: co dalej. To narzędzie z którym problemy mają szkoły i uniwersytety. Doszliśmy też do etapu, w którym narzędzie to zostało wykorzystane do napisania pierwszych przykładów złośliwego oprogramowania. Ale mimo że prawo niekoniecznie może nadążać za tymi wszystkimi zmianami, poszczególne podmioty chcą działać tak efektywnie, jak to tylko możliwe. Dlatego największy wydawca naukowy na świecie, Springer Nature, zajmuje jasne stanowisko w kwestii wykorzystywania narzędzi bazujących na sztucznej inteligencji przy przygotowywaniu prac naukowych. Ani ChatGPT, ani żadne inne narzędzia tego typu, nie mogą być podpisani jako autorzy prac, które trafiają do ich publikacji.

Żeby była jednak jasność — nie odcinają się oni do końca od tej technologii i nie zabraniają jej używania. Tak długo, jak autorzy będą odpowiednio informować o tym, że przy pisaniu — korzystali z takich narzędzi.

Kiedy myślimy o autorstwie prac naukowych, prac badawczych, nie myślimy tylko o ich pisaniu. Istnieje odpowiedzialność, która wykracza poza publikację i z pewnością w tej chwili te narzędzia AI nie są w stanie się jej podjąć.

— mówi w rozmowie z The Verge Magdalena Skipper, redaktorka naczelna „Nature” — jednej z najważniejszych publikacji, jakie wydawnictwo ma w swoim portfolio.

No cóż — trudno się z tą argumentacją nie zgodzić. Z drugiej strony, jeżeli pamiętacie historię którą śledziliśmy w serialu Lekomania, to prawdopodobnie i u was zapala się lampka ostrzegawcza za każdym razem, kiedy chodzi o publikacje naukowe na które powołują się rozmaite podmioty. I słusznie — weryfikacja źródeł potrafi bywać kłopotliwa i czasochłonna. Ale bez wątpienia jest warta tego czasu — bo jak nauczyła nas historia, konsekwencje mogą być ogromne.

Źródło

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu