Felietony

Sztuczna inteligencja zagrożeniem dla ludzkości? Zdecydowanie nie

Albert Lewandowski
Sztuczna inteligencja zagrożeniem dla ludzkości? Zdecydowanie nie
8

OpenAI to organizacja non-profit, za którą stoją takie osoby, jak Elon Musk, Red Hoffman czy Sam Altman, i ma niezwykle duży wpływ na rozwój sztucznej inteligencji. Ostatnio pochwalili się odkryciem GPT2, będącego podobno poważnym zagrożeniem dla wszystkich. Ile w tym prawdy?

Przerażające, bo ludzkie

Roboty przejmujące władzę nad światem, niszczące ludzkość i cywilizację - najczęściej taki obraz lubią przedstawiać nam autorzy różnych dzieł literackich czy filmowych. W sumie takie też przedstawienie zdołało najmocniej zapisać się w świadomości wielu ludzi. Można pokusić się o stwierdzenie, że żyjemy właśnie w epoce poważnego rozwoju sztucznej inteligencji. To w ciągu ostatniego dziesięciolecia doszło do największego przełomu w tej kwestii i widać, że komputery są w stanie analizować fakty, wyciągać z nich wnioski i być mistrzami w danej dziedzinie.

W tym wszystkim jednak wciąż pomija się jedną ważną rzecz. Mamy tu do czynienia z niską sztuczną inteligencją, która niewiele jest w stanie zrobić samodzielnie i zdecydowanie daleko jej do przedstawień z najsłynniejszych utworów science-fiction. Naturalnie największe zło drzemie w nas samych.

Ostatnio OpenAI ogłosiło, że wbrew swojej polityce, nie zdecydują się na opublikowanie wyników badań nowego generatora tekstu, GPT2. Całość na podstawie skromnego fragmentu tekstu jest w stanie wygenerować całą resztę, zachowując ton całości i przedstawiając to na tyle wiarygodnie, że ma się wrażenie, jakby czytało się tekst napisany przez człowieka.

Algorytm otrzymał na wejściu tekst: Był jasny, zimny kwietniowy dzień i dochodziła już trzynasta.

GPT2 rozpoznało gatunek i dodało od siebie: Siedziałem we własnym samochodzie i jechałem do nowej pracy w Seattle. Zatankowałem, przekręciłem kluczyk i pozwoliłem się ponieść. Wyobrażałem sobie, jaki będzie świat. Za 100 lat. W 2045 byłem nauczycielem w biednej wiejskiej szkole w Chinach. Zaczynałem od historii Chin i historii nauki.

Kolejny przykład dotyczy Brexitu. Co najbardziej zaskakujące, GPT2 zwrócił wiarygodny tekst prasowy z cytatami Jeremy'ego Corbyna (przewodniczący brytyjskiej Partii Pracy), informacjami o granicy irlandzkiej oraz wypowiedziami rzecznika premier Theresy May.

Sztuczna inteligencja poważnym zagrożeniem

Dyrektor badawczy OpenAI, Dario Amodei, podkreślił znaczący progres względem poprzednich iteracji algorytmu. Sam model był większy 12-krotnie, zestawy danych natomiast 15. Całość trenowano milionami artykułów, wybranych z Reddita, a jednym z wymogów było posiadanie co najmniej trzech głosów. Na razie nikt na dobrą sprawę nie wie, jakie byłyby realne możliwości GPT2. Dla bezpieczeństwa jednak OpenAI nie chce publikować samego rozwiązania, ponieważ w nieodpowiednich rękach mogłoby zostać naprawdę źle wykorzystane i tu jako przykład da się wspomnieć nie tylko fake newsy, ale również wiarygodnie brzmiąca falę negatywnych opinii albo ogromną liczbę komentarzy o konkretnym ukierunkowaniu. Tu zagrożeniem zdecydowanie nie jest sam algorytm.

Jednocześnie jesteśmy świadkami odkrywania również innych zastosowań, zdecydowanie bardziej korzystnych. Da się tu wspomnieć o wspomaganiu badań nad lekami na różne choroby, np. raka, skuteczniejszym wykorzystaniu pestycydów, dzięki czemu ich ilość można zredukować o 90%, a ze sztucznej inteligencji skutecznie korzystają również banki, wykrywające podejrzane zachowania.

To wszystko w połączone ze stopniowymi zmianami rynku pracy, przyniesie ze sobą prawdziwą rewolucję. Prawda pozostaje tylko jedna: sztuczna inteligencja nie jest ani dobra, ani zła, a w nieodpowiednich rękach może zostać negatywnie użyta i to całkowicie naturalne. W sumie równie dobrze o czołgach czy karabinach da się napisać, że już same w sobie zagrożeniem dla ludzkości.

źródło: The Guardian, Punchng

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu