Felietony

Zaczyna się. Potrzebujemy planu, by wyłączyć AI, jeżeli stanie się zbyt potężna

Krzysztof Rojek
Zaczyna się. Potrzebujemy planu, by wyłączyć AI, jeżeli stanie się zbyt potężna
16

Elon Musk w wywiadzie zasygnalizował konieczność stworzenia "twardego wyłącznika" jeżeli sztuczna inteligencja wymknie się spod kontroli. Tylko kto miałby go zrobić?

Ile to już razy słyszeliśmy przepowiednie o tym, że sztuczna inteligencja stanie się zbyt zaawansowana i przejmie władze nad światem? Setki, jeżeli nie tysiące razy powtarzano historię odnośnie tego, że AI wymknie się spod kontroli, zacznie tworzyć lepsze kopie samej siebie i procesu tego nikt nie będzie w stanie zatrzymać.

Polecamy na Geekweek: Była przekonana, że porwał jej dziecko. Oszust dzwonił przy pomocy AI

Przez długi czas takie podejście wydawało się być wyjęte z książki gatunku SiFi, ale patrząc na ostatni gwałtowny wzrost zainteresowania AI i możliwościami programów bazujących na tej technologii, dla wielu ta wizja stała się bardzo, ale to bardzo realna.

Źródło: Depositphotos

Konsekwencje takiego podejścia widzimy już teraz. Kwestie praw autorskich, monetyzacji treści powstałych przy użyciu AI czy chociażby problem kradzieży tożsamości z użyciem tych narzędzi wciąż pozostają nierozwiązane i nie zapowiada się, by coś się miało w tym temacie zmienić w najbliższej przyszłości. Być może dlatego Elon Musk nawoływał do wstrzymania rozwoju AI na chwilę, by zająć się tymi aspektami.

Teraz ma inny pomysł. Chce by rządy miał "sprzętowy wyłącznik sztucznej inteligencji"

W ciągu wywiadu, który Elon udzielił stacji Fox News, miliarder zaznaczył, że w kwestii prawnego i rządowego podejścia do tematu sztucznej inteligencji, jest on za wprowadzeniem specjalnych regulacji dotyczących AI. Ze względu na bardzo ogólny charakter wywiadu nie usłyszeliśmy w tym temacie żadnych szczegółów.

Musk wyraźnie zaznaczył jednak, że ze strony rządu mądrym posunięciem byłoby stworzenie planu awaryjnego na wypadek, gdyby AI wymknęła się spod kontroli. Stwierdził, że "jeśli jest coś, czym się martwimy i nie jesteśmy w stanie tego zatrzymać za pomocą oprogramowania, prawdopodobnie będziemy chcieli mieć jakiś sprzętowy wyłącznik".

Nie jestem w stanie przyznać, co w tej wypowiedzi jest bardziej niepokojące. Fakt, że Elon Musk zrzuca na inny podmiot odpowiedzialność za to, że coś w związku ze sztuczną intelgiencją może pójść katastrofalnie nie tak, jak powinno (dlaczego Musk sam nie stworzy takiego wyłącznika?), fakt, że Musk pracując nad własnymi technologiami SI widzi potencjał, że coś może pójść aż tak źle, że taki wyłącznik będzie potrzebny, czy w końcu fakt, że widząc to niebezpieczeństwo kontynuuje pracę nad rozwojem tej technologii.

Poza tym, sam już pomysł ma jedną podstawową lukę, a mianowicie - nie istnieje globalny rząd, który byłby wstanie zapanować nad wszystkimi programami AI i nawet jeżeli taki pomysł zostanie zrealizowany w Stanach, nikła szansa że inne kraje za nim podążą. Innymi słowy - miło słyszeć, że Musk troszczy się o bezpieczeństwo ludzkości, ale szkoda, że jego koncept jest niemożliwy do zrealizowania.

Źródło

Źródło grafiki: Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu