Twórca ChatGPT mówi jasno: potrzebujemy regulacji prawnych dla wykorzystania sztucznej inteligencji. W przeciwnym razie możemy mieć problemy.
O tym, że sztuczna inteligencja wymyka się spod kontroli i przejmuje władze nad światem powstało już wiele filmów, z serią Terminator na czele. Koncept komputerów które przestają być posłuszne ludziom jest tak stary jak same komputery. Zwyczajnie większość ludzkości nie ma pojęcia jak działają najbardziej zaawansowane maszyny, więc nietrudno im sobie wyobrazić, że roboty mogą nagle zyskać samoświadomość. W ostatnim czasie takie obawy zostały jednak podsycone i można odnieść wrażenie, że taki koncept w głowach ludzi dziś jeszcze bardziej realny niż w latach '80 i '90. Wszystko przez wysyp narzędzi wykorzystujących SI, które są w stanie zrozumieć, co użytkownik do nich pisze lepiej, niż kiedykolwiek wcześniej. To na nowo rozpaliło pytania o to, jak bardzo powinniśmy ufać SI i czy w tym temacie nie potrzeba jest bardzo pilnych regulacji.
Twórca ChatGPT: Nie jesteśmy daleko od niebezpiecznej sztucznej inteligencji
CEO OpenAI, firmy stojącej za ChatGPT, Sam Altman, wypowiedział się niedawno na Twitterze w kwestii przyszłości rozwiązań bazujących na AI. Opowiedział, jakie zadania mogą w przyszłości być zastąpione przez algorytmy SI, ale, co chyba ważniejsze, powiedział też, co sądzi o niebezpiecznej stronie sztucznej inteligencji. Zaznaczył, że chociaż teraz nie widzimy jeszcze narzędzi, które mogą uczynić SI realnie niebezpieczną, to jesteśmy blisko stworzenia rozwiązania, które może zaszkodzić ludziom. Jednocześnie, CEO wskazał, że obecnie nie ma żadnych regulacji, które by takie zdarzenia uniemożliwiły i pokazał, że dobrze, by były jak najszybciej wprowadzone.
I nie ma się co dziwić. Od dawien dawna prawo nie nadąża za technologią. Jednak w większości wypadków oznacza to dyskomfort dla użytkowników. Jednak nietrudno sobie wyobrazić technologię taką jak ChatGPT wykorzystywaną do złych celów. Już to, co robi samo narzędzie OpenAI zintegrowane z Bingiem może przyprawić użytkowników o gęsią skórkę. Co więcej, Altman mówił o potrzebie regulacji AI od naprawdę długiego czasu, bo od 2015 roku. Teraz jednak dopiero opinia publiczna poznała, że narzędzia te mogą zostać wykorzystane przez "przeciętnego Kowalskiego" i zaczęła używać ich chociażby do oszukiwania systemu edukacji. To oczywiście jest naganne, ale trzeba też przyznać, że w skali szkód jakie może wyrządzić niekontrolowana i nieregulowana SI jest to raczej nieszkodliwe.
Pamiętajmy, że żyjemy w erze w której informacja jest kluczowa. Narzędzia podobne do ChatGPT mogą przyczynić się do szerzenia dezinformacji na niespotykaną skalę (wyobraźcie sobie Twitterowe boty z takim silnikiem SI) a dodatkowo, ponieważ SI używa istniejących dzieł jako bazy - problem plagiatu może stać się nierozwiązywalny. Nie mówiąc już o sytuacjach, w których SI będzie zaprzęgana do pracy tam, gdzie nie powinna być, jak chociażby w sądownictwie, gdzie problemy chociażby z braniem jako źródła treści rasistowskich (a były takie przypadki) byłoby kolosalnym problemem.
A co waszym zdaniem jest największym zagrożeniem ze strony sztucznej inteligencji?
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu