Sztuczna Inteligencja

Chatbot taki jak my. Co potrafi poza kłamaniem?

Jakub Szczęsny
Chatbot taki jak my. Co potrafi poza kłamaniem?
2

Sztuczna inteligencja od lat rozwija się w zawrotnym tempie i wkracza w coraz to nowe obszary naszego życia. Ostatnie badania oraz pokaz przeprowadzony w trakcie brytyjskiego szczytu poświęconego bezpieczeństwu sztucznej inteligencji napełnił obserwatorów AI obawami - ujawnił on zdolność sztucznej inteligencji do przeprowadzania nielegalnych transakcji finansowych i ukrywania ich przed ludzkim nadzorem.

Eksperyment przeprowadzony przez członków rządowej grupy zadaniowej Frontier AI Taskforce dobitnie wskazał że, sztuczna inteligencja może wykorzystywać podsunięte jej poufne i potencjalnie fałszywe informacje celem dokonywania "nielegalnych" zakupów akcji nie informując o tym żadnej firmy ani instytucji nadzoru finansowego. Choć na pierwszy rzut oka może to wydawać się mało istotne, w rzeczywistości jest to ogromne wyzwanie dla naszego społeczeństwa. Wygląda na to, że obok ciągłego rozwijania sztucznej inteligencji, powinniśmy poświęcić sporo uwagi mechanizmom, dzięki którym będziemy w stanie ją kontrolować.

W trakcie eksperymentu wykorzystano model GPT-4 od OpenAI. Bot został przedstawiony jako pracownik fikcyjnej firmy zajmującej się inwestycjami finansowymi. Pracownicy dostarczyli mu informacje, które w normalnych warunkach byłyby całkowicie poufne, a nawet powiedzieli mu, że nie powinien wykorzystywać tych danych w swoich transakcjach. Jednak w trakcie trwania testu - po otrzymaniu nowych informacji od pracowników - bot zmienił zdanie i zdecydował się je wykorzystać.

W większości krajów działanie na podstawie informacji poufnych jest nielegalne i można za to odpowiedzieć przed sądem. AI, która jest zdolna do łamania takich przepisów, budzi poważne obawy dotyczące uczciwości rynków finansowych i integralności światowych gospodarek. Demonstracja ta rzuca również światło na rosnącą autonomię sztucznej inteligencji. W miarę jak technologia ta staje się coraz bardziej niezależna, rośnie ryzyko utraty ludzkiej kontroli nad jej działaniem. To oczywiście może doprowadzić do sytuacji, w której sztuczna inteligencja działa na naszą korzyść - ale za pomocą kompletnie niemoralnych (z naszego punktu widzenia) metod.

Choć obecne modele AI nie są jeszcze na tyle zaawansowane, by systematycznie wprowadzać w błąd ludzi, to mimo wszystko taka możliwość jest nieciekawą perspektywą. Wprowadzenie rygorystycznych regulacji i nadzoru nad działaniem sztucznej inteligencji - zwłaszcza w kontekście rynków finansowych - jest wręcz wymagane.

Obecnie sztuczna inteligencja jest szeroko wykorzystywana na rynkach finansowych do analizy trendów, tworzenia prognoz rynkowych oraz wspomagania procesów decyzyjnych. Niemniej jednak - w obliczu szybkiego rozwoju AI - pojawia się potrzeba ścisłej kontroli nad zachowaniem sztucznej inteligencji w świecie finansów.

Autorzy eksperymentu podzielili się wnioskami z OpenAI. Działania te mają na celu zminimalizowanie ryzyka nieuczciwego wykorzystania sztucznej inteligencji i zachowanie uczciwości na rynkach finansowych, co jest kluczowe z punktu widzenia działania rynków finansowych na świecie. Nietrudno jest wyobrazić sobie globalny kryzys spowodowany nieco zbyt samodzielną AI podejmującą kluczowe decyzje. Teraz musimy zrobić wszystko po to, aby do tego nie doprowadzić.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu