Świat

Kto będzie trzymał AI pod kontrolą? Nie rząd, nie policja a... hakerzy

Krzysztof Rojek
Kto będzie trzymał AI pod kontrolą? Nie rząd, nie policja a... hakerzy
3

Biały Dom proponuje, by testowanie AI było elementem zawodów hakerskich. To ma dać pewność, że sztuczna inteligencja rozwija się właściwie.

Temat sztucznej inteligencji od kilku miesięcy rozpala umysły ludzi na całym świecie. Nie ma się co temu dziwić, gdyż dopiero teraz większość osób zobaczyła ułamek tego, co dobrze wyszkolona SI naprawdę potrafi. Oczywiście, wszelkiego rodzaju przewidywania i scenariusze dotyczące rozwoju AI pojawiały się już dawno temu, a konieczność posiadania kontroli nad sztuczną inteligencją ogólnego przeznaczenia manifestowała się przez dekady, chociażby w takich filmach jak "Ja, robot", "Blade Runner" czy "Terminator". Jednocześnie, przez lata nikt nie dał jasnej odpowiedzi na to kto miałby taką kontrolę sprawować i, tym bardziej, jak miałaby ona wyglądać.

Polecamy na Geekweek: Autorem student czy ChatGPT? Wyższe uczelnie mają problem

Dotarliśmy więc teraz do momentu, w którym rozwój SI staje się gwałtowny, ponieważ temat znalazł się na świeczniku i jest elementem otwartego wyścigu technologicznego, a jednocześnie - wciąż nie wiemy, jakie zagrożenia dokładnie czekają na nas w przypadku wymknięcia się takiego oprogramowania spod kontroli, a także - w jaki sposób temu przeciwdziałać. Do dyskusji włączył się Biały Dom, proponując dosyć kuriozalne rozwiązanie.

Biden chce, żeby za trzymanie AI w ryzach odpowiadali hakerzy

Idea wykorzystania ataków hakerskich do znalezienia luk w zabezpieczeniach nie jest wcale nowa, a "etyczni hakerzy" działają od dawna i często są zatrudniani przez duże korporacje w celu wykrycia, które elementy zabezpieczeń trzeba naprawić. Teraz Biały Dom chce skorzystać z ich usług do sprawdzenia sztucznej inteligencji stworzonej przez największe korporacje.

Podczas Defcon Security Conference ma być przeprowadzone duże ćwiczenie z udziałem hakerów, którzy mają wciąć na cel produkty największych graczy, jak Google czy Nvidia i sprawdzić, jak współgrają one ze stworzonym w 2022 roku prawem "AI Bill of Rights". Za znalezione błędy i niepoprawne działanie (albo - niezgodne z założeniami prawa) będą przyznawane punkty a na uczestników czekają nagrody finansowe. Jest więc to nieco inne podejście niż to, które jakiś czas temu ogłosiło OpenAI, gdzie celem było znalezienie podatności w samym działaniu AI, a nie w tym, czy program działa zgodnie z prawem.

Niestety, w tym wypadku, ze względu na to, że AI zmienia się i ewoluuje niezwykle szybko (jak chociażby Bing z modelem GPT-4) takie podejście może okazać się mało skuteczne, ponieważ testy przeprowadzone dziś nie powiedzą nam nic o stanie rozwoju i bezpieczeństwie korzystania z AI za pół roku. Oczywiście - błędy i luki wykryte w trakcie takiego hackatonu mogą przyczynić się do poprawy ogólnego bezpieczeństwa, ale nie ma szans, by w tym wypadku wziąć pod uwagę wszystkich topowych graczy, szczególnie, że chociażby swoją odpowiedź na GPT przygotowują m.in. Chiny. Mimo wszystko, dobrze, że takie inicjatywy są podejmowane, a temat rozwoju AI w kategorii bezpieczeństwa zaczyna być traktowany jakkolwiek poważnie.

Źródło

Źródło: Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu