Bezpieczeństwo w sieci

Szok. ChatGPT potrafi tworzyć działający malware. Zaskoczeni?

Jakub Szczęsny
Szok. ChatGPT potrafi tworzyć działający malware. Zaskoczeni?
4

Nie musisz potrafić nic, jeżeli chodzi o tworzenie cyberzagrożeń. ChatGPT - ostatnia wielka innowacja na rynku nowych technologii, jest używana przez tzw. "script kiddies" do tworzenia funkcjonalnego złośliwego oprogramowania. To niesamowite, ile takich zastosowań wynaleziono w ostatnim czasie. Akurat wytwarzanie malware'u to dla nas nic dobrego.

Dlaczego? Bo teraz absolutnie każdy - nawet bez znajomości tajników cyberbezpieczeństwa i programowania, będzie mógł stworzyć działające, złośliwe partie kodu. Jak wynika z raportu firmy Check Point Research, w ciągu kilku tygodni od uruchomienia ChatGPT na forach używanych przez przestępców pojawiło się sporo partii kodu, które były tworzone przez sztuczną inteligencję. Script kiddies używali ją do pisania oprogramowania i e-maili będących integralną częścią kampanii wycelowanych w internautów.

Sądziłem, że stanie się to dopiero za jakiś czas, ale społeczność cyberprzestępców już wykazała znaczne zainteresowanie ChatGPT. I dochodzimy do bardzo niebezpiecznego punktu: teraz każdy, nawet osoby bez jakiejkolwiek znajomości programowania, będą w stanie wytworzyć niebezpieczne partie kodu. Potem wystarczy je tylko odpowiednio zaimplementować (co można zrobić z użyciem prostych tutoriali) i... mamy przepis na bardzo smutny i jednocześnie niebezpieczny trend. Serwis ArsTechnica zaprezentował partię takiego niebezpiecznego oprogramowania: kod napisany w Pythonie łączył różne funkcje kryptograficzne, w tym podpisywanie kodu, szyfrowanie i deszyfrowanie. Jedna część skryptu generowała klucz przy użyciu kryptografii krzywej eliptycznej i krzywej ed25519 do podpisywania plików. Takie rozwiązania można wykorzystywać w "dobry" sposób - bez niebezpieczeństwa dla użytkownika. Jednak tego typu skrypt można łatwo zmodyfikować, aby zaszyfrować czyjąś maszynę doszczętnie bez żadnej interakcji ze strony użytkownika.

Innym opisywanym przypadkiem był fragment kodu napisany w Javie - ten pobierał w tle klienta SSH oraz PuTTY i po odpowiedniej implementacji, był w stanie wykonywać całkiem złośliwe operacje. Wszystko to jasno pokazuje, że ChatGPT można spokojnie wykorzystać nie tylko do dobrych celów, ale również i do tych, które stoją w absolutnej sprzeczności do intencji OpenAI.

Jak napisać skutecznego złośliwego maila? ChatGPT pokazuje możliwości

Nie ma problemu z tym, aby sztuczna inteligencja napisała Ci maila, który będzie mieć spore szanse (jak na kampanię mailową) powodzenia w phishingu. Wystarczy, że poprosisz o treść wiadomości, w której użytkownik ma kliknąć w link lub załącznik. I... voila. Sztuczna inteligencja bazując na swoim "doświadczeniu" Ci w tym pomoże. Dożyliśmy naprawdę ciekawych czasów.

Wiem o tym, że marketerzy bardzo chętnie używają ChatGPT do szybkiego pisania treści wiadomości oraz innych krótkich materiałów. A skoro w takich zastosowaniach ChatGPT się sprawdza, to nic nie stoi na przeszkodzie, aby wykorzystać możliwości AI do złośliwych celów. Gdy patrzę na to wszystko, jestem odrobinę przerażony, ale i zaciekawiony. Co jeszcze zobaczymy w wykonaniu tego wynalazku? Trudno powiedzieć i... to jest najbardziej intrygujące.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu