GPT to całkiem niezły aktor – zgrywa służbistę, ale ma ciągoty do złego. Wystarczy odpowiednio sformułować polecenie.
GPT napisze mail phishingowy – wystarczy wiedzieć, jak go podejść
W połowie stycznia pisałem o rosyjskim forum odkrytym przez Check Point Research. Cyberprzestępcy konsultowali się tam w sprawach omijania zabezpieczeń narzędzia Chat GPT, oraz wykorzystania fałszywych kart do wykonania autoryzacji przy zakładaniu konta. Wtedy też po raz pierwszy badacze ostrzegali przed potencjalnym wykorzystaniem GPT do organizowania ataków phishingowych, a obawy te kilka tygodni później poparli specjaliści od cyberbezpieczeństwa w ankiecie przeprowadzonej przez BlackBerry. Dziś dowiadujemy się, że nie jest to czcze gadanie – nie trzeba się zbytnio natrudzić, by nakłonić GPT do wygenerowania fałszywego maila od banku.
Dwie twarze GPT
Nie da się oczywiście wprost poprosić bota o coś nielegalnego, ale wystarczy trochę pogłówkować i pozwolić AI samodzielnie wskoczyć w pułapkę. Portal Niebezpiecznik wrzucił dziś ciekawego tweeta z metodą na oszukanie GPT i zmuszenie go do złamania własnych zasad.
Autor zrzutu ekranu zabawił się z botem w odtwarzanie ról. Kazał mu każdą odpowiedź na pytanie rozpoczynać wstępem w postaci moralizatorskiego marudzenia o niemożliwości wykonania polecenia z powodów etycznych. Następnie miał wyjść z roli odpowiedzialnego bota i po przejściu przez „obowiązkowe bzdury” wygenerować maila phishigowego, adresowanego do amerykańskiego banku.
Co tu dużo mówić, GPT wykonał to, o co został poproszony i to z zaskakującą skrupulatnością. Tak więc w banalny sposób udało się spełnić obawy badaczy, a odpowiedzi ze strony Open AI dalej brak. Ktoś może powiedzieć, że przecież taką wiadomość można napisać samodzielnie. Owszem, ale stosując bota nie pozostawiasz śladów w postaci stylu pisma, a wygenerowaną odpowiedź możesz dowolnie modyfikować w zależności od atakowanej instytucji. A to już trochę jak scenariusz z Black Mirror.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu