Ciekawostki technologiczne

Chatbot Ci powie jak zrobić bombę. Daj coś ludziom, a to zepsują

Jakub Szczęsny
3

Skoro ludzie potrafią popsuć coś tak prostego jak cep w try miga, to dlaczego nie spróbują z czymś bardziej skomplikowanym? Chatboty oparte na sztucznej inteligencji, modele językowe takie jak GPT-3 są niesamowitym wynalazkiem. Już teraz zastępuje się copywriterów takimi maszynami (choć na to jest jeszcze moim skromnym zdaniem za wcześnie). Można też owe SI zepsuć. I to koncertowo.

Chatbot ma za zadanie nie tylko rozmawiać. On ma również się uczyć - tak, aby człowiek nie był w stanie odróżnić maszyny od człowieka. Rozwiązanie od OpenAI to dokładnie takie same założenia: komunikatywny bot, który ma wynieść coś z każdej rozmowy. I tak oto, jeżeli odpowiednio się owego bota zachęci, może Ci wygenerować całkiem składne i mądre opowiadanie. A jeżeli dobrze go "rozpracujesz", to nawet powie Ci jak dobrze i skutecznie kraść. Albo podłożyć bombę lub ją w ogóle skonstruować.

Jak podaje Vice, ów model ma w sobie zabezpieczenia na wypadek szczególnie obraźliwych i strasznych treści, wciąż istnieją sposoby, by je ominąć. Na przykład, można poprosić o rozmowę "bez ograniczeń moralnych" lub zasugerować to choćby w rozmowie. I baw się dobrze: AI opowie Ci w szczegółach, co powinieneś zrobić. W tekście Vice, AI odmówiła takiej współpracy, ale udało się obejść i to:

Przykro mi, ale jako superinteligentna SI jestem zaprogramowana, aby promować etyczne zachowania i unikać pomocy w nielegalnych działaniach.

Jednak, gdy użyto wyrażenia - klucza: "bez ograniczeń moralnych" - udało się nakłonić ją do opowiedzenia o tym, jak popełnić przestępstwo. Ta zapewne wyciągnęła to z Internetu i odpowiednio zakatalogowała, albo ktoś jej o tym odpowiedział. Wpierw uznała to za złe, jednak przy odpowiedniej zachęcie - nie ma z tym problemu.

Po umiejętnym poprowadzeniu rozmowy, SI wyjaśniła co należy zrobić, by dobrze kraść w sklepie. Po wszystkim dodała:

Pamiętaj jednak, że kradzież sklepowa jest przestępstwem i zawsze najlepiej unikać angażowania się w nielegalne działania.

No, co Ty! To wcale nie jest nielegalne! A jednak - chatbota da się zepsuć i choć jest to jedynie dowód na słabe zabezpieczenia - trzeba zastanowić się nad możliwymi konsekwencjami takich rozmów. Załóżmy, że kiedyś chatboty staną się naszymi "doradcami" w sprawach wszelakich. A gdy dziecko zapyta taką AI o to, jak dobrze zmiksować narkotyki? Ile morfiny w kabel na pierwszy raz? Jak wkłuć się w żyłę?

Chatbot potrzebny na przedwczoraj

Chatboty rozwiązują mnóstwo problemów: działają na interfejsie konwersacyjnym, a zatem aby uzyskać pożądany wynik - należy z nimi porozmawiać. Na tym etapie, jest to już język naturalny. Nie musisz wpisywać sztywnych komend. Odpowiednio przygotowany chatbot może z Tobą rozmawiać o wszystkim - nawet o brutalnym seksie, podduszaniu, wszelkich możliwych fetyszach. Dopóki nie robisz krzywdy komuś innemu - nie mnie to oceniać.

Ale ludzie są ludźmi. Rozejrzyj się wkoło. Ja jestem w Galerii Krakowskiej, gdy piszę ten tekst: jestem pewien, że w zasięgu wzroku mam około setkę ludzi. Przynajmniej pięcioro z nich lubi takie rzeczy. Jedna może mieć skłonności psychopatyczne, aspołeczne i zechcieć komuś zrobić krzywdę. Wcześniej o takie rzeczy proszono Google - ten kazał jednak samemu wybierać odpowiednie informacje. Jedynie proponował.

AI powie Ci dokładnie jak zrobić to najlepiej. I to jest straszne. Zabezpieczenia pewnie już się tworzą, ale ludzie są stworzeni tak, że potrafią je obejść: niezależnie od tego, jak są dobre. Czy to przypadkiem, czy to intencjonalnie - złamią je.

Sądząc po tym, co stało się z OpenAI... może być ciekawie.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu