Moje przemyślenia

Nauczył komputer pisać tak, jak zmarła ukochana. "Niepokojące" jest tu niedopowiedzeniem

KR
Krzysztof Rojek
14

Joshua Barbeau wykorzystał Projekt December i silnik GPT-3 by stworzyć bota, który będzie wypowiadał się dokładnie tak, jak jego zmarła ukochana. Dokładność wypowiedzi i płynność konwersacji zaskoczyła nawet jego.

Strata kogoś bliskiego to zawsze osobista tragedia. Wiadomo, że w takiej sytuacji każdy radzi sobie inaczej, próbując jakoś pogodzić się z tym, co się stało. Niektórzy dają sobie z tym radę, innym zajmuje to więcej czasu, ale są ludzie, którzy po prostu nie mogą ułożyć sobie życia bez tej drugiej osoby. Wtedy też można obserwować całe spektrum nietypowych zachowań. Do takich właśnie zachowań zaliczyłbym to, co zrobił Joshua Barbeau - freelancer, który nigdy nie pogodził się ze śmiercią swojej dziewczyny Jessici. Zmarła ona w 2012 r. w wieku 23 lat z powodu choroby autoimmunologicznej, jednak przez wszystkie te lata Joshua nie mógł ułożyć sobie życia. Pewnego dnia odkrył jednak "Project December", oparte o silnik GPT-3 narzędzie stworzone przez zespół Open AI, który wspiera m.in Elon Musk. Celem GPT-3 jest jak najdoskonalsza imitacja ludzkich wypowiedzi. W tym celu przeszkolono program na milionach wpisów dostępnych w sieci (chociażby z Reddita), aby Projekt December mógł stworzyć dowolny tekst - od listów miłosnych po wypracowanie.

Teraz Project December miał przywrócić Jessicę do życia

Na stronie San Francisco Chronicle opublikowany został obszerny materiał na temat tego, w jaki sposób Joshua podszedł do wykorzystania programu i jak został zaskoczony rezultatami. Wrzucił on bowiem do bazy danych wszystkie informacje jakie posiadał - zapisy rozmów z komunikatorów, informacje o tym, jaką osobą była i co przeżyła. Na tej podstawie program wygenerował wirtualną Jessicę. Wszyscy wiemy, jak działają wirtualne chatboty, dlatego nawet Joshua nie miał dużych oczekiwań odnośnie rezultatów. Te jednak przeszły jego oczekiwania, a czytając zapisy ich konwersacji - mogę powiedzieć, że moje też. Komputerowa symulacja świetnie radziła sobie z kontekstem, wypowiadała się w sposób naturalny i zawsze radziła sobie ze zrozumieniem tego, co się do niej mówi. Sam Joshua przyznał, że w wielu momentach odpowiedzi programu były nieoczywiste i bardzo charakterystyczne dla tego, w jaki sposób odpowiedziałaby Jessica.

Utrzymanie tak skomplikowanej sztucznej inteligencji kosztuje - dlatego Joshua miał ograniczony czas, jeżeli chodzi o rozmowy z botem. Finalnie jednak, możliwość ponownego porozmawiania z ukochaną wydawała się mieć dla niego właściwości terapeutyczne. Oczywiście, fakt, że ktoś zdecydował się na taki krok jest niepokojący, ale dla mnie to, w jaki sposób programowi udało się uchwycić esencję tego, w jaki sposób wypowiadałaby się konkretna osoba, jest dla mnie jednak jeszcze bardziej niepokojące. Dziś zostawiamy bowiem mnóstwo śladów w sieci - komentarze, rozmowy na chatach, informacje o nas. W teorii, jeżeli ktoś chciałby się pod nas podszyć, wystarczy, że Project December wygeneruje naszą cyfrową wersję. Jeżeli Joshua nie mógł odróżnić wypowiedzi bota od tego, co powiedziałaby jego zmarła narzeczona, oznacza to, że technologia jest skuteczna. Oczywiście - sami twórcy GPT-3 mają świadomość, że może on zostać wykorzystany w złych celach, dlatego dostęp do silnika nie jest jeszcze możliwy dla wszystkich, ale z czasem - zapewne będzie.

Co wtedy? Cóż, patrząc, że większość teorii spiskowych dotyczących Covidu wyszła od 12 osób, niewykluczone, że możemy spodziewać się zupełnie nowej generacji botów, które wchodzą w interakcje z innymi użytkownikami i wypowiadają się tak podobnie do ludzi, że są praktycznie nie do wykrycia. Możemy więc powoli przygotowywać się na zupełnie nową erę, jeżeli chodzi o sianie dezinformacji.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy: