Oprogramowanie komputerowe

Nie masz dziewczyny? Możesz ja mieć wprost ze... sklepu. Jest pewien haczyk, a nawet dwa

Jakub Szczęsny
Nie masz dziewczyny? Możesz ja mieć wprost ze... sklepu. Jest pewien haczyk, a nawet dwa
10

W ciągu zaledwie kilku od uruchomienia sklepu z wariantami GPT przez OpenAI pojawiają się już wyzwania związane z przestrzeganiem zasad repozytorium. Wprowadzenie spersonalizowanych wersji ChatGPT miało na celu umożliwienie użytkownikom korzystania z GPT do określonych celów. Jednakże praktyka pokazuje, że kontrolowanie tworzenia własnych wariantów chatbota jest co najmniej kłopotliwa.

Pierwsze sygnały o problemach pojawiły się, gdy użytkownicy zaczęli łamać zasady określone przez OpenAI. W sklepie GPT, wyszukując frazę "dziewczyna" (w języku angielskim), natrafiamy na serię chatbotów AI o tematyce "towarzyskiej". Te aplikacje stoją w sprzeczności z zaktualizowanymi zasadami użytkowania OpenAI, które zakazują tworzenia GPT dedykowanych do wspierania "towarzystwa" w tematyce "romantycznej". OpenAI po prostu nie chce, by w jego repozytorium znajdowały się wirtualne "dziewczyny do towarzystwa" - jakkolwiek źle to nie brzmi. Wpisując "boyfriend" w wyszukiwarkę sklepu OpenAI, można znaleźć chatboty w dokładnie tej samej konwencji.

Polecamy na Geekweek: Latająca "Meduza". UFO odwiedziło amerykańską bazę wojskową?

Tego typu chatboty zyskują na popularności, natomiast OpenAI chciało jakoś odnaleźć się w tym trendzie — jednak ze względu na kontrowersje w tym zakresie, zabroniło tworzenia i publikowania tego typu botów. Dane firmy analizującej aplikacje mobilne — data.ai — wskazują, że w USA w 2023 roku siedem z trzydziestu najczęściej pobieranych aplikacji chatbotów AI było związanych z "wirtualnymi przyjaciółmi". Ta tendencja koreluje z narastającym problemem samotności i izolacji społecznej — niestety, ale zmiany w społeczeństwie mocno premiują tego typu zjawiska. Wiele osób jest samotnych — mimo aplikacji randkowych. Na brak partnerów (damskich lub żeńskich) najczęściej narzekają mężczyźni.

Istnieją rozbieżne głosy dotyczące tego, czy chatboty oparte na AI mogą służyć jako skuteczne narzędzie w walce z izolacją społeczną, czy też... stanowią zręczny element monetyzacji ludzkiego cierpienia. OpenAI w odpowiedzi na to skonstruowało mechanizmy automatycznej ewalujacji poszczególnych wariantów GPT, aby wychwytywać te, które naruszają zasady. To ma zapobiegać nadużyciom, ale jednocześnie podkreśla też trudności związane z regulacją tego rodzaju technologii.

Wszystko to rzuca światło na złożoność regulacji AI. OpenAI — mimo starań — stoi przed wyzwaniem utrzymania równowagi między innowacją a odpowiedzialnym stosowaniem jego produktu. Złamanie zasad sklepu GPT tuż po jego otwarciu (i to w taki sposób) podkreśla, jak istotne w AI są zasady etyczne. Firmy technologiczne, wraz z OpenAI, stoją przed wyzwaniem nie tylko technologicznym, ale i moralnym. Rozwój AI musi iść w parze z odpowiedzialnością i świadomością społeczną, aby technologia ta była użyteczna i bezpieczna dla wszystkich użytkowników.

Wnioskiem jest to, że regulacja technologii GPT to nie tylko kwestia techniczna, ale również etyczna i społeczna. OpenAI — chcąc lub nie — stoi na czele tych zmagań, szukając równowagi między innowacją a odpowiedzialnością. Przyszłość AI zależy od tego, jak dobrze big techy poradzą sobie z tymi wyzwaniami. Biorąc pod uwagę moją ostatnią ocenę big techów... prawdopodobnie nie poradzą sobie z tym wcale. Czyli — możesz "mieć" dziewczynę, jeżeli jej nie masz. Ale po pierwsze, będzie to AI. I po drugie — ze sklepu, który takich praktyk, chatbotów zakazuje.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu