Nauka

Chatboty uczą się języka tak, jak potrafią to robić TYLKO ludzie

Jakub Szczęsny
Chatboty uczą się języka tak, jak potrafią to robić TYLKO ludzie
Reklama

Nie chodzi już o to, co AI mówi. Chodzi o to, że zaczyna rozumieć, że słowa mogą mieć wiele znaczeń. Coś, co długo uważaliśmy za wyłącznie ludzkie – zdolność dostrzegania dwuznaczności – zaczyna przenikać do świata maszyn. Tę umiejętność ćwiczymy od dzieciństwa, często nieświadomie. Z wiekiem używamy jej celowo: w żarcie, w ironii, w pisaniu. To nasza miękka kompetencja. I, jak się okazuje, już nie tylko nasza.

Zespół badaczy z Uniwersytetu Kalifornijskiego w Berkeley postanowił sprawdzić, czy duże modele językowe potrafią wychwycić więcej niż jedną interpretację zdania. Nie chodziło o sprawdzenie poprawności językowej. Celem było rozpoznanie niejednoznaczności – tej subtelnej właściwości języka, która wymyka się schematom.

Reklama

Zdanie testowe brzmiało: “Eliza wanted her cast out” . Spróbujmy podać inny, lepszy dla nas, polski przykład. To tak, jakbyśmy po polsku napisali: "Ania chciała, żeby ja wziąć". No, właśnie. Ania chciała, żeby ją wziąć za żonę, wziąć ją do zespołu badawczego, a może zabrać ją w podróż? Jest wiele możliwych interpretacji i wiele będzie zależeć od kontekstu. A jeśli go brak, możliwości jest mnóstwo i należy o nich pamiętać, zdawać sobie z nich sprawę. I wychodzi na to, że AI już to potrafi.

Starsze modele poległy. o1 zrobił coś więcej

Starsze wersje modeli ChatGPT i Llama 3.1 nie zauważyły problemu. Odpowiedziały mechanicznie, zgodnie z pierwszym, najbardziej oczywistym tropem. Ale model o1 od OpenAI zareagował inaczej. Zidentyfikował dwuznaczność. Rozłożył zdanie na składniki, rozrysował je strukturalnie, pokazał możliwe interpretacje.

Nie zgadywał – analizował. To wyglądało jak myślenie. O języku i nad językiem Tak, jakby model zrozumiał, że język ma warstwy, zależności, pewne subtelne zasady oraz że istnieje w nim wieloznaczność.

Maszyna wchodzi na nasz teren

Jeszcze niedawno powtarzaliśmy: AI nie rozumie, tylko przetwarza. Teraz trzeba to zdanie przemyśleć. Jeśli model potrafi rozpoznać, że język jest wieloznaczny, że komunikat nie musi być jednoznaczny, to przekracza barierę, której długo nie umieliśmy zdefiniować.

 

Czy to świadomość? Och, nie. Absolutnie nie. Ale to coś, co do tej pory było dla nas znakiem tej świadomości: zdolność refleksji nad językiem. Dwuznaczność nie jest błędem. Jest sygnałem, że rozumiemy nie tylko słowa, ale też sposób, w jaki są użyte. To dowód na myślenie kontekstowe, na czułość wobec formy i sensu. Zresztą, myślenie w ogóle o świadomości maszyn to jak próba zdefiniowania istnienia czegoś, czego sami nie umiemy zdefiniować. Kto nam powiedział, że nasza definicja świadomości jest poprawna i że nie może występować inna forma świadomości? Kiedy dowiemy się o tym, że maszyna jest świadoma i kiedy dopuścimy w ogóle do siebie myśl, że taka jest? No, właśnie.

Jeśli AI zaczyna rozumieć język, zaczyna wchodzić na teren, który jeszcze niedawno był zarezerwowany wyłącznie dla ludzi.

Reklama

Czytaj również: AI w końcu zrobi coś dobrego… I to wprost z kosmosu!

Nie wybuchła bomba. Ale zmienia się sporo

To nie musi oznaczać niczego przełomowego tu i teraz. Jeśli maszyny uczą się rozpoznawać wieloznaczność, to znaczy, że uczą się czytać świat tak, jak my go czytamy – z marginesami niepewności, z dygresją, z warstwami znaczeniowymi. A to już jest naprawdę spore osiągnięcie dla modelu językowego. Czy należy bić na alarm? Jeszcze nie. Ale warto to odnotować, bo... dalej będzie tylko ciekawiej.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama