Felietony

AI zaczyna uczyć się języka jak człowiek. Ale nadal czegoś jej brakuje

Jakub Szczęsny
AI zaczyna uczyć się języka jak człowiek. Ale nadal czegoś jej brakuje
Reklama

Co, jeśli sztuczna inteligencja nie tylko "udaje", że rozumie język, ale naprawdę zaczyna chwytać jego najbardziej subtelne i skomplikowane mechanizmy? Że model AI, z którym właśnie rozmawiasz, potrafi bawić się językiem równie zręcznie jak Ty sam, a czasem nawet lepiej? A może to już się dzieje?

Weźmy coś prostego, ale jednocześnie trudnego dla AI. Rekurencja. Bez niej nie ma mowy o pełnym opanowaniu języka. Chodzi o zdania w zdaniach, o znaczenia ukryte w znaczeniach. To jak matrioszka – otwierasz jedną, a tam kolejna, i kolejna. Rekurencja pojawia się i w matematyce jako fraktale i w obrazach, jako pojawienie się dosłownie tego samego w tym samym. Rekurencja zachodzi również wtedy, gdy robisz zdjęcie w pomieszczeniu, gdzie występują dwa prostopadłe do siebie lustra i uzyskujesz efekt nieskończenie wielu odbić. I dalej: rekurencja to również: "On był synem syna syna". Albo i "Był synem syna syna syna syna". To już wiele poziomów rekurencji. Można tak w niekończoność i każda z tych rekurencji naprawdę ma sens. Czy AI to rozumie?

Reklama

Gašper Beguš, badacz z Berkeley, postanowił sprawdzić, jak AI radzi sobie z tymi "językowymi puzzle'ami". Testy, jakie przeprowadził ze swoim zespołem, miały pokazać, czy modele AI są w stanie nie tylko generować teksty, ale też je głęboko analizować. Zespół rzucił AI na głęboką wodę: struktury wieloznaczne, rekurencję i fonologię, czyli zasady rządzące dźwiękami w języku.

Jeden model, który zmienia zasady gry

I tu pojawia się o1 od OpenAI. To właśnie ten model pokazał, że jest krok przed innymi. Testy z udziałem GPT-3.5 Turbo, GPT-4 i Meta Llama 3.1 były jak pojedynek amatorów z zawodowcem. o1 nie tylko zauważał złożone struktury, ale też prawidłowo je odwzorowywał. Średni wynik starszych modeli wynosił 0,36 na 1, podczas gdy o1 osiągnął imponujące 0,87. Jakby to powiedział klasyk – "nokaut w pierwszej rundzie". Aż jestem ciekawy, jak radzą sobie nowsze modele od OpenAI, bo mowa tu przecież o nieco bardziej leciwych wersjach.

Od sztucznych języków do realnych zasad

Ale AI to nie tylko język naturalny. Beguš testował modele także na fonologii – sztucznie stworzonych językach, gdzie AI musiało analizować, a nie odtwarzać. o1 prawidłowo określił reguły fonologiczne w 19 z 30 przypadków, zostawiając konkurencję daleko w tyle. To jakby AI zaczęło ropoznawać "na szybko" gramatykę języków, których nigdy wcześniej nie widziała, bo nie miała takiej możliwości w danych wsadowych. Można to przyrównać do procesu uczenia się dziecka, które przecież "na starcie" nie zna zasad żadnego języka i żadnej mowy: ale z czasem chłonie te rzeczy jak gąbka.

To, czego dowiedli badacze, może przesunąć granice zastosowań modeli językowych. Dla edukacji, tłumaczeń, tworzenia treści – raj. Ale są i pewne zagrożenia. Pytanie o granice, które te modele mogą przekroczyć, nie jest już tylko rozważaniem z kręgu filozofii. Jeśli AI tak szybko rozwija swoje umiejętności językowe, to gdzie postawimy granicę bezpieczeństwa i regulacji? AI już teraz nas przewyższa w wielu zastosowaniach: czy aby nie zbyt łatwo oddajemy jej pole gry?

Gdzie leży kres możliwości AI?

Jak daleko mogą się posunąć modele? Trzy warstwy rekurencji? Pięć? Dziesięć? Prawda jest taka, że nie wiemy. Z każdym kolejnym krokiem AI nie tylko się uczy, ale również adaptuje do nowych wyzwań szybciej, niż ktokolwiek przewidywał. Właśnie dlatego pytanie o przyszłość modeli jest tak bardzo aktualne i ważne. Jednocześnie, jest ono czysto retoryczne: ich przyszłość wygląda bowiem bardzo prosto. Nieskończony, ciągły rozwój.

Czytaj również: Watykan a sztuczna inteligencja. Kolejny papież, ten sam nierozwiązany problem

Granice językowe między ludźmi a AI właśnie się zacierają. O1 pokazał nam, że sztuczna inteligencja jest już od dawna gotowa do analizowania złożoności ludzkiego języka. Wiele osób uważa, że AI jest jeszcze bardzo ograniczona, mało innowacyjna, odtwórcza, ale to błąd. Rozumienie pewnych mechanizmów w języku, które wymagają ich przemyślenia, to już naprawdę ważny krok. I wydaje się, że z roku na rok będzie rozumieć coraz więcej. Brakuje jej jednak jednej rzeczy: pełnego rozumienia naszych motywacji i świadomości w ogóle, nie tylko samej siebie. Pytanie tylko, czy tego potrzebujemy.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama