Open AI kazało mu wyjaśnić sposób działania swojego poprzednika. Problem polega na tym, że nie da się tego zrobić w ludzkim języku.
Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”
Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.
Zrozumieć działanie AI przez samoanalizę
Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.
Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.
Neurony AI są polisemiczne. Co to oznacza?
Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.
Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.
Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.
Stock image form Depositphotos
Źródło
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu