AI, czyli SI - sztuczna inteligencja, jest na ustach niemal całego świata od roku. Nie wszyscy jednak wiedzą, że pierwszy raz ten termin usłyszeć można było już w 1956 roku, kto je wypowiedział?
Już jutro minie dokładnie rok od udostępnienia przez OpenAI swojego modelu językowego GPT3.5, bezpłatnie wszystkim internautom jako ChatGPT. Dzięki tej premierze, 30 listopada 2022 roku wielu internautów po raz pierwszy bliżej i szerzej zetknęło się z terminem „sztuczna inteligencja”, ale nie pojawił się on po raz pierwszy rok temu.
Niemniej trzeba przyznać, że AI weszło wówczas na salony z przytupem. W pierwszych pięciu dniach od udostępnienia ChatGPT skorzystało z niego aż milion użytkowników, a dziś korzysta z niego ponad 100 mln osób tygodniowo!
Niewątpliwie skala dotarcia z tym rozwiązaniem spowodowała tak dużą popularyzację AI na świecie, ale temat sztucznej inteligencji znany był już dużo wcześniej, jednak istniał jedynie w obszarze badań naukowców. Oczywiście w innym wydaniu niż ChatGPT.
Za ojców sztucznej inteligencji podaje się różne osoby, za każdym razem powtarzają się przy tym cztery nazwiska: Alan Turing - tę postać akurat chyba większość z Was kojarzy, dzięki terminowi: test Turinga, Marvin Minsky oraz Herbert Simon, czyli współtwórca pierwszego programu AI: Logic Theorist.
Jednak po raz pierwszy termin sztuczna inteligencja można było usłyszeć na konferencji w Dartmouth College w 1956 roku, a słowa te wypowiedział John McCarthy - amerykański matematyk i informatyk, i to tak naprawdę rozpoczęło długi okres badań nad AI.
Zapytaliśmy o ten początek, o to co mamy teraz w temacie AI i na co możemy liczyć w przyszłości, specjalistę w tej dziedzinie Piotra Sankowskiego, prezesa IDEAS NCBR.
Grzegorz Ułan, Antyweb: Konferencja w Dartmouth College w 1956 roku to był początek, kiedy to po raz pierwszy usłyszeliśmy termin „sztuczna inteligencja”, co było po tej konferencji, i na czym tak naprawdę skupiał się John McCarthy w swoich badaniach?
Piotr Sankowski, prezes IDEAS NCBR: John McCarthy swoją wizję algorytmów posiadających “zdrowy rozsądek” opublikował w 1959 roku w pracy "Programs With Common Sense”. W wizji tej rozumowanie czy wnioskowanie sztucznej inteligencji bazuje na przetwarzaniu predykatów logicznych.
Miały to być znane programowi fakty formalnie zapisane w języku matematyki. A zdrowy rozsądek tego "biorcy porad" (McCarthy nazwał swój program advice taker) wynikałby z przeprowadzania logicznych wywodów nad tymi znanymi faktami.
GU: Co by powiedział dziś John McCarthy, widząc w jakim kierunku to się rozwinęło przez kolejne 70 lat?
PS: To, co dziś kojarzy nam się głównie ze sztuczną inteligencją, tzn. duże modele językowe (ang. LLM), działają w zupełnie inny sposób. Nie bazują na ścisłych matematycznych formułach, nie dokonują czegoś, co można byłoby nazwać wnioskowaniem ani nie mają żadnej explicite zapisanej wiedzy.
Tworzą one bardzo skomplikowana reprezentację wektorową przetwarzanych tekstów, która z założenia jest niedokładna i wieloznaczna. Na jej podstawie starają się przewidzieć kolejne słowo. Jak dobrze to działa, widzimy chociażby na przykładzie ChatGPT. Jest to podejście, które na pewno nie śniło się w latach pięćdziesiątych żadnemu z ówczesnych twórców AI.
GU: Czy słusznie te modele językowe są dziś określane jako sztuczna inteligencja?PS: LLM-y to zupełnie inna perspektywa, ale też nie wiadomo, czy mają one szansę doprowadzić do ogólnej sztucznej inteligencji (AGI). Jasne jest, że te obecne modele językowe nie rozumują za dobrze. Wydaje się, że jesteśmy je w stanie “dotrenować”, aby robiły to zdecydowanie lepiej.
Trochę osób podejrzewa, że właśnie o to chodzi w projekcie Q*, nad którym miałoby pracować OpenAI. Prawdopodobnie na ten moment tylko ta firma jest dzisiaj w stanie zrobić to w koniecznej do tego skali.
GU: Na koniec, proszę powiedzieć, jak ta ogólna sztuczna inteligencja mogłaby hipotetycznie wyglądać?
PS: Jest kilka hipotez, jak może wyglądać ogólna sztuczna inteligencja. Modele językowe to tylko jedna z nich. Możliwe, że zobaczymy jeszcze wiele zakrętów na drodze do AGI.
Nawet jeśli inne drogi okażą się lepsze, wydaje się, że ten poziom rozumienia języka naturalnego, jaki do tej pory osiągnęliśmy i niezbędne do tego technologie już z nami pozostaną. Pewnym dość prawdopodobnym scenariuszem jest powstanie modeli hybrydowych, łączących klasyczne logiczne podejście McCarthy’ego i innych pionierów rozwoju AI z LLM-ami. Nad tym wiele osób na świecie aktualnie pracuje.
GU: Dziękuję za rozmowę.
Stock Image from Depositphotos.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu