Rozwiązania OpenAI zrewolucjonizowały rynek i nie ma co do tego żadnych wątpliwości — ale okazuje się, że firma nie do końca wie, jak to wszystko działa.
Sztuczna inteligencja zmieniła… niemal wszystko
Sztuczna inteligencja w ostatnim czasie zrewolucjonizowała nasze życie, wprowadzając istotne zmiany w wielu obszarach. Szczególnie warto wspomnieć o ChatGPT, stworzonym przez OpenAI chatbocie, który doskonale radzi sobie z tworzeniem prac naukowych. Jego teksty są tak precyzyjne i szczegółowe, że nie tylko nauczyciele i wykładowcy, ale także zawodowi recenzenci czasopism mają trudności z odróżnieniem ich od ludzkich dzieł. Nic więc dziwnego, że uczniowie i studenci chętnie korzystają z tego narzędzia, tworząc w kilka sekund wypracowania i eseje, które pomagają im z łatwością zaliczyć przedmioty.
Do tego mamy takie rozwiązania jak DALL-E czy Midjourney, które są w stanie wygenerować nam prawdziwe dzieła sztuki na bazie wyłącznie krótkiego opisu. Mieliśmy już nawet absurdy związane z tym, kiedy to obrazy wygenerowane właśnie przez sztuczną inteligencję wygrywały konkursy artystyczne — co tylko potwierdza, jak dobre jest to narzędzie. Wielu z Was więc na pewno zastanawia się, jak w takim razie działają rozwiązania oparte na AI i na jakiej zasadzie to wszystko funkcjonuje. Cóż, odpowiedzi na to pytanie może nie być wcale tak łatwo uzyskać.
Jak działa sztuczna inteligencja? W OpenAI… nie wiedzą
Podczas AI for Good Global Summit w Genewie w Szwajcarii, które odbywało się niedawno, dyrektor generalny OpenAI, Sam Altman, został zapytany o to, jak naprawdę funkcjonują duże modele językowe jego firmy (LLM). Altman nie krył zdziwienia i zmieszania tym pytaniem, a jego odpowiedź była bardzo wymijająca — powiedział właściwie tylko tyle, że w firmie z pewnością nie rozwiązali jeszcze kwestii możliwości interpretacji, co oznacza, że OpenAI musi właściwie jeszcze wymyślić, w jaki sposób prześledzić dziwne i niedokładne wyniki swoich modeli sztucznej inteligencji oraz decyzje, jakie podjęła sztuczna inteligencja, aby uzyskać odpowiedzi na te pytania.
Dyrektor generalny The Atlantic, Nicholas Thompson, postanowił odbić piłeczkę i zapytał, czy nie powinien to być argument za tym, aby nie wypuszczać na rynek nowych, potężniejszych modeli sztucznej inteligencji. Altman skwitował to tak, że sztuczna inteligencja jest „ogólnie uważana za bezpieczne i solidne” rozwiązanie, chociaż w jego odpowiedzi definitywnie brakowało przekonania do swojej racji. I to faktycznie jest niepokojące — bo kto ma wiedzieć, w jaki sposób działają modele językowe, jeśli nie firmy, które wypuszczają co jakiś czas nowe modele i cały ich biznes opiera się właśnie na tym? Jeśli zbadanie tego okazało się za trudne dla OpenAI, to można mieć pewne obawy.
Czy jesteśmy gotowi na AGI?
To wszystko budzi również wątpliwości związane z tym, że cały czas dążymy do AGI, czyli Artificial General Intelligence. Odnosi się ono do rodzaju sztucznej inteligencji, która jest zdolna do rozumienia, uczenia się i wykonywania zadań w sposób podobny do ludzkiego umysłu. AGI jest przeciwnością do ANI, która jest zaprojektowana do rozwiązywania konkretnych, ograniczonych zadań bez zdolności ogólnego uczenia się i adaptacji. AGI ma zdolność radzenia sobie z różnymi rodzajami zadań i dostosowywania się do nowych sytuacji, podobnie jak ludzki umysł.
Do tego jest zdolna do samodzielnego uczenia się z nowych danych i doświadczeń, co pozwala jej na rozwijanie się i poprawianie swoich zdolności w miarę upływu czasu. Ponadto AGI może rozumieć kontekst zadań i informacji, co pozwala jej podejmować bardziej przemyślane i inteligentne decyzje. Na koniec, choć to jest cecha bardziej z przyszłościowej wizji AGI, samoświadomość oznaczałaby, że maszyna ma świadomość siebie i swoich działań. I czy na pewno jest to bezpieczne, skoro nie wiemy, jak AI funkcjonuje na tym etapie?
Źródło: AI for Good Global Summit / Futurism
Grafika wyróżniająca: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu