Sztuczna Inteligencja

I już mamy problem z ChatGPT. Mało kto tego oczekiwał

Jakub Szczęsny
I już mamy problem z ChatGPT. Mało kto tego oczekiwał
10

Zachłysnęliśmy się chatbotami takimi jak ChatGPT, ale nikt nie wziął pod uwagę jednej rzeczy. Implementacja tego typu botów do wyszukiwarek spowoduje, że koszt jednego wyszukiwania (jednostkowo nie kosztuje to dużo, ale przy odpowiedniej skali...) może być nawet 10 razy większy, niż w przypadku tradycyjnego, bez użycia AI. I co teraz?

Powinniśmy się o to martwić tym bardziej, że bitwa o przyczółek AI między Microsoftem i Google dopiero się rozpoczyna. Co prawda, Google jest odrobinę w tyle - ale na ten moment trudno jest ocenić, jak ostatecznie się rozwinie ów "konflikt". Pewne jest jednak to, że każdy biznes musi na siebie zarobić i się utrzymać. Jak wynika z publikacji Reutersa na temat AI i chatbotów - koszt wykorzystania takich rozwiązań w wyszukiwarkach może znacząco podnieść koszt jednostkowego wyszukiwania. John Henessy z Alphabetu wyraził taki pogląd w trakcie rozmowy z dziennikarzami.

Polecamy na Geekweek: Jak sztuczna inteligencja jest wykorzystywana na wojnie w Ukrainie?

Duży koszt utrzymania infrastruktury dla modelu językowego jest ogromny: dlatego właśnie, Sam Altman z OpenAI postanowił w lutym wdrożyć ChatGPT Plus, który dodaje nowe funkcjonalności, priorytetyzuje konto "premium" w kolejce oraz daje wyższa wydajność. Koszt? 20 dolarów miesięcznie. Niewiele, jeżeli sporo korzystacie z ChatGPT w zastosowaniach biznesowych. A wielokrotnie już udowodniono, że użycie AI w takiej roli jest naprawdę zasadne. Reuters na podstawie wyliczeń Morgan Stanley już oszacował w 2022 roku, że koszty wyszukiwania w Google mogłyby wzrosnąć nawet o 6 mld dolarów w 2024 roku, gdyby wprowadzono w tym momencie zapowiadany model Bard. Aby model językowy mógł obsłużyć wszystkie żądania użytkowników, należy użyć znacznie wyższej wydajności. To spore wyzwanie dla firm technologicznych.

Co teraz? Co to oznacza dla śladu węglowego?

Większa wydajność oznaczać będzie zapewne, że firmy technologiczne będą zużywać więcej prądu, niż w przypadku tradycyjnych wyszukiwań. To zupełnie normalne i musimy brać to pod uwagę. Czołowi giganci technologiczni wdrożyli już działania pozwalające na kompensowanie swojego śladu węglowego, inwestują w odnawialne źródła energii. I bardzo dobrze. Trzeba jeszcze pomyśleć o tym, co zrobić, aby zrównoważyć większe koszty. 6 mld dolarów w 2024 roku przy wyliczeniach Morgan Stanley to sporo: najpewniej w podpowiedziach chatbotów znajdą się reklamy - nie widzę innej możliwości. Reklamodawcom będzie bardzo zależało na tym, aby znaleźć się w gronie "polecanych" przez chatbota, bo będzie to prawdopodobnie główne miejsce, w którym konsument będzie dokonywać wyboru.

Istnieje też inna droga. Ta może zakładać wprowadzenie... płatnych subskrypcji w wyszukiwarkach. Tyle, że biznesowo tego akurat nie widzę: chyba, że oferta na tego typu rozwiązanie okaże się odpowiednio zrównoważona i naprawdę przydatna dla użytkownika. W tym momencie powinniśmy się zastanawiać głównie nad tym, co może oznaczać dla nas zwrot ku sztucznej inteligencji. Czym dalej w las, tym więcej drzew...

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu