Ile prądu zużywa ChatGPT i cała branża AI? Prognozy nie pozostawiają złudzeń.
Każde urządzenie elektroniczne, z którego korzystamy - telefon, komputer, telewizor, router etc. - wymaga zasilania w energię. To, ile tej energii jest wymagane, widzimy zazwyczać, kiedy musimy zapłacić za nią okresowy rachunek. Jednak w przypadku sprzętów, które mamy w domu, świadomość ich zapotrzebowania na prąd jest nam bardzo bliska. Jeżeli jednak mówimy o rozwiązaniach po drugiej stronie ekranu - tych, które działają w chmurze na odległych serwerach, bardzo łatwo nam zapomnieć o tym, ile prądu zużywają.
Polecamy na Geekweek: Pentagon o UFO. Nowy raport odpowiada na pytania o technologie pozaziemskie
Datego często tak wielkim zaskoczeniem jest to, że chociażby branża krypto jest w stanie zużyć więcej prądu niż cały świat produkuje ze źródeł odnawialnych. Problem z tak wielkim zużyciem energii mają oczywiście też inne branże, a najwięksi giganci IT na utrzymanie swoich serwerów zużywają ilości prądu mogące zaspokoić potrzeby średniej wielkości państwa.
Do tego swoją cegiełkę zawsze dokłada każda wprowadzona nowość, a wiadomo, że tą w ostatnim czasie jest sztuczna inteligencja.
Policzono, ile prądu zużywa ChatGPT. Wynik robi wrażenie
Wiadomo, że ChatGPT nie jest jedynym produktem AI na rynku, ale póki co - jest najpopularniejszym, a dziennie obsługuje on ponad 200 mln zapytań. Czasopismo New Yorker policzyło, że przy takim obciążeniu, serwery OpenAI zużywają około 500 tysięcy kilowatogodzin dziennie. To ponad 17 tysięcy więcej niż przeciętne gospodarstwo domowe. Zaokrąglając więc, jest to tyle energii, ile zużywa małe miasto pokroju Braniewa.
Jednocześnie, wartości te mogą znacznie urosnąć. Po pierwsze dlatego, że samych narzędzi AI będzie przybywać (jak np. Gemini od Google), a po drugie - AI będzie integrowana w coraz większą liczbę narzędzi, jak np. w wyszukiwarkę. Jeden z naukowcóœ z Duch National Bank policzył, że gdyby Google wdrożyło swoje AI do każdego zapytania w swojej wyszukiwarce, oznaczałoby to zużycie na poziomie blisko 30 miliardów dodatkowych kilowatogodzin w skali roku. Dla porównania - to tyle co kraj wielkości Chorwacji.
W tym wypadku prognozy także nie pozostawiają złudzeń. Zwiększone zapotrzebowanie na rozwiązania AI sprawi, że zapotrzebowanie tego sektora będzie rosło. Cała branża ma zużywać od 85 do aż 134 terawatogodzin rocznie. Dla przykładu - cały Samsung zużywa około 23 terawatogodzin. A pamiętajmy, że wszystkie rozwiązania technologiczne z czasem stają się coraz bardziej zaawansowane i wymagają coraz więcej mocy obliczeniowej, co przekłada się bezpośrednio na ich zapotrzebowanie na energię.
Staje się więc jasne, że w tym momencie budowa kolejnych źródeł energii elektrycznej jest wręcz konieczna. Zużycie energii przez AI będzie bowiem niczym przy sytuacji, w której na prąd przejdzie np. cała branża motoryzacyjna, a pamiętajmy, że przecież po 2035 roku nie kupimy już w Europie samochodu o napędzie spalinowym.
Źródło: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu