Nauka

Ile (wody) "wypija"... ChatGPT? Będziesz zaskoczony

Jakub Szczęsny
Ile (wody) "wypija"... ChatGPT? Będziesz zaskoczony
Reklama

Miałem trochę inny pomysł na tytuł. Chciałem zagrać nieco "prowokacyjnie" i napisać: "ile pije ChatGPT": chyba oczywistym jest jednak to, że chodzi o wodę, a AI na szczęście nie tyka alkoholu, bo mniemam, że wiele osób mogłoby pomyśleć właśnie o nim. Ponadto, nie ma co sobie robić z tego żartów, bo problem jest spory. O zużyciu wody przez rozwiązania technologiczne mówi się zdecydowanie za mało.

Według wyników badań przeprowadzonych niedawno przez Shaolei Rena z Uniwersytetu Kalifornijskiego, ChatGPT i inne "duże modele językowe" (LLM) zużywają znaczną ilość wody, aż do pół litra (he, he, he) na każde od 20 do 50 zapytań od użytkowników lub podpowiedzi w chociażby wyszukiwarkach, gdzie są one implementowane. Autor badania zaznacza, że 0,5 litra nie wydaje się szczególnie duża ilością, ale na problem trzeba popatrzeć bardziej globalnie.

Reklama

Tu skala robi się już przeogromna - faktem jest to, że zapytań do ChatGPT w ciągu tylko jednego dnia jest około 10 mln. Przy założeniu optymistycznym założeniu, że model GPT zużywa 0,5 litra wody na każde 50, a nie 20 zapytań - robi nam się z tego 100 000 litrów wody. To pojemność odpowiadająca dużemu basenowi ogrodowemu (takiego wkopywanego w ziemię).

Autor badania dodaje ponadto, że wzrost zużycia wody ujawniony w raporcie środowiskowym Microsoftu z 2022 roku, jest bezpośrednio związany właśnie ze sztuczną inteligencją. Gigant zainwestował ogromne pieniądze w rozwój AI generującej teksty, obrazy i dźwięki, a ponadto ściśle współpracuje z OpenAI. W raporcie z badania wyrażono nieco przerażające przekonanie o tym, że ludzie nie bardzo mają pojęcie o tym, jak wiele wody zużywa się w związku z działaniem przeróżnych rozwiązań technologicznych.

Wielu z Was będzie zaskoczonych tym, że jedynie ChatGPT "zużywa" mniej więcej tyle wody, ile jest jej w dużym basenie przy domu - czemu się nie dziwię, bo przecież rzadko się myśli o tym, ile wody może zużywać AI, prawda? Jednak zrozumienie tego typu kwestii jest kluczowe w procesie optymalizacji wykorzystania wody w takich celach.

Microsoft nie chowa głowy w piasek

Microsoft nie ukrywa problemu i przyznaje się do niego w rozmowach z mediami. Co więcej, gigant zobowiązał się do badania sposobów pomiaru zużycia energii i analizy własnego śladu węglowego, a także do podejmowania działań na rzecz zwiększenia efektywności energetycznej dużych modeli językowych. Deklaruje ponadto, że będzie kontynuować monitorowanie emisji dwutlenku węgla, zwiększać wykorzystanie energii odnawialnej w centrach danych oraz podejmować inne inicjatywy: między innymi osiągnięcie ujemnego bilansu pod względem emisji CO2, dodatniego pod względem wykorzystania wody i zerowego - jak chodzi o odpady do roku 2030.

OpenAI także potwierdziło problem zużycia wody i zobowiązało się do optymalizacji zużycia energii przez produkowane przez siebie modele. Trzeba jednak pamiętać o tym, że LLM są stosunkowo nowe, a wraz z czasem możliwe będzie opracowanie metod zmniejszenia ich wpływu na środowisko. Tymczasem - w ciągu ostatnich 3 miesięcy, popularność ChatGPT sukcesywnie spada. Wraz ze spadkiem liczby użytkowników korzystających z ChatGPT, obniża się także ogólne zużycie wody przez tę technologię.

A tak nawiasem - jak to jest, że AI zużywa takie zasoby, jak woda? Cóż, chodzi o obliczenia dotyczące tego, ile wody jest potrzebne do wyprodukowania energii napędzającej maszyny stanowiące "bazę wydajnościową" GPT - ale nie tylko. Te maszyny wymagają także chłodzenia, pracy wielu systemów utrzymujących zabezpieczenia odnoszące się do termiki i ogromu innych urządzeń.

Nie możemy liczyć na to, że z czasem zainteresowanie AI i dużymi modelami będzie spadać - a tym samym problem zbyt dużego zużycia wody "rozwiąże się sam". Pewne jest to, że wkrótce AI zostanie zaimplementowana w wielu "konwencjonalnych" narzędziach, a to będzie oznaczało jeszcze większe wykorzystanie energii, wody. Już teraz należy pracować nad energooszczędnością nie tylko sztucznej inteligencji, ale i technologii w ogóle.

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama