Mówienie „proszę” i „dziękuję” do ChatGPT zużywa wodę i prąd
W świecie, w którym coraz więcej rozmów prowadzimy z maszynami, okazuje się, że dobre maniery mają swoją cenę — i to niemałą. Sam Altman, dyrektor generalny OpenAI, zdradził niedawno, że uprzejmość użytkowników wobec ChatGPT generuje dla firmy dziesiątki milionów dolarów kosztów operacyjnych.
Altman odpowiedział żartobliwie na platformie X (dawniej Twitter), gdzie jeden z użytkowników zapytał go, ile kosztuje OpenAI to, że ludzie mówią do ich modeli „proszę” i „dziękuję”. „Dziesiątki milionów dolarów dobrze wydanych — nigdy nie wiadomo” — odpisał, dodając nieco żartobliwego tonu, który można by porównać do kogoś, kto widział „2001: Odyseję kosmiczną” i woli być miły dla AI… na wszelki wypadek.
Ale za tym lekkim tonem kryje się poważny temat. Każde zapytanie do ChatGPT, nawet te uprzejme i zdawałoby się niewinne, uruchamia skomplikowane procesy obliczeniowe w potężnych centrach danych. Odpowiedzi są generowane w czasie rzeczywistym przez wysoko zaawansowane systemy AI, które potrzebują ogromnych ilości energii — i nie tylko.
Miłe słowa, ciężkie rachunki
Według szacunków Goldman Sachs, każde zapytanie do GPT-4 zużywa około 10 razy więcej energii niż tradycyjne wyszukiwanie w Google. Skalując to na miliony użytkowników na całym świecie, mówimy o naprawdę kolosalnym zużyciu prądu.
To nie wszystko. Washington Post przytoczył dane, według których, jeśli tylko co dziesiąty pracujący Amerykanin używałby GPT-4 raz w tygodniu, przez rok, to zużycie energii byłoby porównywalne z zapotrzebowaniem wszystkich gospodarstw domowych w Waszyngtonie przez 20 dni. A mówimy tu tylko o jednym kraju i umiarkowanym użytkowaniu.
Woda, która chłodzi uprzejmość
Kolejny koszt? Woda. Serwery OpenAI, podobnie jak wiele innych centrów danych, wymagają chłodzenia — a to odbywa się często za pomocą wody. Według badania Uniwersytetu Kalifornijskiego w Riverside, wygenerowanie 100 słów przez GPT-4 może pochłonąć do trzech butelek wody. Nawet krótkie odpowiedzi, jak „Nie ma za co”, to około 1,5 uncji wody.
Czy warto być miłym dla AI?
Choć brzmi to absurdalnie, okazuje się, że nasza kultura uprzejmości w kontaktach z AI nie tylko odbija się na środowisku, ale również na finansach firm tworzących te technologie. Jednocześnie badania sugerują, że bycie miłym wobec chatbota zwiększa szansę na otrzymanie miłej, uprzejmej odpowiedzi.
Zatem, czy powinniśmy przestać mówić „proszę” i „dziękuję” do ChatGPT, by ratować planetę i budżet OpenAI? Niekoniecznie. Jak zauważył Altman — te dziesiątki milionów są „dobrze wydane”. Może warto inwestować w technologiczną empatię, nawet jeśli wiąże się to z nieco wyższym rachunkiem za prąd i wodę.
Ale jedno jest pewne — przyszłość, w której nasze maniery wpływają na zużycie zasobów naturalnych, już nadeszła.






