-
Giganci technologiczni ujawnili pierwsze dane o zużyciu energii przez AI, które w skali globalnej mogą znacząco obciążać sieci energetyczne oraz zasoby wody.
-
Rosnące zapotrzebowanie na energię i wodę przez centra danych związane ze sztuczną inteligencją prowadzi do ograniczeń w infrastrukturze wielu krajów.
-
Mimo obietnic firm na temat neutralności klimatycznej, emisje związane z rozwojem AI nadal rosną, a przyszłość tej technologii zależy od decyzji politycznych i społecznych.
-
Więcej podobnych informacji znajdziesz na stronie głównej serwisu
Przez lata badacze zajmujący się wpływem AI na klimat nie mieli dostępu do podstawowych informacji. Firmy takie jak OpenAI, Google czy Microsoft odmawiały podania szczegółów, a naukowcy mogli jedynie szacować zużycie energii na podstawie parametrów modeli i obserwacji infrastruktury. To siłą rzeczy nie mogły być bardzo precyzyjne kalkulacje.
Dopiero latem 2025 r. sytuacja się zmieniła. Sam Altman, szef OpenAI, ujawnił, że jedno przeciętne zapytanie do ChatGPT pochłania około 0,34 Wh energii. Google podał dla swojego modelu Gemini wartość 0,24 Wh, a start-up Mistral opublikował szacunki emisji związanych z użytkowaniem swojego systemu. Dla porównania: to mniej więcej tyle, ile zużywa kuchenka mikrofalowa w kilka sekund.
-
Zaskakujący pomysł Polaków. Przez cały rok będą świeże polskie truskawki
-
Tragedia podczas safari. Doświadczony pracownik popełnił fatalny błąd
Liczby z wieloma gwiazdkami
Choć pojawiły się pierwsze konkretne dane, badacze podkreślają, że pozostają one bardzo ogólne. OpenAI nie wskazał, o którą wersję tworzonego przez siebie modelu chodzi, ani w jaki sposób liczono zużycie. Google podał medianę, czyli wartość środkową – nie wiemy więc, ile energii wymagają najbardziej złożone odpowiedzi. Co więcej, te liczby odnoszą się wyłącznie do czatu tekstowego. Tymczasem coraz popularniejsze stają się obrazy, wideo czy audio, które pochłaniają znacznie więcej prądu. Ile dokładnie? Tego tak naprawdę wciąż nie wiemy.
Eksperci podkreślają, że nie chodzi o to, ile energii zużyje pojedynczy użytkownik. W skali jednostkowej to naprawdę niewiele. Problem zaczyna się wtedy, gdy pomnożymy te ułamki watogodziny przez miliardy zapytań dziennie. OpenAI szacuje, że ChatGPT obsługuje ich około 2,5 miliarda każdego dnia. Wtedy mała liczba nagle staje się gigantycznym obciążeniem dla sieci energetycznych.
Według amerykańskiego laboratorium Lawrence Berkeley National Laboratory, w 2023 r. centra danych w USA zużyły 176 TWh energii, czyli 4,4 proc. całego prądu w kraju. Do 2028 r. ta wartość może sięgnąć nawet 580 TWh, co oznaczałoby od 7 do 12 proc. krajowej konsumpcji energii elektrycznej. W niektórych scenariuszach sama sztuczna inteligencja mogłaby pochłaniać równowartość prądu używanego dziś przez jedną piątą amerykańskich gospodarstw domowych.
Podobne napięcia widać w Europie. W Irlandii centra danych odpowiadają już za ponad jedną piątą całego zapotrzebowania na prąd, co zmusiło władze do ograniczenia nowych inwestycji w okolicach Dublina. W Holandii wprowadzono moratoria na budowę największych tego typu obiektów w Amsterdamie i jego okolicach. Władze argumentują, że sieć nie nadąża za wzrostem zapotrzebowania i brakuje mocy przesyłowych.
Woda – ukryty koszt cyfrowej rewolucji
Drugim zasobem, którego pochłanianie przez AI rośnie w zastraszającym tempie, jest woda. Używa się jej głównie do chłodzenia serwerów. Google podaje, że proste zapytanie do Gemini wymaga około 0,26 ml wody. Altman wspomniał o podobnym zużyciu w przypadku ChatGPT.
Badacze ostrzegają jednak, że takie wyliczenia są bardzo uproszczone. Nie obejmują na przykład wody zużytej w elektrowniach wytwarzających energię dla centrów danych ani różnic między poszczególnymi regionami. Szacunki zespołu z University of California pokazują, że sam trening modelu GPT-3 mógł „odparować” około 700 tys. litrów czystej wody. Google przyznał, że w 2023 r. jego operacje pochłonęły 24 mln m³ wody, z czego aż 95 proc. przypadało na centra danych.
W krajach dotkniętych suszą to poważne obciążenie dla lokalnych społeczności. Gdy centra danych konkurują o wodę z mieszkańcami i rolnikami, pojawia się pytanie, kto ponosi faktyczny koszt cyfrowej rewolucji.

Emisje rosną mimo obietnic
Microsoft i Google od lat deklarują, że wkrótce osiągną neutralność klimatyczną. Rzeczywistość jest jednak inna. Microsoft przyznał, że od 2020 r. jego emisje wzrosły o 23 proc., a Google odnotował prawie 50-proc. wzrost od 2019 r. Winowajcą jest przede wszystkim rozwój infrastruktury dla sztucznej inteligencji.
Firmy bronią się, że AI w przyszłości pomoże w walce ze zmianą klimatu, choćby optymalizując zużycie energii w budynkach czy usprawniając poszukiwania nowych materiałów do baterii. Na razie jednak brakuje dowodów, że te potencjalne korzyści równoważą gwałtownie rosnące zapotrzebowanie na prąd i wodę. Mamy natomiast twarde dowody na to, że energochłonność centrów danych wciąż rośnie. Polskie Sieci Elektroenergetyczne (PSE) prognozują, że do końca 2034 r. centra danych będą miały w naszym kraju moc przyłączeniową na poziomie co najmniej 1063 MW, co przełoży się na zużycie ok. 9,3 TWh energii rocznie. To będzie stanowić ok. 4,5 proc. całkowitego zużyca elektryczności w Polsce. W samym 2023 r. moc centrów danych wzrosła w Polsce o prawie 43 proc.
Szukanie stabilnych źródeł energii
Rosnące zużycie zmusza firmy do inwestowania w źródła energii, które mogą działać bez przerwy. Oprócz rekordowych kontraktów na odnawialne źródła, w grę wchodzi też atom. Microsoft podpisał wieloletnią umowę na dostawy energii z elektrowni jądrowej Three Mile Island. Google współpracuje z firmą Kairos Power, która rozwija nowe reaktory modułowe. To wyraźny sygnał, że bez stabilnych źródeł bezemisyjnych utrzymanie centrów danych 24 godziny na dobę nie będzie możliwe.
Pozostaje jeszcze jedno pytanie: czy popyt na AI rzeczywiście utrzyma obecne tempo. Premiera GPT-5 rozczarowała nawet samo OpenAI. Badania MIT pokazują, że 95 proc. firm nie dostrzega zwrotu z ogromnych inwestycji w sztuczną inteligencję. Jeśli trend ten się utrzyma, rozbudowa wyspecjalizowanych serwerowni może okazać się kosztowną pomyłką.
Ale jeśli popyt będzie rósł, skutki dla globalnej energetyki będą trudne do przecenienia. Już teraz widać, że centra danych stają się jednym z głównych odbiorców prądu i wody. Pytanie, czy jesteśmy gotowi pogodzić się z tym kosztem w imię cyfrowej rewolucji.
AI nigdy nie zużywa energii „za darmo”. Każde zapytanie to nie tylko kilka watogodzin prądu, ale też litry wody i dodatkowe tony emisji. To, czy technologia okaże się trwałą zmianą, czy krótkim boomem, zależy nie tylko od innowacji, ale także od decyzji politycznych i społecznych dotyczących tego, jak i gdzie pozwolimy jej rosnąć.