AI zabierze nam pracę? Wcześniej może zabraknąć wody
Imponujący rozwój sztucznej inteligencji, jakiego doświadczamy w ostatnich latach, obok ogromnych nadziei budzi też wiele obaw. Z reguły wyrażane są te związane z wpływem AI na rynek pracy lub zjawiskiem technologicznej osobliwości, ale niepokój może budzić coś jeszcze: apetyt AI na energię i zapotrzebowanie na wodę - co dla wielu może być zaskakujące.
Arcydzieło fantastyki naukowej, jakim jest trylogia filmów "Matrix" raczy nas ponurą wizją świata przyszłości. Ludzkość – po nieudanej próbie odcięcia maszyn od energii słonecznej – kończy konfrontację niepowodzeniem, co skutkuje dla niej zmianą żywych ludzi w organiczne baterie.
Choć dystopijna wizja miała swoją premierę ćwierć wieku temu, trafnie przewidziała zjawisko, jakim jest rywalizacja maszyn i ludzi o zasoby naturalne. To już się dzieje, a eksplozja popularności AI sprawia, że zapotrzebowanie maszyn na wodę i energię rośnie bardzo szybko. Tak szybko, że zdarzają się sytuacje, w których o te same, ograniczone zasoby, rywalizują ludzie i komputery. I ludzie nie zawsze wygrywają.
Wielki apetyt na energię
Ile prądu zużywa sztuczna inteligencja? Dane na ten temat nie są spójne, a wyniki zależą od przyjętej metodologii, jednak uśredniona wartość to ok. 1,5-2 proc. globalnego zapotrzebowania na energię. Na razie, bo coraz bardziej zaawansowane modele AI wymagają coraz większej mocy obliczeniowej, a tym samym – pomimo rosnącej efektywności energetycznej – coraz więcej prądu.
O skali wzrostu dobitnie świadczą dane udostępnione przez Google’a za lata 2020-2024. Zużycie prądu w centrach danych tej firmy wzrosło w ciągu czterech lat z 14,4 milionów MWh do 30,8 milionów MWh, choć należy pamiętać, że to energia wykorzystana do działania wszystkich usług Google’a, a nie tylko tych związanych z AI.
Google szacuje, że przeciętna interakcja z asystentem Gemini odpowiada – pod względem zużycia energii – oglądaniu telewizji przez dziewięć sekund. Wymaga 0,24 Wh energii, emituje 0,03 g dwutlenku węgla i zużywa 0,26 mililitra wody, co odpowiada pięciu kroplom.
Google udostępnia te informacje, aby podkreślić, jak niewiele zasobów zużywa. Trzeba jednak pamiętać, że Google to tylko jedna z wielkich firm, udostępniających usługi związane z AI – przywołanie jej w kontekście zużycia zasobów wynika z faktu, że Google prowadzi w tej kwestii transparentną politykę informacyjną.
Można założyć, że podobnie wygląda kwestia zużycia zasobów przez Meta, Microsoft czy Amazon, a także firmy chińskie. W ich przypadku oszacowanie zużycia zasobów jest jednak skomplikowane, bo – ze względu na restrykcje eksportowe dotyczące m.in. chipów Nvidii – w niektórych przypadkach Chińczycy trenują swoje modele AI poza granicami kraju.
Rywalizacja o wodę
Jednak to nie zużycie prądu – nawet znaczne – wywołuje największe zaniepokojenie. Znacznie poważniejszą kwestią jest bowiem zapotrzebowania centrów danych na wodę, niezbędną do chłodzenia. W tej dziedzinie co pewien czas pojawiają się nietypowe pomysły, nagłaśniane przez media nieproporcjonalnie do ich faktycznego znaczenia.
Przypadki wykorzystania miejskich ścieków czy użycie basenu olimpijskiego do odbioru ciepła z serwerowni są o tyle ciekawe, co – z punktu widzenia całości zjawiska – marginalne. Choć np. Microsoft deklaruje, że jego centra danych nowej generacji nie będą w ogóle zużywały wody (poza celami administracyjnymi, jak kuchnie czy toalety), na razie czysta woda jako najtańszy sposób chłodzenia jest niezbędna, a jej zużycie przestaje być czysto teoretycznym zagadnieniem i przekłada się na niedobory uderzające w okolicznych mieszkańców.
Paradoksalnie problem ma największe znacznie w rejonach, gdzie lokalne społeczności mają najmniejszy dostęp do technologii. Według danych ONZ w 2024 roku 2,8 mld ludzi pozostawało offline, a – jak zauważa serwis SmogLab – 60 proc. największych centrów danych na świecie działało poza USA. Gdzie je zlokalizowano? Poza oczywistymi lokacjami, jak Europa czy wschodnia Azja, niektóre obiekty wznoszono w miejscach, których mieszkańcy w najmniejszym stopniu korzystają z rewolucji, jaką w kwestii dostępu i przetwarzania danych zapewnia AI.
Przykładem jest stan Querétaro w północno-środkowym Meksyku, gdzie kosztem miliardów dolarów powstają nowe ośrodki obliczeniowe. Deficytowe zasoby przekierowywane są do branży zapewniającej wpływy z podatków, gdy mieszkańcy cierpią z powodu suszy i przerw w dostawach energii.
To przykład skrajny, jednak wpływ wielkich centrów danych na zużycie wody jest widoczny na całym świecie – symulacje wskazują, że w 2027 roku zużycie wody przeznaczonej do chłodzenia centrów danych, odpowiadających za działanie AI, będzie porównywalne z zapotrzebowaniem na wodę całej Wielkiej Brytanii.
Warto w tym miejscu zadać pytanie, dlaczego centra danych powstają w miejscach, gdzie znaczne zapotrzebowanie na wodę może stanowić problem, jak choćby okolice miasta Phoenix w amerykańskiej Arizonie? Według agencji Reutera, wpływ ma na to m.in. niski koszt energii, zachęty podatkowe, istniejąca infrastruktura - jak choćby sieci światłowodowe - czy ograniczone ryzyko występowania klęsk żywiołowych zagrażających serwerowniom. Znaczenie ma także niska wilgotność powietrza, ograniczająca ryzyko korozji różnych urządzeń.
Codzienne wybory mają znaczenie
Choć raporty o zużyciu danych przez sektor AI mogą niepokoić, warto pamiętać o skali zjawiska. Zestawianie całej branży z kolejnymi państwami, jak Słowacja czy Holandia przemawia do wyobraźni, podobnie jak przeliczanie, ile tysięcy domów rocznie mogłaby zasilić energia zużywana przez wielkie serwerownie.
Gdy badania prowadzone przez University of Washington wskazują, że ChatGPT zużywa tyle prądu, co 33 tysiące domów (porównywalnie do jednej dużej fabryki półprzewodników), warto pamiętać, że to odpowiednik średniej wielkości miasta, jakich na całym świecie istnieją tysiące.
Statystyki rozkładają się na wielomiliardową populację użytkowników różnych usług, korzystających z AI. Codzienne wybory każdego z nich mają znacznie większy wpływ na świat niż budowa nawet największych centrów danych.
Choć nie należy lekceważyć wpływu, jaki na środowisko wywiera rozwój sztucznej inteligencji, warto – zanim zechcemy go potępić – zadać sobie pytanie o nasz udział w tym zjawisku. Może, zamiast mieć wyrzuty z powodu korzystania z narzędzi AI, warto w ciągu roku zjeść o jednego burgera mniej?
Łukasz Michalik, dziennikarz Wirtualnej Polski