Nawet gdy ludzkość chętnie korzysta ze sztucznej inteligencji pomimo obaw na froncie akademickim i w dziedzinie bezpieczeństwa, coraz większe obawy budzi głód energii sztucznej inteligencji i jej ślad węglowy. Sztuczną inteligencję często porównuje się do paliw kopalnych. Ropa naftowa po wydobyciu i rafinacji jest lukratywnym towarem; i podobnie jak ropa naftowa sztuczna inteligencja ma duży wpływ na środowisko, co zaskoczyło wielu.
W artykule opublikowanym w MIT Technology Review stwierdzono, że cykl życia uczenia się typowych dużych modeli sztucznej inteligencji ma znaczący wpływ na środowisko i stwierdzono, że „cały proces może wyemitować ponad 626 000 funtów ekwiwalentu dwutlenku węgla – prawie pięciokrotność emisji przeciętnego Amerykanina w ciągu całego życia samochodu (co obejmuje również produkcję samego samochodu).”
Artykuł badawczy Alexa de Vriesa z VU Amsterdam School of Business and Economics również budzi obawy dotyczące zużycia energii elektrycznej w przypadku przyspieszonego rozwoju obliczeń oraz potencjalnego wpływu sztucznej inteligencji i centrów danych na środowisko.
„W ostatnich latach zużycie energii elektrycznej przez centra danych stanowiło stosunkowo stabilny 1% światowego zużycia energii elektrycznej, z wyłączeniem wydobywania kryptowalut” – mówi de Vries.
Z badania MIT wynika, że dziesięć lat temu „większość modeli NLP (przetwarzania języka naturalnego) można było trenować i rozwijać na zwykłym laptopie lub serwerze”.
Jednak centra danych AI wymagają obecnie wielu instancji wyspecjalizowanego sprzętu, takiego jak jednostki przetwarzania grafiki (GPU) lub jednostki przetwarzania Tensor (TPU).
„Celem dużego modelu językowego jest odgadnięcie, co będzie dalej w tekście” – czytamy w artykule opublikowanym przez Columbia Climate School.
„Aby to osiągnąć, należy go najpierw przeszkolić.
Szkolenie obejmuje wystawienie modelu na działanie ogromnych ilości danych (prawdopodobnie setek miliardów słów), które mogą pochodzić z Internetu, książek, artykułów, mediów społecznościowych i specjalistycznych zbiorów danych.
Ten proces szkoleniowy trwa tygodnie lub miesiące, podczas których model sztucznej inteligencji ustala, jak dokładnie wykonać dane zadania, ważąc różne zbiory danych.
Na początku model sztucznej inteligencji dokonuje losowych domysłów, aby znaleźć właściwe rozwiązanie.
Jednak dzięki ciągłemu szkoleniu identyfikuje coraz więcej wzorców i zależności w danych, aby uzyskać dokładne i istotne wyniki.
Postępy w technikach i sprzęcie do uczenia sieci neuronowych, jakie dokonały się w ostatnich latach, umożliwiły „imponującą poprawę dokładności wielu podstawowych zadań NLP”.
„W rezultacie szkolenie najnowocześniejszego modelu wymaga obecnie znacznych zasobów obliczeniowych, które wymagają znacznych ilości energii, a także związanych z tym kosztów finansowych i środowiskowych” – dodaje badanie MIT.
Zapotrzebowanie na energię centrum danych AI i ślad węglowy
Szybka ekspansja i zastosowanie sztucznej inteligencji na dużą skalę w latach 2022 i 2023 po uruchomieniu ChatGPT OpenAI doprowadziło do opracowania dużych modeli językowych (LLM) przez główne firmy technologiczne, takie jak Microsoft i Alphabet (Google).
Sukces ChatGPT (który w ciągu dwóch miesięcy osiągnął bezprecedensową liczbę 100 milionów użytkowników) skłonił Microsoft i Google do uruchomienia własnych chatbotów AI, odpowiednio Bing Chat i Bard, czytamy w artykule Vriesa.
Vries powiedział RT: „Wiemy już, że centra danych odpowiadają za 1% światowego zużycia energii elektrycznej. Dzięki trendom cyfrowym, takim jak wydobywanie kryptowalut i sztuczna inteligencja, w nadchodzących latach odsetek ten może z łatwością wzrosnąć do 2% i więcej.”
W badaniu MIT oszacowano, że przetwarzanie w chmurze powoduje większy ślad węglowy niż cała branża lotnicza.
Co więcej, jedno centrum danych może wymagać takiej samej ilości energii elektrycznej, jaka jest potrzebna do zasilenia około 50 000 domów.
Do działania wysokowydajnych chipów i systemów chłodzenia wymagana jest energia elektryczna, ponieważ procesory nagrzewają się podczas analizowania ogromnych ilości danych i uzyskiwania dokładnych odpowiedzi.
Z badania De Vriesa wynika, że model „BigScience Large Open-Science Open-Access Multilingual (BLOOM) firmy Hugging Face zużył 433 MWh energii elektrycznej podczas szkolenia”.
„Inne LLM, w tym GPT-3, Gopher i Open Pre-trained Transformer (OPT), podobno zużywają odpowiednio 1287, 1066 i 324 MWh na szkolenie. Każdy z tych LLM został przeszkolony na terabajtach danych i ma 175 miliardów lub więcej parametrów” – dodaje badanie.
De Vries zacytował w swoim artykule firmę badawczą SemiAnalytics, która sugerowała, że OpenAI wymagało 3617 serwerów HGX A100 firmy NVIDIA z łącznie 28 936 procesorami graficznymi do obsługi ChatGPT, co oznacza zapotrzebowanie na energię na poziomie 564 MWh dziennie.
„Google poinformowało, że 60% zużycia energii związanego ze sztuczną inteligencją w latach 2019–2021 wynikało z wnioskowania (w którym aktualne dane są przepuszczane przez model sztucznej inteligencji). Spółka matka Google, Alphabet, również wyraziła zaniepokojenie kosztami wnioskowania w porównaniu z kosztami szkoleń” – dodał.
Badanie przeprowadzone przez naukowców z Uniwersytetu Kalifornijskiego w Berkeley oszacowało, że GPT-3, na którym wzorowany jest ChatGPT, miał 175 miliardów parametrów, które wytworzyły 502 tony metryczne CO2 w fazie szkoleniowej, podczas gdy dzienna emisja dwutlenku węgla wynosiła 50 funtów (lub 8,4 tony rocznie).
Debata na temat żywotności sztucznej inteligencji i przyszłych działań
De Vries twierdzi, że wyższe zapotrzebowanie na energię w centrach danych będzie zazwyczaj pokrywane przez paliwa kopalne.
„Mamy ograniczoną podaż odnawialnych źródeł energii i już nadaliśmy im priorytet, więc wszelki dodatkowy popyt będzie zasilany paliwami kopalnymi, których musimy się pozbyć” – powiedział RT.
„Nawet jeśli w sztucznej inteligencji umieścimy odnawialne źródła energii, coś innego gdzie indziej będzie musiało być zasilane paliwami kopalnymi, co tylko zaostrzy zmianę klimatu”.
Avik Sarkar, profesor w Indian School of Business i były szef indyjskiego centrum analizy danych Niti Aayog, uważa debatę na temat zapotrzebowania na energię przez sztuczną inteligencję i śladu węglowego za banalną.
W 2018 roku pracował nad analizą dla Międzynarodowej Agencji Energetycznej (IEA) dotyczącą rozwoju centrów danych w Indiach i jego wpływu na zużycie energii w kraju.
„Ślad sztucznej inteligencji na zużycie energii jest niewielki, a wiele technologii pochłania ogromne ilości energii” – powiedział RT.
„Spójrzcie na jakąkolwiek główną ulicę w większych miastach, ilość oświetlenia na billboardach jest tak ogromna, że światła są widoczne z kosmosu, nazywane lampkami nocnymi, co jest doskonałym wskaźnikiem rozwoju i wzrostu gospodarczego.
Zużycie energii jest naturalnym efektem urbanizacji, kapitalizmu i wzrostu gospodarczego – musimy nauczyć się żyć z tą rzeczywistością.
Komentując zapotrzebowanie na energię centrów danych AI i wpływ emisji gazów cieplarnianych, de Vries twierdzi, że problem nie ogranicza się tylko do Indii, a zmiany klimatyczne są problemem globalnym.
„Jeśli w wyniku sztucznej inteligencji zwiększymy zarówno zapotrzebowanie na energię, jak i emisję gazów cieplarnianych, będzie to miało wpływ również na wszystkie wrażliwe kraje” – powiedział.
Sarkar przyznaje, że ogromne zużycie energii przez sztuczną inteligencję wynika z dużych centrów danych zapewniających infrastrukturę pamięci masowej i obliczeniową.
Woda wykorzystywana do chłodzenia centrów danych ma jeszcze większy wpływ na energię.
Sarkar zwrócił uwagę, że większość globalnych centrów danych ma siedziby poza Indiami, argumentując, że kraj ten nie stoi obecnie przed poważnym wyzwaniem.
Z wyjątkiem danych osobowych, inne indyjskie punkty danych mogą być przechowywane w ośrodkach poza granicami kraju.
„Kluczowe dane związane z transakcjami finansowymi, danymi Aadhar lub danymi dotyczącymi opieki zdrowotnej muszą znajdować się w Indiach, a ich liczba byłaby ogromna. Indie mają różne strefy klimatyczne i mogą złagodzić wysokie zużycie energii, lokując te centra danych w chłodniejszych, niesejsmicznych strefach kraju” – zasugerował.
Według De Vriesa dobra wiadomość jest taka, że w łańcuchu dostaw serwerów AI występują wąskie gardła, co oznacza, że wzrost w najbliższej perspektywie będzie nieco ograniczony.
„Powinniśmy wykorzystać tę okazję, aby pomyśleć o odpowiedzialnym stosowaniu sztucznej inteligencji i zadbać o przejrzystość również w przypadku stosowania sztucznej inteligencji, abyśmy mogli właściwie ocenić wpływ, jaki ma ta technologia” – stwierdził.
BySanjeev Kumar, dziennikarz mieszkający w Shimla (Indie) specjalizujący się w środowisku, zmianach klimatycznych i polityce.
Przetlumaczono przez translator Google
zrodlo:https://www.rt.com/india/590343-ai-cloud-computing-carbon-footprint/
Brak komentarzy:
Prześlij komentarz