W niedawnym raporcie na temat inwestowania tematycznego, analitycy Barclays przeanalizowali wzrost zapotrzebowania na energię, który spodziewany jest wraz z rozwojem technologii sztucznej inteligencji (AI), ze szczególnym uwzględnieniem roli NVIDIA (NVDA) w tym obszarze.
Analitycy Barclays sugerują, że zużycie energii związane z postępem AI podkreśla ważną część przyszłych wyników rynkowych firmy NVIDIA.
Badanie Barclays sugeruje, że do 2030 roku centra danych mogą zużywać ponad 9% obecnego zużycia energii elektrycznej w Stanach Zjednoczonych, głównie ze względu na potrzeby energetyczne sztucznej inteligencji. Według analityków "zużycie energii przez sztuczną inteligencję szacowane w prognozach firmy NVIDIA" w znacznym stopniu przyczynia się do tak wysokich prognoz energetycznych.
W raporcie wspomniano również, że chociaż każda nowa generacja procesorów graficznych (GPU) staje się bardziej energooszczędna, skala i złożoność modeli sztucznej inteligencji szybko rośnie. Przykładowo, wydajność dużych modeli językowych (LLM) rośnie około 3,5-krotnie w skali roku.
Jednak pomimo tego wzrostu wydajności, oczekuje się, że całkowite zużycie energii wzrośnie ze względu na coraz szerszy zakres zastosowań sztucznej inteligencji. Każda nowsza seria procesorów graficznych, takich jak NVIDIA Hopper i Blackwell, zużywa energię bardziej efektywnie. Jednak większe i bardziej skomplikowane modele sztucznej inteligencji wymagają dużej mocy obliczeniowej.
"Duże modele językowe (LLM) potrzebują ogromnej mocy obliczeniowej do natychmiastowej reakcji" - czytamy w raporcie. "Wymagania obliczeniowe LLM prowadzą również do zwiększonego zużycia energii, ponieważ dodatkowa pamięć, akceleratory i serwery są niezbędne do opracowywania, trenowania i stosowania tych modeli".
"Organizacje, które planują wdrożenie LLM do natychmiastowego zastosowania, muszą poradzić sobie z tymi kwestiami" - wspomina Barclays.
Aby dać wyobrażenie o zakresie tego zapotrzebowania na energię, Barclays szacuje, że do zasilania około 8 milionów procesorów graficznych potrzeba około 14,5 gigawata mocy, co odpowiada około 110 terawatogodzinom (TWh) energii. Przewidywania te opierają się na średniej wydajności operacyjnej na poziomie 85%.
Ponieważ szacuje się, że 70% tych procesorów graficznych zostanie zainstalowanych w Stanach Zjednoczonych do końca 2027 r., oznacza to ponad 10 gigawatów i 75 TWh zużycia energii przez sztuczną inteligencję w samych Stanach Zjednoczonych w ciągu najbliższych trzech lat.
"Kapitalizacja rynkowa firmy NVIDIA wskazuje, że to dopiero początek zużycia energii przez sztuczną inteligencję" - stwierdzili analitycy. Oczekuje się, że ciągłe innowacje i dystrybucja procesorów graficznych firmy NVIDIA doprowadzą do znacznego wzrostu zużycia energii w centrach danych.
Co więcej, zależność centrów danych od energii elektrycznej z sieci podkreśla potrzebę zarządzania najwyższymi wymaganiami energetycznymi. Centra danych działają przez cały czas, co wymaga stałych dostaw energii.
Raport odnosi się do ważnej uwagi Sama Altmana, CEO OpenAI, na Światowym Forum Ekonomicznym w Davos: "Zdecydowanie potrzebujemy znacznie większej ilości energii na świecie, niż wcześniej sądziliśmy... Uważam, że wciąż nie doceniamy wymagań energetycznych tej technologii".
Ten artykuł został stworzony i przetłumaczony przy pomocy sztucznej inteligencji i sprawdzony przez redaktora. Więcej informacji można znaleźć w naszym Regulaminie.