高馬爾
一個信息發佈的網站

AI狂歡的背後:算力的能耗,我們該擔憂嗎?

今天小編(謝飛揚)要和大家分享的是AI狂歡的背後:算力的能耗,我們該擔憂嗎?,歡迎閲讀~

導語

ChatGPT 等 AI 模型爆發式增長引發關鍵問題:這場 AI 革命需要消耗多少能源?本文探究數據中心在鄉村地區的快速擴張,以弗吉尼亞州為例,揭示研究者如何通過供應鏈分析和直接測量兩種方法估算 AI 能耗。雖然 AI 目前僅占全球能源消耗的小部分,但在數據中心集中區網域影響顯著。技術效率的提升能否跑赢使用量的增長?這場能源與創新的博弈将如何影響我們的未來?

研究領網域:生成式人工智能、能源透明度、供應鏈分析、傑文斯悖論

Sophia Chen   | 作者

Nature   | 作者

在弗吉尼亞州的庫爾佩珀縣,空氣中彌漫着幹草和糞便的氣息,這裏的牛數量是人類的三分之一。" 我們有大片農場,大多數仍然是家族經營,并且有很多森林,"Sarah Parmelee 説道,她是該縣 55,000 名居民之一。" 這裏是迷人的美國小鎮風情," 她補充道。

但是這個田園般的世外桃源正經歷 21 世紀的重大轉變。過去幾年裏,該縣已經批準了七個大型數據中心項目的建設,這些項目将支持技術公司在生成式人工智能(AI)方面的擴張計劃。在這些巨大的建築内部,成排的計算機伺服器将用于訓練像 ChatGPT 這樣的對話式 AI 模型,并向全世界每天約數十億的請求提供答案。這種建設将會給弗吉尼亞帶來長遠的影響,每個設施可能會消耗與數萬住宅相同的電量,這可能會推高居民的用電成本,并使該地區的電力基礎設施使用超出其容量限制。帕梅利和其他社區成員對數據中心的用電需求持謹慎态度,尤其弗吉尼亞已經是全球的數據中心之都。2024 年 12 月發布的一項審查指出,盡管數據中心帶來了經濟效益,但持續增長可能會在未來十年内使弗吉尼亞的電力需求翻倍。

" 電将從哪裏來?"帕梅利問道,她正在繪制該州數據中心的增長地圖,并為位于弗吉尼亞州沃倫頓的非營利組織皮埃蒙特環境委員會(Piedmont Environmental Council)工作。他們都説," 我們會從其他地區購買電力。" 但可能那個區正計劃從你這裏購買電力。"

類似關于 AI 和能源的衝突正在全球許多地方上演,這些地方的數據中心都在以創紀錄的速度湧現。大型科技公司正大力押注生成式 AI,這比舊的 AI 模型需要更多的能量來運行,因為舊模型只是提取數據中的模式,而不生成新的文本和影像。這使得企業集體花費數百億美元用于新建數據中心和伺服器,以擴大其算力容量。

從全球視角來看,AI 對未來電力需求的影響相對較小但是數據中心密集的地方的影響較為深遠與其他能源密集型設施相比,如鋼鐵廠和煤礦,數據中心的空間密集度要高得多。公司傾向将數據中心的建築建設地彼此靠近,以便共享電網和冷卻系統,并高效地傳輸信息,既包括内部傳輸,也包括傳輸到用户。特别地,由于弗吉尼亞州提供税收優惠,越來越多的數據中心公司在此聚集。

圖片來源:go.nature.com/439becc

" 如果有了一個,很可能就會有更多," 帕梅利説。弗吉尼亞已經擁有 340 個這樣的設施,而帕梅利繪制的地圖顯示弗吉尼亞還有 159 個計劃中的數據中心或現有中心的擴建項目,據位于加利福尼亞州帕洛阿爾托的研究機構 EPRI 的一份報告稱,這些數據中心占該州電力使用的四分之一以上 [ 2 ] 。在愛爾蘭,數據中心消耗的電力超過了全國用電量的 20%,其中大部分位于都柏林邊緣地區。在美國,至少有五個州的數據中心耗電量已超過 10%。

更棘手的情況是,企業對其AI 系統電力需求的數據缺乏透明度。" 真正的問題是,我們在操作時幾乎無法獲取詳細數據和信息," 獨立研究員喬納森 · 庫米説,他研究計算機能源使用三十多年時間,并在加州伯靈格姆運營一家分析公司。

" 我認為這個領網域的研究人員都在抓狂,因為我們得不到我們需要的數據," 阿姆斯特丹自由大學研究員、荷蘭公司 Digiconomist 的創始人亞歷克斯 · 德弗裏斯説,這家公司研究數字趨勢帶來的意外後果。" 我們只能盡力而為,嘗試各種方法來得出一些數字。"

估算 AI 能源需求

由于缺乏公司的詳細數據,研究人員以兩種方式探讨了 AI 的能源需求。2023 年,德弗裏斯使用了一種供應鏈(或基于市場的)方法。他查看了 NVIDIA 伺服器的功耗,該伺服器在生成式 AI 市場占據主導地位,并據此推算一年所需的電力。然後,他根據特定任務所需此類伺服器總數的估計值乘以這一數字。

德弗裏斯用這種方法估計了如果谷歌搜索使用生成式 AI 所需的能量。兩家能源分析公司估計,谷歌搜索使用類似 ChatGPT 的 AI 需要 4050 萬台 NVIDIA A100 伺服器,基于這些伺服器的功率需求,這将相當于每年 23 至 29 太瓦時 ( TWh ) 的電力。然後,根據分析師提供的每日高達 90 億次搜索的估算(不同來源的估計數字),德弗裏斯計算出每次通過 AI 伺服器的請求大約需要 7 至 9 瓦時 ( Wh ) 的電力。按照谷歌在 2009 年博客文章中報道的數字,這是普通搜索使用電力的 23 至 30 倍(參見 go.nature.com/3d8sd4t)。對此,谷歌方沒有回應。

德弗裏斯説,這種計算方式感覺像是 " 抓住救命稻草 "(grasping at straws),因為他不得不依靠來自第三方的估算。而他的數字很快過時了,因為現在的 AI 模型在計算成本僅為 2023 年模型一小部分的情況下,也可以達到相同的準确度,所以現在用于集成 AI 的谷歌搜索所需的伺服器數量可能更低,正如美國能源分析公司 SemiAnalysis(德弗裏斯估算的來源數據)在給《自然》雜志的電子郵件中所寫道。

即便如此,該公司表示,評估生成式 AI 能耗的最佳方式仍然是監控伺服器發貨量及其功率需求,這是許多分析師廣泛采用的方法。然而,要分離出僅由生成式 AI 使用的能量是很困難的,因為數據中心通常也需要執行非 AI 任務。

自下而上的估算

另一種評估AI能耗需求的方法是 " 自下而上 " 的:研究人員測量一個與 AI 相關的請求在一個具體數據中心中的電力需求。然而,獨立研究人員只能使用開源的 AI 模型進行測量,這些模型的能耗預計和私有模型(非開源)類似。

這些測試背後的概念是用户提交一個提示,例如生成影像或文本聊天的請求,然後 Python 軟體包 CodeCarbon 可允許用户電腦訪問數據中心,獲取模型執行芯片的技術細節。" 在運行結束時,它會提供所使用的硬體消耗了多少電力的估計值," 薩莎 · 盧西奧尼説,他是幫助開發 CodeCarbon 的 AI 研究員,并且在紐約市的 Hugging Face 工作,該公司托管了一個開放源代碼平台,用于 AI 模型和數據集。

盧西奧尼和其他人發現不同的任務需要不同的能量。根據他們最新的結果,平均而言,根據文本提示生成影像大約消耗 0.5 Wh 的電力,而生成文本則略少。作為比較,現代智能手機充滿電大約需要 22 Wh。但存在很大的差異:較大的模型需要更多的能量(參見‘ AI 使用多少能量?’)。德弗裏斯説,這些數字低于他論文中的數字,但這可能是因為盧西奧尼等人測試用的模型至少比支持 ChatGPT 的模型小一個數量級,以及 AI 變得越來越高效。

這些數字是一個下限,根據卡内基梅隆大學的計算機科學家艾瑪 · 斯特魯貝爾(Emma Strubell)的説法,他是盧西奧尼的合作研究者。他們説," 否則,公司會出來糾正我們,但他們并沒有。" 此外,公司通常不會提供估算數據中心冷卻(data-centre cooling)所需電力相關的信息。據法國的數據科學家本諾瓦 · 科爾蒂(Beno î t Courty)所説,CodeCarbon 也無法訪問某些類型的芯片的能量消耗數據,這包括谷歌的專有 TPU 芯片,他是 CodeCarbon 的維護者。

AI 在不同任務上的能耗

盧西奧尼還研究了一個模型從大量數據中提取統計模式,也就是訓練生成式 AI 模型需要多少能量。訓練像 GPT-3 這樣的模型,即 ChatGPT 的第一個版本背後的模型,需要的能量約為千兆瓦時。但按照模型每天接收數十億次請求的計算,那麼回答這些查詢所消耗的電力,能耗在太瓦時量級,依然主導 AI 每年的能耗需求。

上個月,盧西奧尼和其他研究人員發起了 AI Energy Score 項目,這是一個公共倡議,旨在比較不同任務上的 AI 模型的能效,并給每個模型評級。封閉源代碼模型的開發者也可以上傳測試結果,然而目前只有美國軟體公司 Salesforce 參與了進來,盧西奧尼説。

随着競争的加劇,公司對于其最新行業模型的能源需求越來越閉口不談,‘公司間共享信息的現象有所減少’,斯特魯貝爾説。如谷歌和微軟等公司的報告所稱,歸因于支持 AI 的數據中心建設,他們的碳排放量正在增加。(當被《自然》雜志提及缺乏透明度的批評時,包括谷歌、微軟和亞馬遜在内的公司沒有回應;相反,它們強調正在與地方當局合作,确保新建的數據中心不會影響當地的公用設施供應。)

一些政府現在要求公司提高透明度。2023 年,歐盟通過了一項能源效率指令,要求能耗 500 千瓦功率以上的數據中心運營商每年報告其能源消耗。

全球性的預測

基于供應鏈估算方法,分析師表示數據中心目前僅占世界電力需求的一小部分。國際能源署(IEA)估計,在 2022 年,此類設施使用的電量為 240 至 340 太瓦時,或占世界需求的 1% 到 1.3%,如果包括加密貨币挖掘和數據傳輸基礎設施,這一比例将升至 2% [ 4 ] 。

AI 的爆發将會增加這一比例,但由于許多行業的電氣化、電動汽車的增長以及空調需求的增加,預計到 2050 年全球電力消耗将增長超過 80%,因此數據中心 " 在全球電力需求增長中所占的比例相對較小 ",IEA 報道 [ 4 ] 。

即使有對 AI 當前能源需求的估算值,也很難預測未來趨勢,庫米警告説。" 沒有人知道即使是幾年後,數據中心(無論是 AI 還是傳統型)将使用多少電力 ",他説。主要原因是未來所需的伺服器和數據中心數量存在問題,在财政的激勵下,公用事業公司和技術公司通常誇大數字。并且,許多預測是基于 " 簡單化的假設 ",他們将最近的趨勢外推到未來十年或十五年。

去年晚些時候,庫米與他人合著了一份由美國能源部資助的報告 [ 5 ] ,該報告估計美國的數據中心目前使用國家電力的 176 太瓦時(4.4%),并且到 2028 年可能會翻倍或三倍,達到總用電量的 7% 到 12%。

與此同時,SemiAnalysis 在其 2024 年 3 月的報告中指出(參見 go.nature.com/439becc),到 2028 年,數據中心将消耗美國 15% 的電力,到 2030 年将消耗全球能源生產的 4.5%(大約是 IEA 數據的兩倍)。IEA 計劃下個月更新其數據,但無論其預測如何,顯然,AI 對能源的影響在地方和區網域層面上最為明顯。

弗吉尼亞的壓力

就在世界各地的研究人員盡力評估 AI 對能源的影響時,弗吉尼亞州的居民也缺少有關該地區數據中心用電情況的信息。帕梅利通過查閲新聞報道、行業出版品、税務申報和眾包提示,追蹤了一些數據中心的電力需求,然而,要找到相關的信息非常具有挑戰性。

裏士滿弗吉尼亞州立法審計審查委員會的首席立法政策分析師馬克 · 格裏賓(Mark Gribbin)表示,當地電力公司确實知道建造數據中心的公司承諾需要多少電力。作為監督州級項目和機構的政府機構成員,他共同撰寫了那份數據中心将在十年内使弗吉尼亞的電力需求翻倍的報告 [ 1 ] 。但是,公司通常不會公開單個數據中心的具體電力需求。

上個月,弗吉尼亞州議員通過了一項數據中心透明度法案,該法案在《自然》雜志付印時正等待州長籤署。它不要求公司披露其電力需求,而是呼籲報告對環境的影響,涉及用水、土地使用等方面。

與此同時,弗吉尼亞州的電力基礎設施已顯示出緊張迹象。位于華盛頓特區以西的威廉王子縣的一些批準的數據中心面臨長達三年的延遲,因為電力公司無法按承諾的時間向它們供電。

JLARC 的報告稱,弗吉尼亞州的公用事業公司将 " 非常困難 " 地建立足夠的基礎設施以滿足預期的數據中心需求。太陽能設施需要以 2024 年年度兩倍的速度增加,風力發電能力則必須超過迄今為止所有為未來發展預留的海上風電場。

在某些情況下,建造數據中心的公司正試圖自己采購電力供應。例如,去年微軟達成了一項重啓賓夕法尼亞州三裏島核電站反應堆的協定,以幫助為其 AI 運營供電。雖然其中一些項目使用低碳或可再生能源,但一些公用事業公司和立法者正在推動發展更多的化石燃料電廠,比如燃燒天然氣的電廠,然而這将增加碳排放。

AI 的需求是否會下降?

建造數據中心的熱潮基于更多人想要更頻繁地使用 AI 的預期但是,"AI 使用的速度和方式仍然根本不确定 ",IEA 分析員在去年的一篇評論文章中寫道(參見 go.nature.com/4hu2hos)。人們擔心 AI 表現的不一致性以及版權侵權訴訟;也不清楚将來為生成式 AI 提供計算能力究竟需要多少資源。

2014 年 1 月至 2024 年 8 月美國數據中心投資情況,圖片來源:go.nature.com/4hu2hos

中國今年早些時候發布的 DeepSeek-R1 模型能夠以明顯的成本優勢與美國模型相匹敵。這讓一些研究人員認為現在可以創建更好的模型而不必使其變得更" 大 ",這可能降低數據中心的計算需求。

集智百科團隊對 DeepSeek-R1 模型原理的拆解:DeepSeek-R1|集智百科

相比之下,如果生成式 AI 變得更加高效,人們很可能會更加頻繁地使用它——這就是所謂的傑文斯悖論(Jevons paradox),得名于十九世紀英國經濟學家威廉 · 斯坦利 · 傑文斯。他觀察到煤炭技術效率的提高也加速了開采,從而抵消了節省下的能源。

十年後,按照計劃,生成式 AI 的使用量可能會增長,庫爾佩珀縣目前提議的所有數據中心都将以滿負荷運行;也有可能生成式 AI 将成為一種相對小眾的技術,由于需求不足,一些數據中心将關閉。

" 如果做出有把握的預測,但這件事本身又存在巨大的不确定性,有人就會遭受損失 ",庫米説。

參考文獻:

1. Joint Legislative Audit and Review Commission. Data Centers in Virginia 2024. JLARC Report 598 ( JLARC, 2024 ) .

2. Electric Power Research Institute. Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption ( EPRI, 2024 ) .

3. De Vries, A. Joule 7, 2191 – 2194 ( 2023 ) .

4. International Energy Agency. World Energy Outlook 2024 ( IEA, 2024 ) .

5. Shehabi, A. et al. United States Data Center Energy Usage Report ( Lawrence Berkeley National Laboratory, 2024 ) .

AI+Science 讀書會

AI+Science 是近年興起的将人工智能和科學相結合的一種趨勢。一方面是 AI for Science,機器學習和其他 AI 技術可以用來解決科學研究中的問題,從預測天氣和蛋白質結構,到模拟星系碰撞、設計優化核聚變反應堆,甚至像科學家一樣進行科學發現,被稱為科學發現的 " 第五範式 "。另一方面是 Science for AI,科學尤其是物理學中的規律和思想啓發機器學習理論,為人工智能的發展提供全新的視角和方法。

集智俱樂部聯合斯坦福大學計算機科學系博士後研究員吳泰霖(Jure Leskovec 教授指導)、哈佛量子計劃研究員扈鴻業、麻省理工學院物理系博士生劉子鳴(Max Tegmark 教授指導),共同發起以"AI+Science" 為主題的讀書會,探讨該領網域的重要問題,共學共研相關文獻。讀書會已完結,現在報名可加入社群并解鎖回放視頻權限。

詳情請見:

人工智能和科學發現相互賦能的新範式:AI+Science 讀書會啓動

關于AI狂歡的背後:算力的能耗,我們該擔憂嗎?就分享完了,您有什麼想法可以聯系小編(謝飛揚)。