電力或成AI發(fā)展的達摩克利斯之劍
AI 正在“吸干”全球電力
《紐約客》雜志近日指出,OpenAI的ChatGPT每天處理約2億次用戶(hù)請求,消耗的電力或超過(guò)50萬(wàn)千瓦,相當于1.7萬(wàn)個(gè)美國家庭的用電量?!懊髂陮](méi)有足夠的電力來(lái)運行所有的芯片?!卑B ゑR斯克早前的預言不僅是對未來(lái)的警示,更是對當前AI電力需求激增的深刻洞察。
不久前,技術(shù)創(chuàng )業(yè)者、前谷歌工程師凱爾·科比特(Kyle Corbitt)也在社交媒體 X 上表示,訓練 GPT-6 的微軟工程師們正忙著(zhù)搭建 IB 網(wǎng)絡(luò )(InfiniBand),把分布在不同地區的 GPU 連接起來(lái)。這項工作很困難,但他們別無(wú)選擇,因為如果把超過(guò) 10 萬(wàn)塊 H100 芯片部署在同一個(gè)地區,電網(wǎng)就會(huì )崩潰。
為什么這些芯片集中起來(lái)會(huì )導致電網(wǎng)崩潰的后果呢?以下數據或許可以說(shuō)明原因。
英偉達網(wǎng)站上公布的數據顯示,每塊H100芯片的峰值功率為 700W,10萬(wàn)塊H100峰值功耗最高可達7000萬(wàn)W。而 X 評論區有能源行業(yè)從業(yè)者指出,10萬(wàn)塊芯片的總能耗將相當于一座小型太陽(yáng)能或風(fēng)能發(fā)電廠(chǎng)的全部輸出。這一數據直觀(guān)展現了AI大模型在訓練和推理過(guò)程中對電力的巨大依賴(lài)。
事實(shí)上,ChatGPT僅是AI應用的冰山一角,更大規模的電力消耗來(lái)自遍布全球的數據中心。據國際能源署統計,2022年美國約有2700個(gè)數據中心,電力消耗占全國總量的4%,且這一比例預計在2026年升至6%。同時(shí),報告還顯示,2022 年全球數據中心、人工智能和加密貨幣的耗電量就達到 460 TWh,占全球能耗的近 2%。IEA 預測,在最糟糕的情況下,到2026年這些領(lǐng)域的用電量將達1000 TWh,與整個(gè)日本的用電量相當。
AI對電力需求的增長(cháng)不僅源于大模型的運算量,還與芯片性能提升和冷卻需求相關(guān)。芯片設計公司Arm的首席執行官Rene Haas警告稱(chēng),若不提高芯片能效,到2030年,AI數據中心的耗電量可能占據美國總電力需求的20%-25%。美銀美林的研究報告也進(jìn)一步指出,AI電力使用量預計在2023年至2028年間以25%-33%的年復合增長(cháng)率增長(cháng),遠高于整體電力需求2.8%的年復合增長(cháng)率。
從全生命周期視角評估 AI 能耗
華盛頓ITIF智庫在一份題為《重新審視對人工智能能耗的擔憂(yōu)》的報告中指出,目前許多研究和政策都關(guān)注 AI 訓練(training)階段,但多項研究表明 AI 在推理(inference)過(guò)程中,也即人們使用 AI 輸出結果的過(guò)程能耗更高。此外,不同 AI 模型處理不同類(lèi)型的推理任務(wù),能耗的差異也很大。例如 1000 次請求計算,圖片分類(lèi)任務(wù)的耗電量是 0.007 千瓦時(shí),而圖片生成任務(wù)耗電 2.907 千瓦時(shí)。
報告認為,AI 的訓練是一次性事件,而它的使用是長(cháng)期過(guò)程,討論 AI 能耗問(wèn)題時(shí)應該關(guān)注的不是爆發(fā)式增長(cháng),而是長(cháng)期的影響。并且,從技術(shù)史的視角看來(lái),AI 及其能耗的增長(cháng)還將受到以下 4 個(gè)因素的限制:
基礎設施建設成本將制約 AI 的快速增長(cháng)
事實(shí)上,“ChatGPT 每日耗電量或超過(guò) 50 萬(wàn)千瓦時(shí)”的結論,出自技術(shù)博客 Digiconomist 作者亞歷克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯還曾預測,在最糟糕的情況下,谷歌的 AI 用電量將與整個(gè)愛(ài)爾蘭相當,達到每年 29.3 TWh(太瓦時(shí))。但他同時(shí)也指出,要想達到這樣的規模,谷歌需要在芯片上投入 1000 億美元,此外還要數據中心的運營(yíng)和電費投入數十億美元。如果AI的運營(yíng)成本居高不下,逐利的商業(yè)公司自然會(huì )放慢腳步,減少投入。
AI 性能增長(cháng)存在邊際效應
近年來(lái) AI 連續在許多領(lǐng)域取得了突破性進(jìn)展,這也意味著(zhù)它可能很快迎來(lái)一個(gè)瓶頸期。研發(fā)、運營(yíng)更大的模型帶來(lái)的回報將越來(lái)越低,在提升準確性上精益求精也將變得更困難。所以,優(yōu)化 AI 模型可能是接下來(lái)的研發(fā)方向。
軟件和硬件的性能提升將減少 AI 能耗
AI 模型的優(yōu)化,以及硬件技術(shù)的進(jìn)步,都有望減少 AI 的能耗。一項發(fā)表于《科學(xué)》期刊的研究指出,在 2010~2018 年間,全球數據中心的運算量增長(cháng)了 550%,存儲空間增長(cháng)了 2400%,但耗電量?jì)H增長(cháng) 6%。硬件、虛擬技術(shù)和數據中心設計方面的創(chuàng )新提升了能效,也使得云計算的規?;蔀榭赡?。
同樣,剪枝(pruning)、量化(quantization)、蒸餾(distillation)等技術(shù)有望帶來(lái)更好的算法,讓 AI 模型更快、更節能。谷歌公司和加州大學(xué)伯克利分校研究團隊指出,有賴(lài)于各項技術(shù)進(jìn)步,近年來(lái)在谷歌公司內部 AI 的能耗占比保持穩定,盡管機器學(xué)習增長(cháng)到運算量的 70%~80%。
AI 的應用最終將在某些方面減少碳排放
整體上,當人們用電子郵件替代傳統書(shū)信,用觀(guān)看 DVD 或流媒體頻道替代去電影院看電影,這些活動(dòng)的數字化都減少了碳排放。AI 有望在這方面繼續發(fā)揮作用,例如通過(guò)改進(jìn)視頻通話(huà)體驗,使更多的會(huì )議轉向遠程進(jìn)行。此外,AI 技術(shù)還可用于進(jìn)行電網(wǎng)調度、分析氣候數據,從而成為應對氣候變化的助力。
電力供需矛盾與公共電網(wǎng)壓力
AI產(chǎn)業(yè)的快速發(fā)展與現有電力供應體系形成了鮮明對比。以美國為例,一方面,美國電網(wǎng)基礎設施大多建于上世紀六七十年代,設備老化、輸電線(xiàn)路過(guò)載等問(wèn)題突出,難以應對突如其來(lái)的電力需求激增。例如,2021年得克薩斯州因極端寒潮引發(fā)的大停電事件,暴露了電網(wǎng)脆弱性。另一方面,企業(yè)對有限的電網(wǎng)接入權限展開(kāi)激烈競爭,紛紛在科技產(chǎn)業(yè)欠發(fā)達地區如俄亥俄、愛(ài)荷華等地布局數據中心,以獲取穩定的電力供應。
這種供需矛盾迫使企業(yè)采取各種手段“搶電”,包括自建或購買(mǎi)專(zhuān)屬電源、尋求新型能源解決方案等。聯(lián)邦政府雖意識到電力瓶頸問(wèn)題,但受制于跨州管轄權、土地購置、環(huán)保評估以及成本分攤等復雜因素,大規模電網(wǎng)升級面臨重重困難,短期內難以取得顯著(zhù)成效。
清潔能源技術(shù):應對電力挑戰的新希望
在傳統電力供應捉襟見(jiàn)肘的情況下,核能、燃料電池和地熱能等清潔能源技術(shù)成為緩解AI電力需求壓力的潛在路徑。企業(yè)積極探索多元化的電力供應方案,以確保業(yè)務(wù)穩定發(fā)展的同時(shí),盡可能減少對環(huán)境的影響。
核能:可靠但爭議猶存
核能以其高效、清潔和穩定的特點(diǎn)吸引了眾多科技巨頭。亞馬遜網(wǎng)絡(luò )服務(wù)公司(AWS)選擇在賓夕法尼亞州的核電站附近設立數據中心,并有望獲得高達960兆瓦的專(zhuān)用電力。微軟則在招聘核技術(shù)專(zhuān)家,評估和整合小型模塊化核反應堆與微反應堆,旨在為數據中心提供持續動(dòng)力。盡管如此,小型核反應堆在美國尚無(wú)實(shí)際應用案例,其落地需克服聯(lián)邦監管審批、公眾接受度以及安全顧慮等多重障礙。
燃料電池與地熱能:成熟且具潛力
相較于核能,燃料電池與地熱能技術(shù)更為成熟,且在短期內實(shí)現商業(yè)應用的可能性較大。數據中心開(kāi)發(fā)商Michael Halaburda和Arman Khalili在其項目中就采用了這兩種清潔能源。他們在波特蘭地區的數據中心以天然氣為燃料的燃料電池為主要電力來(lái)源,輔以電網(wǎng)電力;在得克薩斯州南部的項目則完全脫離電網(wǎng),利用地熱能發(fā)電滿(mǎn)足數據中心需求。這些實(shí)踐表明,燃料電池與地熱能能夠有效減輕對傳統電網(wǎng)的依賴(lài),為AI數據中心提供可靠的綠色能源。
核聚變:未來(lái)能源的星辰大海
雖然目前尚未實(shí)現商業(yè)應用,核聚變作為能源領(lǐng)域的“圣杯”,因其理論上近乎無(wú)限的能源供應潛力和極低的環(huán)境影響,備受科技企業(yè)和投資者關(guān)注。微軟與核聚變初創(chuàng )公司Helion達成電力購買(mǎi)協(xié)議,計劃在2028年從Helion采購電力。OpenAI CEO山姆·阿爾特曼對該領(lǐng)域亦有所投資,展現出對未來(lái)核聚變能源的期待。盡管實(shí)現核聚變商業(yè)化還需克服重大技術(shù)難題,但其一旦成功,將徹底顛覆能源格局,為AI產(chǎn)業(yè)乃至全球電力需求提供幾乎無(wú)限的清潔能源。
AI與電力的可持續共生之路
面對AI算力需求引發(fā)的電力挑戰,行業(yè)與政策制定者應攜手探索多維度解決方案。短期來(lái)看,優(yōu)化數據中心能耗、提高芯片能效、合理布局數據中心地理位置,以及利用現有成熟清潔能源技術(shù)如燃料電池與地熱能,都是緩解電力供需矛盾的有效途徑。長(cháng)遠而言,核能尤其是小型模塊化反應堆和核聚變技術(shù)的發(fā)展,有望為AI產(chǎn)業(yè)提供更為清潔、高效且穩定的能源供應。
同時(shí),應積極推動(dòng)電網(wǎng)現代化改造,加快跨州輸電線(xiàn)路建設和清潔能源接入,以適應AI及其他高能耗產(chǎn)業(yè)的電力需求增長(cháng)。社會(huì )各界應共同努力,構建一個(gè)既能支撐AI技術(shù)蓬勃發(fā)展,又能確保能源安全與環(huán)境保護的電力系統,實(shí)現AI與電力的可持續共生,驅動(dòng)全球經(jīng)濟邁向更加智能、綠色的未來(lái)。
? Copyright 2013 南京奧特賽人工智能技術(shù)研發(fā)有限公司 版權所有 備案號:蘇ICP備19032300號-1 蘇公網(wǎng)安備32011602010459 技術(shù)支持:科威鯨網(wǎng)絡(luò )