降低AI大模型的碳排放
AI模型的訓練和運營過程需要消耗大量能源,但關(guān)鍵問題是,如何知道及測算單個機器學習實驗正在產(chǎn)生多少溫室氣體排放,以及可以減少多少?
目前數(shù)據(jù)科學家們?nèi)詿o法簡單可靠地獲取該領(lǐng)域的測量結(jié)果,這也妨礙著進一步制定可行的應對策略。
針對這一問題,谷歌發(fā)表了一項研究,詳細介紹了最先進的語言模型的能源成本,包括早期和更大版本的LaMDA。
研究結(jié)果表明,將高效的模型、處理器和數(shù)據(jù)中心與
清潔能源相結(jié)合,可以將機器學習系統(tǒng)的
碳足跡減少1000倍。
該團隊提出了四種基本方法,可顯著減少機器學習工作負載的碳(和能源)足跡,這些方法目前在Google中使用,任何使用Google Cloud服務的人都可以使用。
Google能源和碳足跡減少最佳實踐(4Ms)如下:
模型:研究人員表示,選擇高效的ML模型架構(gòu)至關(guān)重要,因為它有可能提高ML質(zhì)量,同時將計算時間縮短一半。
機器:與通用處理器相比,使用專門用于ML訓練的處理器和系統(tǒng)可以將性能和能效提高2倍至5倍。
機械化:大多數(shù)情況下,本地數(shù)據(jù)中心更老、更小。 因此,新的節(jié)能冷卻和配電系統(tǒng)的費用無法攤銷。
基于云的數(shù)據(jù)中心是全新的、定制設(shè)計的倉庫,具有可容納50000臺服務器的能效特性。 它們提供異常高效的電源利用率 (PUE)。
因此,在云端而不是在本地進行計算,可以節(jié)省1.4-2倍的能源并減少污染。
優(yōu)化:云允許客戶選擇具有最清潔能源的區(qū)域,從而將總碳足跡減少5到10倍。
基于4Ms改進的模型、特定于機器學習的硬件和高效的數(shù)據(jù)中心,大大抵消了這種負載增加。
谷歌的數(shù)據(jù)表明,機器學習訓練和推理在過去三年中僅占谷歌整體能源使用量的10%至15%,其中每年有35%用于推理,25%用于訓練。
為了找到改進的機器學習模型,谷歌采用了神經(jīng)架構(gòu)搜索 (NAS)。
每個問題域/搜索空間組合通常只執(zhí)行一次NAS,然后可以將生成的模型重復用于數(shù)百個應用程序,NAS的一次性成本通常被持續(xù)使用的減排量所抵消。
研究人員進行了一項研究來訓練Transformer模型。
為此,他們在典型的數(shù)據(jù)中心中使用了Nvidia P100 GPU,其能源組合與全球平均水平相似,而使用TPUv4等新一代ML硬件,性能比P100提升了14倍。
同時,高效的云數(shù)據(jù)中心比普通數(shù)據(jù)中心節(jié)省1.4倍的能源,從而使總能耗降低83倍。
此外,由低碳能源驅(qū)動的數(shù)據(jù)中心可以將碳排放量再減少9倍,從而在四年內(nèi)總共減少747倍。
谷歌團隊認為,在信息技術(shù)領(lǐng)域,制造各種類型和規(guī)模的計算設(shè)備的生命周期成本,比機器學習的運營成本要高得多。
排放估算的制造成本包括制造所有相關(guān)組件(從芯片到數(shù)據(jù)中心建筑)所排放的嵌入碳。
當然,除了使用4Ms方法,服務提供商和用戶還可以采取簡單的措施來提高他們的碳足跡績效,例如:
客戶應通過讓數(shù)據(jù)中心提供商報告數(shù)據(jù)中心效率和每個位置的能源供應清潔度,來分析和減少他們的能源使用和碳足跡。
工程師應該在最環(huán)保的數(shù)據(jù)中心中最快的處理器上訓練模型,這些數(shù)據(jù)中心越來越多地在云上。
機器學習的研究人員應該專注于設(shè)計更有效的模型,如:利用稀疏性或包括檢索來減少模型。
此外,他們應該報告他們的能源消耗和碳影響。這不僅會鼓勵超越模型質(zhì)量的競爭,而且還可以確保對他們的工作進行正確的核算。 本`文@內(nèi)-容-來-自;中^國_碳0排0放^交-易=網(wǎng) ta n pa i fa ng . co m
【版權(quán)聲明】本網(wǎng)為公益類網(wǎng)站,本網(wǎng)站刊載的所有內(nèi)容,均已署名來源和作者,僅供訪問者個人學習、研究或欣賞之用,如有侵權(quán)請權(quán)利人予以告知,本站將立即做刪除處理(QQ:51999076)。