Meta 推出 CATransformers 框架 節(jié)能減排降低總碳足跡
5月15日,有媒體報道Meta AI 旗下 FAIR 團隊攜手佐治亞理工學(xué)院,合作開發(fā) CATransformers 框架,將碳排放作為核心設(shè)計考量,通過聯(lián)合優(yōu)化模型架構(gòu)與硬件性能,顯著降低總碳足跡,為可持續(xù) AI 發(fā)展邁出重要一步。
機器學(xué)習(xí)技術(shù)的普及推動了從推薦系統(tǒng)到自動駕駛的革新,但其環(huán)境代價不容小覷。這些系統(tǒng)需要強大計算資源,常依賴定制硬件加速器運行,訓(xùn)練和推理階段的高能耗直接導(dǎo)致運營碳排放攀升。此外,硬件從制造到報廢的全生命周期也產(chǎn)生“隱含碳”,加劇生態(tài)負(fù)擔(dān)。隨著全球各行業(yè)加速采用 AI 技術(shù),解決運營與隱含碳的雙重來源成為迫切需求。
當(dāng)前減排方法主要集中于提升運營效率,例如優(yōu)化訓(xùn)練和推理的能耗,或提高硬件利用率。但這些方法往往忽略硬件設(shè)計和制造階段的碳排放,未能整合模型設(shè)計與硬件效率的相互影響。Meta 的 FAIR 團隊與佐治亞理工學(xué)院聯(lián)合推出的 CATransformers 框架,將碳排放納入核心設(shè)計考量。該框架通過多目標(biāo)貝葉斯優(yōu)化引擎,聯(lián)合評估模型架構(gòu)與硬件加速器的性能,平衡延遲、能耗、精度和總碳足跡。
特別針對邊緣推理設(shè)備,CATransformers 通過剪枝大型 CLIP 模型生成變體,并結(jié)合硬件估算工具分析碳排放與性能。其成果 CarbonCLIP-S 與 TinyCLIP-39M 精度相當(dāng),但碳排放降低 17%,延遲控制在 15 毫秒內(nèi);CarbonCLIP-XS 則比 TinyCLIP-8M 精度提升 8%,碳排放減少 3%,延遲低于 10 毫秒。
研究顯示,單純優(yōu)化延遲的設(shè)計可能導(dǎo)致隱含碳增加高達 2.4 倍,而綜合優(yōu)化碳排放與延遲的策略可實現(xiàn) 19-20% 的總排放削減,且延遲損失極小。CATransformers 通過嵌入環(huán)境指標(biāo),為可持續(xù)機器學(xué)習(xí)系統(tǒng)設(shè)計奠定基礎(chǔ)。這表明,AI 開發(fā)若從一開始就結(jié)合硬件能力與碳影響考量,可實現(xiàn)性能與可持續(xù)性的雙贏。隨著 AI 規(guī)模持續(xù)擴大,該框架為行業(yè)提供了切實可行的減排路徑。