微軟、谷歌和Meta正在投資數十億美元開發生成型
人工智能(AI),如在加州舊金山發布的大語言模型ChatGPT。這些模型具備的特點使得它們比之前的模型更加強大,但也對環境造成了更重的負擔。近日在Nature上發布的一篇短訊文章,提出了一個更可持續的生成型AI開發框架。文章指出復雜度的增加可以讓大型語言模型產生智能文本,但消耗的電力會遠高于之前的版本。根據2022年發貨的AI訓練專用GPU數量,全年總計可能消耗約95億度電力。這一能耗水平約等于一個中等發達國家100萬人口的年度生產和生活用電需求。隨著硬件變得越來越復雜,巨大數據集訓練速度和容量增長的同時,必將推動產生新的
能源需求。因此開發生成型AI時,可以通過調整模型的結構、推廣節能硬件、使用清潔能源和優化AI模型運作方式來減少無效訓練的數量,達到減少
碳排放的效果。
版權申明:本內容來自于互聯網,屬第三方匯集推薦平臺。本文的版權歸原作者所有,文章言論不代表鏈門戶的觀點,鏈門戶不承擔任何法律責任。如有侵權請聯系QQ:3341927519進行反饋。