AI三大核心要素是數據、算法和算力,而算力的發展是最為迅速的一環。2020年OpenAI就發布分析報告,從2012年開始,AI訓練所用的計算量呈現指數增長,平均每3.43個月便會翻倍,遠高于摩爾定律的18個月翻倍的速度。大模型正是在這一背景下誕生的。依托飛速發展的算力,簡單粗暴地堆砌參數是提升模型能效的捷徑。機器學習先驅Richard S. Sutton著名的文章《苦澀的教訓》里開篇就曾說道:“70年的
人工智能研究史告訴我們,充分利用計算能力的一般方法最終是最有效的方法。”OpenAI秉承這一簡單甚至原始的理念,3年內將模型參數從15億(在當時這已經是一個天文數字)提高到1750億,足足拉高了116倍。
參數的爆炸式增長帶來的直接后果就是模型成本的指數級上升。2019年以前,人工智能還是個百家爭鳴的大眾賽道,而大模型帶來的投入成本門檻迅速把這個賽道變成了資本聚集、大廠統治的游戲。據業界估計,GPT-3僅訓練一次的費用就高達500萬美元,行業估計GPT-4的研發加運營成本突破數億美元。
在如此高昂的成本之下,AI如何商業化落地成為業界難題。盡管GPT-4已經表現出了較高的智能化水平,但其局限性也很明顯。支持大規模商業化應用所需要的是GPT-X,即模型的場景化和快速更新。面對極度高昂的訓練成本,難以形成充分的市場化競爭,類似OpenAI這樣的市場寡頭也面臨投入成本邊際效應遞減嚴重的問題,缺乏持續研發迭代的經濟激勵。這正是Altman所說的“大模型已至終局”而前路未知的根本原因。
版權申明:本內容來自于互聯網,屬第三方匯集推薦平臺。本文的版權歸原作者所有,文章言論不代表鏈門戶的觀點,鏈門戶不承擔任何法律責任。如有侵權請聯系QQ:3341927519進行反饋。