OpenAI最早的語言模式是GPT-2,于2019年公布,發布時就有 15億參數,此后隨著OpenAI研究人員發現擴大模型參數數量能有效提升模型完善程度,真正引爆AI行業浪潮的GPT-3.5發布時,參數數量已經達到了1750億。但人類互聯網歷史上被保留下來的各種高質量語料,已經在 GPT-3以及后續發布的GPT-4的學習中被消耗殆盡。大模型參數數量仍然可以繼續膨脹下去,但對應數量的高質量數據卻越來越稀缺,因此增長參數數量帶來的邊際效益愈發降低。
版權申明:本內容來自于互聯網,屬第三方匯集推薦平臺。本文的版權歸原作者所有,文章言論不代表鏈門戶的觀點,鏈門戶不承擔任何法律責任。如有侵權請聯系QQ:3341927519進行反饋。