馬斯克大模型Grok1.5來了:推理能力大升級,支持128k上下文
Grok 1 開源才剛有 10 天,Grok 1.5 就來了。
本周五早上,馬斯克旗下的人工智能公司 xAI 正式推出了 Gork 大模型的最新版本 Grok-1.5。新一代模型實現(xiàn)了長上下文理解和高級推理能力,計劃將在未來幾天內(nèi)向早期測試人員和 X 平臺(前 Twitter)上的現(xiàn)有 Grok 用戶提供。
上周一,馬斯克剛剛開源了 3140 億參數(shù)的混合專家(MoE)模型 Grok-1。通過開源 Grok-1 的模型權(quán)重和網(wǎng)絡(luò)架構(gòu),Gork 項目已展示了 xAI 截至去年 11 月所取得的進(jìn)展。在最新模型 Grok-1.5 中,Gork 又有了進(jìn)一步提高。
能力與推理
Grok-1.5 最明顯的改進(jìn)之一是其在代碼和數(shù)學(xué)相關(guān)任務(wù)中的性能。在 xAI 的測試中,Grok-1.5 在 MATH 基準(zhǔn)上取得了 50.6% 的成績,在 GSM8K 基準(zhǔn)上取得了 90% 的成績,這兩個數(shù)學(xué)基準(zhǔn)涵蓋了廣泛的小學(xué)到高中的競賽問題。
此外,它在評估代碼生成和解決問題能力的 HumanEval 基準(zhǔn)測試中得分為 74.1%。
還記得昨天 Databricks 開源的通用大模型 DBRX 嗎?當(dāng)時的對比圖表如下所示,看起來新版本 Grok 的提升是顯著的。
就是不知這個大幅升級的 1.5 版會在什么時候開源?
長上下文理解
Grok-1.5 中的另一個重要升級是在其上下文窗口內(nèi)可以處理多達(dá) 128K token 的長上下文。這使得 Grok 的容量增加到之前上下文長度的 16 倍,從而能夠利用更長文檔中的信息。
此外,該模型可以處理更長、更復(fù)雜的提示(prompt),同時在上下文窗口擴(kuò)展時仍然能保持其指令跟蹤能力。在大海撈針(NIAH)評估中,Grok-1.5 展示了強(qiáng)大的檢索能力,可以在長度高達(dá) 128K token 的上下文中嵌入文本,實現(xiàn)完美的檢索結(jié)果。
訓(xùn)練 Grok-1.5 的基礎(chǔ)設(shè)施
xAI 進(jìn)一步介紹了用于訓(xùn)練模型的算力設(shè)施。在大規(guī)模 GPU 集群上運行的先進(jìn)大型語言模型(LLM)研究需要強(qiáng)大而靈活的基礎(chǔ)設(shè)施。Grok-1.5 構(gòu)建在基于 JAX、Rust 和 Kubernetes 的自定義分布式訓(xùn)練框架之上。該訓(xùn)練堆棧允許開發(fā)團(tuán)隊能夠以最小的精力構(gòu)建想法原型并大規(guī)模訓(xùn)練新架構(gòu)。
在大型計算集群上訓(xùn)練 LLM 的主要挑戰(zhàn)是最大限度提高訓(xùn)練作業(yè)的可靠性和正常運行時間。xAI 提出的自定義訓(xùn)練協(xié)調(diào)器可確保自動檢測到有問題的節(jié)點,并將其從訓(xùn)練作業(yè)中剔除。工程師還優(yōu)化了檢查點、數(shù)據(jù)加載和訓(xùn)練作業(yè)重新啟動等問題,以最大限度地減少發(fā)生故障時的停機(jī)時間。
展望
為了尋求替代微軟支持的 OpenAI 和 Google 大模型的解決方案,馬斯克去年推推動了 AI 創(chuàng)業(yè)公司 xAI,以創(chuàng)建他所說的「最大程度尋求真相的人工智能」 。去年 12 月,這家初創(chuàng)公司為 X 的 Premium+ 訂閱者推出了 Grok。
xAI 表示,Grok-1.5 很快就會向早期測試者開放,其團(tuán)隊將繼續(xù)改進(jìn) Grok。隨著新版本推向公眾,在未來幾天 X 上的大模型將陸續(xù)推出一些新功能。