成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一條磁力鏈接席卷AI圈,87GB種子直接開源8x7B MoE模型

人工智能 新聞
專家混合 (MoE) 是 LLM 中常用的一種技術,旨在提高其效率和準確性。這種方法的工作原理是將復雜的任務劃分為更小、更易于管理的子任務,每個子任務都由專門的迷你模型或「專家」處理。

「高端」的開源,往往采用最樸素的發布方式。

昨天,Mistral AI 在 X 平臺甩出一條磁力鏈接,宣布了新的開源動作。

圖片

沒有長篇官方博客,沒有刻意加速的 Demo,這家公司算是當下大模型領域的「一股清流」。

打開一看,發現是接近 87 GB 的種子:

圖片

參數配置什么樣?很多人放棄了周末,第一時間下載運行起來。

看上去,Mistral 8x7B 使用了與 GPT-4 非常相似的架構,但是「縮小版」: 

  • 8 個專家總數,而不是 16 名(減少一半) 
  • 每個專家為 7B 參數,而不是 166B(減少 24 倍)
  • 42B 總參數(估計)而不是 1.8T(減少 42 倍)
  • 與原始 GPT-4 相同的 32K 上下文

在發布后 24 小時內,已經有開發者做出了在線體驗網站:https://replicate.com/nateraw/mixtral-8x7b-32kseqlen

有研究者稱:「閉源大模型走到結局了。」

圖片

這周已經引發群嘲的谷歌,也再次被 Cue 到:

圖片

專家混合 (MoE) 是 LLM 中常用的一種技術,旨在提高其效率和準確性。這種方法的工作原理是將復雜的任務劃分為更小、更易于管理的子任務,每個子任務都由專門的迷你模型或「專家」處理。

具體來說,「專家層」是較小的神經網絡,經過訓練在特定領域具有高技能,每個專家處理相同的輸入,但處理方式與其特定的專業相一致;「門控網絡」是 MoE 架構的決策者,能評估哪位專家最適合給定的輸入數據。網絡計算輸入與每個專家之間的兼容性分數,然后使用這些分數來確定每個專家在任務中的參與程度。

我們都知道,OpenAI 團隊一直對 GPT-4 的參數量和訓練細節守口如瓶。早些時候,有人爆料 GPT-4 是采用了由 8 個專家模型組成的集成系統。后來又有傳聞稱,ChatGPT 也只是百億參數級的模型(大概在 200 億左右)。

傳聞無從證明,但 Mistral 8x7B 可能提供了一種「非常接近 GPT-4」的開源選項。從模型元數據中可以看出,對于每個 token 的推理,Mistral 8x7B 僅使用 2 個專家。

更讓人感覺有趣的是,這是該公司官方賬號自開通以來發布的第三條內容,兩次重要發布均無文字說明,配圖什么的更是不存在:

圖片

9 月底的那條鏈接發布的是 Mistral 7B,該模型至今仍被稱為「最好的 7B 模型」,在每個基準測試中都優于 Llama-2 13B,并且在代碼、數學和推理方面優于 LLaMA-1 34B。

Mistral AI 成立于 2023 年 5 月,是一家法國人工智能初創公司,也是為數不多來自歐洲的大模型開源領域的明星團隊。

Mistral AI 曾在 6 月獲得了創紀錄的 1.18 億美元種子輪融資,還是在僅有 7 頁 PPT 的情況下,據說這是歐洲歷史上最大的種子輪融資。

圖片

Mistral AI 團隊成員。

公司創始人之一 Arthur Mensch 曾在 10 月份向《金融時報》表示,Mistral AI 的技術比美國的一些強大競爭對手開發的技術更高效、成本更低。

技術實力的優越,也為這家公司帶來了投資者的持續關注。

近日,《金融時報》報道了 Mistral AI 新一輪融資的動態:新一輪融資約 4 億歐元,主要由股權組成,可能在下周官宣。目前,公司的最新估值在 20 億歐元左右。

知情人士透露,新一輪融資由硅谷著名風投 Andreessen Horowitz 牽頭,其他參與者還包括英偉達、Salesforce、General Catalyst、法國巴黎銀行等。

Mistral AI 的其他投資者還包括谷歌前 CEO 埃里克?施密特 (Eric Schmidt)、法國電信億萬富翁澤維爾?尼爾 (Xavier Niel) 和法國國家支持的投資銀行 Bpifrance。

這篇報道還提到,Arthur Mensch 表示「雖然公司尚未賺到任何錢,但預計這種情況將在年底前發生改變,因為該公司準備了一個新平臺,供客戶訪問其人工智能模型。」

參考鏈接:https://www.ft.com/content/ea29ddf8-91cb-45e8-86a0-f501ab7ad9bb

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-04-10 13:37:05

2024-01-16 12:10:33

模型數據

2023-12-11 19:16:25

2024-01-10 17:10:53

數據訓練

2024-01-02 09:55:26

AI模型

2024-09-12 14:19:59

2019-11-06 15:16:12

16GB8GB內存

2023-12-12 13:16:00

模型訓練

2025-04-14 00:30:00

2024-09-05 14:25:00

訓練代碼

2024-01-12 17:25:45

MoE模型開源人工智能

2020-07-15 09:29:23

Python開發工具

2025-02-17 03:00:00

LLMsMoELLM

2025-03-11 00:22:00

DeepSeekAI圖片

2023-12-09 13:32:21

GPT-4MoE架構開源大模型

2018-07-30 11:03:08

4GB內存8GB

2024-01-19 12:51:00

AI數據

2022-05-25 08:01:37

WHERESQL 語句
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产在线网址 | 精品综合视频 | 国产精品久久免费观看 | 国产亚洲一区二区精品 | 久久国内 | 久草久草久草 | 久久久久亚洲av毛片大全 | 国产一区二区久久 | 999精彩视频| 亚洲精品一 | 国产成人精品久久 | 亚洲www啪成人一区二区麻豆 | 免费99精品国产自在在线 | 亚洲一区二区三区免费在线观看 | 自拍偷拍亚洲一区 | 精品少妇一区二区三区在线播放 | 日韩三级一区 | 夜夜精品视频 | 久久亚洲国产精品 | 中文日本在线 | 国产精品成人一区二区三区 | 五月天婷婷狠狠 | 日韩精品在线一区 | 中文字幕精品一区二区三区在线 | 又爽又黄axxx片免费观看 | 激情免费视频 | 日韩精品一区二区三区 | 国产精品国产三级国产aⅴ入口 | 日日日视频 | 视频一区在线播放 | 日韩欧美在线视频一区 | 久久亚洲一区二区三区四区 | 二区三区av | 欧洲尺码日本国产精品 | 精品国产一区二区三区在线观看 | 四虎影视免费在线 | 午夜精品久久久久久久久久久久久 | 一区二区在线免费观看 | 欧美日韩亚洲国产 | 午夜av电影 | 午夜www|