成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

單張A100全精度推理!谷歌明星開源模型Gemma 2上新9B/27B,挑戰3140億Grok-1

人工智能 新聞
昨晚,谷歌正式開源了自家最強的開源模型Gemma 2,直指為全球范圍研究開發者提供實用部署工具。

就在昨晚,谷歌的明星開源大模型系列,又迎來兩位新成員——Gemma 2 9B和Gemma 2 27B!

圖片

四個月前谷歌宣布重磅開源Gemma,四個月后Gemma 2上線,專門面向研究和開發人員。

目前,模型權重已經在HuggingFace上公開。

圖片

項目地址:https://huggingface.co/collections/google/gemma-2-release-667d6600fd5220e7b967f315

Gemma 2的核心亮點概括來說就是:參數雖小但性能極佳。

而且,27B模型甚至可在單張谷歌云TPU、英偉達A100 80GB GPU或英偉達H100 GPU上,以全精度高效運行推理。

圖片

高效新模型的誕生

Gemma 2在設計的架構上均有創新,旨在實現卓越的性能和提高推理效率。

在技術報告中,Gemma 2最引人注目的三大創新優勢在于:

首先,性能遠超同同等規模模型。

Gemma 2 27B在同類產品中性能最佳,甚至能挑戰規模更大的模型。

Gemma 2 9B的性能在同類產品中也處于領先地位,超過了Llama 3 8B和其他同規模的開源模型。

圖片

與其他大模型在Lmsys同場競技,同等規模模型中Gemma 2的性能「一覽眾山小」。

其次,超高效率,節約成本。

27B模型可用于在單個谷歌Claude TPU主機或NIVIDIA H100 GPU上以全精度高效運行推理,從而在保持高性能的同時大幅降低成本。

用較小的模型規模能夠在更廣泛的硬件上部署,對于開發者和研究人員帶來許多便利。

最后,能夠跨硬件快速推理。

Gemma 2經過優化,可在各種硬件上以驚人的速度運行。

比如在Google AI Studio中嘗試全精度的Gemma 2,在CPU上使用量化版本 Gemma.cpp解鎖本地性能,或通過 Hugging Face Transformers庫在配備英偉達RTX或GeForce RTX的家用電腦上,均可使用。

圖片

高效的源頭:架構創新

Gemma是谷歌團隊推出的一系列輕量級、先進的開源模型,基于與Gemini模型相同的研究和技術構建的文本生成解碼器大型語言模型。

Gemma 2訓練數據量大約是第一代的兩倍,并沿用了上一代的基本架構,但進行了全方位的改良。

局部滑動窗口和全局注意力

Gemma 2交替使用局部滑動窗口注意力和全局注意力層級進行切換,局部注意力層的滑動窗口大小設置為4096個token,而全局注意力層的設置為8192個token。

在正確捕捉文本細節的同時,又能保持對上下文和全局的正確理解。

Logit軟上限

按照Gemini 1.5版,Gemma對每個注意層和最終層的logit進行軟封頂。

通過將logits設置在一個合理的固定范圍內,可以有效提升訓練的穩定性,防止內容過長。

使用RMSNorm進行前后歸一化

為了使訓練更加穩定,Gemma 2運用了RMSNorm對每個轉換層、注意層和反饋層的輸入和輸出進行歸一化。

這一步和Logit軟上限都使得模型訓練更穩定平滑,不易出現崩潰。

分組查詢注意力

GQA通過對于注意力分組,將算力用于一組注意力的組內。

在計算時顯示出更快的數據處理速度,同時還能保持下游性能。

知識蒸餾

傳統訓練大語言模型的方法主要是根據上一個Token,預測下一個Token,需要大量的數據進行訓練。

但是,人類的學習過程并不依賴走量的知識輸入。比如,一位學生由于閱讀原著的需要學習一門外語,他并不需要看遍所有的書籍,只需要以一本書為綱,通過理解后融會貫通。

而知識蒸餾法與人的學習過程更加類似。一個小模型向另一個已經進行過預訓練的大模型學習,通過這種方式助產小模型對于Token的預測。

站在老師模型的肩膀上,學生模型能用較少的訓練數據達到更好的效果。

功能強大,實用為先

人工智能有可能解決人類一些最緊迫的問題,但前提是每個人都擁有使用人工智能的工具。

因此,Gemma 2非常注重實用性,輕量級且開源是Gemma 2最核心的兩個關鍵詞。

Gemma 2同樣沿用了Gemma 1的許可證,使開發人員和研究人員能夠共享他們的創新成果并將其商業化。

此外,Gemma 2具有廣泛的框架兼容性。

Gemma 2可通過本地Keras 3.0、vLLM、Gemma.cpp、Llama.cpp與Ollama、Hugging Face Transformers等主要人工智能框架兼容,從而輕松地將 Gemma 2與個人偏好的工具和工作流程結合使用。

從下個月開始,Google Cloud客戶將能夠在Vertex AI上輕松部署和管理Gemma 2。

例如,用戶可以自己探索新的Gemma Cookbook,其中包含一系列實用示例和codebook;也可指導構建自己的應用程序,并針對特定任務微調Gemma 2模型。

因此,Gemma 2對于個人使用非常便利,能夠輕松地將Gemma與各類工具結合使用,包括用于精準檢索等常見任務。

對AI安全性的提升

Gemma 2在實用高效的同時,也從安全角度做出了新舉措。

谷歌提供了「負責任的生成式AI工具包」,LLM Comparator可以讓開發人員和研究人員深入評估語言模型,使用實用工具的同時保證安全部署。

就個人用戶而言,可以使用配套的Python庫對模型和數據運行比較評估,并在應用程序中將結果可視化。

另外,在訓練Gemma 2時,預訓練數據都經過了嚴格的篩選,并根據一套安全指標進行嚴格的測試和評估,以識別并降低潛在的偏差和風險。

可以看出,AI安全在成為越來越多人關注的問題后,谷歌著重平衡了智力進展和安全保障。希望在后續的網友測評中,不會再出現Gemini 1.5 Pro的翻車案例了。

圖片

打造史上「最親民」大模型

Gemma首次推出后,下載量超過1000萬次。

全球各地都使用Gemma制作項目。例如,Navarasa利用Gemma創建了一個植根于印度語言多樣性的模式。

Gemma 2目前可以在Google AI Studio中使用,在Gemma 27B下測試其全部性能,而無需硬件要求。

此外,為方便研發人員使用,Gemma 2還可通過Kaggle或谷歌Colab免費獲取。


責任編輯:張燕妮 來源: 新智元
相關推薦

2025-03-13 09:12:35

2024-03-25 13:04:00

AI模型

2024-03-18 08:47:34

馬斯克GrokOpenAI

2024-07-02 09:20:59

2024-02-22 10:09:00

開源模型

2024-02-29 13:54:00

數據訓練

2024-03-18 10:17:00

開源AI

2025-06-27 10:08:19

2024-02-22 09:30:15

Gemma開源模型谷歌

2024-02-22 16:19:20

2024-03-18 15:00:48

Grok現已開源Grok-1混合專家模型

2024-09-05 14:25:00

訓練代碼

2023-12-13 13:29:00

數據訓練

2025-03-13 06:34:49

2025-03-10 07:00:00

阿里開源QwQ-32B

2025-03-27 10:28:32

2024-03-28 12:53:00

AI數據

2024-03-19 14:00:59

2024-07-08 08:50:00

2024-11-14 14:57:40

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日日摸夜夜添夜夜添精品视频 | 欧美色成人 | 嫩草黄色影院 | 亚洲综合色视频在线观看 | 91福利在线导航 | 久久综合一区二区三区 | 天天干天天想 | 亚洲成年人免费网站 | 性色视频 | 亚洲成人一区 | 日本午夜免费福利视频 | 欧美精品三区 | 亚洲一区二区三区四区五区午夜 | 久久久久国产精品 | 91久久国产综合久久 | 成人18亚洲xxoo | 国产一区二区精品在线 | www.日本国产| av激情在线| 久久久久国产一区二区 | 中文字幕在线一区 | 夜夜爆操 | 麻豆一区二区三区精品视频 | 国产日韩欧美在线 | 狠狠色狠狠色综合日日92 | 成人妇女免费播放久久久 | 亚洲午夜电影 | 欧美不卡网站 | 成人久久久久 | 亚洲人va欧美va人人爽 | 欧美在线色视频 | 亚洲综合久久久 | 成人在线视频免费观看 | 精品国产乱码久久久久久88av | 国产精品久久久久久久久久免费 | 精品亚洲一区二区 | 日韩精品 | 91精品久久久久久久久久小网站 | 成人国产午夜在线观看 | 久久久成人精品 | 国产蜜臀97一区二区三区 |