阿里: 開源Qwen3-Embedding Qwen3-Reranker系列模型
一、Qwen3-Embedding 系列模型介紹
二、Qwen3-Reranker 系列模型介紹
三、Qwen3-Embedding 和 Qwen3-Reranker 的優勢
6 月 6 日凌晨,阿里巴巴開源了 Qwen3-Embedding 系列模型,包括 Embedding(文本表征)和 Reranker(排序)兩個模塊,旨在為文本檢索、語義匹配等任務提供強大支持。該系列模型基于 Qwen3 基礎模型進行訓練,在多項基準測試中展現出卓越性能,尤其在多語言支持方面達到行業領先水平。
官方數據顯示,Qwen3-Embedding 系列在多語言文本表征任務中表現出色:其中,8B 參數版本在權威評測 MTEB(Massive Text Embedding Benchmark)多語言榜單中位居榜首,得分高達 70.58,超越了多家商業 API 服務。而 Reranker 排序模型則在文本檢索任務中顯著提升了結果的相關性,特別適用于搜索、推薦等實際場景。
這一系列模型提供了 0.6B、4B、8B 三種不同參數規模的選擇,開發者可以根據自身算力需求進行靈活配置。此次開源延續了阿里通義千問(Qwen)系列的技術路線。
目前,該系列模型已在 Hugging Face、ModelScope 和 GitHub 平臺開源,用戶也可以直接使用阿里云百煉平臺提供的最新文本向量模型服務。
一、Qwen3-Embedding 系列模型介紹
Qwen3-Embedding 系列專為文本向量化(Embedding)任務設計,能夠將文本(包括自然語言和編程語言)轉化為高維向量,從而捕捉其中的語義信息。該系列包含以下三個不同參數規模的模型,以適應不同的應用場景:
- Qwen3-Embedding-0.6B:輕量級模型,適用于資源受限的場景,如移動設備或邊緣計算。
- Qwen3-Embedding-4B:在性能與效率之間取得良好平衡,適合大多數企業級應用。
- Qwen3-Embedding-8B:高性能版本,針對復雜任務表現最佳。
這些模型基于 Qwen3 的 Transformer 架構,支持最大 8192 個 token 的輸入長度,非常適合長文本處理。根據 Hugging Face 的介紹,該模型在文本檢索、代碼檢索、分類、聚類和雙文本挖掘等任務中表現出色,尤其是在多語言場景下優勢明顯。
具體而言,該系列模型具備以下特性:
- 跨語言檢索:通過統一的向量空間,模型能夠實現跨語言語義匹配。
- 代碼檢索:在 MTEB-Code 評測中,Qwen3-Embedding 表現優異,能夠根據自然語言描述檢索代碼片段,特別適合開發者在代碼補全、搜索等場景中使用。
- 靈活性:支持用戶自定義指令(Instruction),開發者可以根據具體任務調整輸入格式,從而提升 1%-5% 的檢索性能。
- 高效推理:支持 Flash Attention 2 技術,能夠降低內存占用,提升推理速度,適合大規模部署。
Hugging Face 數據顯示,截至 2025 年 6 月 5 日,Qwen3-Embedding-8B 在 MTEB 多語言排行榜上以 70.58 分的成績位居第一,超越了 BGE 等競爭對手。
二、Qwen3-Reranker 系列模型介紹
Qwen3-Reranker 系列是與 Qwen3-Embedding 配套的排序模型,主要用于優化初次檢索結果的相關性。該系列模型采用跨編碼器(Cross-Encoder)架構,輸入查詢和文檔對,并輸出相關性得分。其具備以下優勢:
- 高精度排序:通過深度語義分析,Qwen3-Reranker 能夠捕捉查詢和文檔之間的細微相關性,顯著提升排序質量。
- 高效推理:優化后的推理速度,結合阿里云 DashVector 服務,能夠實現低延遲、高吞吐量。
- 用戶自定義:同樣支持自定義指令,開發者可以根據任務調整輸入格式,提升排序效果。
Hugging Face 數據表明,Qwen3-Reranker 在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等檢索子集評測中表現出色。基于 Qwen3-Embedding-0.6B 召回的 Top-100 候選結果進行排序,能夠顯著提高結果的相關性。
三、Qwen3-Embedding 和 Qwen3-Reranker 的優勢
與 BGE(智源)、Sentence-BERT 等模型相比,Qwen3-Embedding 和 Qwen3-Reranker 具備以下優勢:
- 性能優勢:Qwen3-Embedding-8B 在 MTEB 多語言排行榜上得分 70.58,領先于 BGE。此外,阿里還開源了 GTE 系列模型(如 gte-multilingual-reranker-base),該系列采用更輕量的 ModernBERT 架構,支持 70 + 語言,推理速度提升 10 倍,但由于參數規模較小,性能稍遜于 Qwen3 系列。
- 應用優勢:在檢索增強生成(RAG)場景中,Qwen3-Embedding 負責生成查詢和文檔的向量表示,Qwen3-Reranker 則用于優化排序結果。此外,Qwen3-Embedding 生成的向量表示還可以用于分析用戶評論的情感傾向,幫助企業優化客戶服務。
Qwen3-Embedding 和 Qwen3-Reranker 模型在文本檢索和語義匹配任務中展現出了卓越的性能和多語言支持能力,為開發者和企業提供了有力的支持。
本文轉載自??鴻煊的學習筆記??,作者:乘風破浪jxj
