超强!阿里开源 Qwen3 Embedding 系列模型,多语言文本嵌入与重排的新标杆
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
前两天阿里通义实验室重磅开源了Qwen3-Embedding系列模型,不仅提供了文本嵌入Embedding模型,还提供了重排Reranker模型。作为千问家族的最新成员,这个系列在MMTEB、MTEB及MTEB-Code三大权威评测中全面达到SOTA性能,并且支持多达119种语言处理任务,每个类别还提供了0. 6B/4B/8B多参数版本。Qwen3Embedding系列模型目前已经在HuggingFace和ModelScope开源,并支持阿里云百炼平台API一键调用,可高效赋能智能搜索系统、跨语言RAG应用、多语言聊天助手、代码语义检索等AI核心应用场景。
Qwen3Embedding系列模型发布后,全球技术爱好者迅速跟进,推上Xenova还放了一个Qwen3-Embedding可视化Demo:
https ://huggingface. co/spaces/webml-community/qwen3-embedding-webgpu
嵌入模型(将文本转化为稠密向量)和重排模型(对检索结果进行精细化排序)是大模型时代信息检索、RAG和Agent系统的核心技术。以我比较熟悉的Qanything的架构为例:
它采用的是“初筛+精排”两阶段架构:
初筛阶段:嵌入模型(Embedding)快速扫描海量数据,锁定潜在相关结果
精排阶段:重排模型(Reranker)对候选结果深度分析,优化排序精度
为何需要两阶段?随着知识库不断增大,单靠嵌入模型检索会出现明显问题:
📉精度衰减:数据量越大,检索结果相关性越不稳定(如图绿线所示)
⚖️排序失准:粗筛难以区分相似内容的细微差异
加入重排模块后实现关键突破:
🔍精度补偿:精排阶段修正初筛误差
📈规模增益:知识库越庞大,系统整体准确率越高(真正实现“数据越多,效果越好”)
Qwen3Embedding和Reranker系列模型都很能打,我已经准备尝试在RAG系统中替换这两大模块了,以下我们来看看Qwen3Embedding系列模型的核心亮点。
MTEB多语言榜单全球第一:Qwen3-Embedding-8B以70. 58分登顶(截至2025. 6.5)
代码检索碾压优势:MTEB-Code基准得分80. 68(较Gemini提升8. 1%)
轻量化突破:0. 6B模型在中文CMTEB任务上也达64.33分,越级超过gte-Qwen2-7B-instruct-7B模型
1. 5亿合成数据对
跳过
700万标注数据+
1200万精选合成数据
高质量标注数据
球面线性插值
球面线性插值
2. 关键创新点
使用Qwen3-32B生成1. 5亿多任务、多语言文本对。
通过角色扮演(从PersonaHub选角色)和多维控制(任务类型、语言、长度、难度)提升数据多样性和真实性。
示例:为文档生成“PhD难度+角色+总结型问题”的查询。
用余弦相似度>0. 7过滤合成数据,得到1200万高质量子集用于SFT。
合并训练过程中多个检查点,显著提升模型鲁棒性和泛化能力(消融实验显示性能提升1. 77分)。
Qwen3-Embedding系列不是“一刀切”的解决方案。它提供从0. 6B到8B的3种参数规模,满足从边缘设备到大型云服务的不同部署需求:
表征维度自定义:用户可根据实际场景调整嵌入维度,显著节省存储和计算成本;
指令适配优化:支持自定义指令模板,提升特定任务、语言或场景下的表现;
模块化组合:开发者可灵活组合嵌入(Embedding)与重排(Reranker)模块,轻松实现功能扩展。
Qwen3-Embedding系列支持119种语言和方言,涵盖全球主流自然语言及多种编程语言(如Python、Java、C++等)。它不仅具备强大的多语言理解能力,更拥有跨语言语义对齐能力,真正实现:
多语言文档的语义统一表达
跨语言检索与问答
多语言知识图谱构建
混合代码与文本的联合搜索
无论用户来自欧洲、亚洲、非洲还是美洲,Qwen3-Embedding都能无缝处理其语言数据,助力企业构建真正“全球化”的智能应用。
🔬实测Qwen3-Embedding&Qwen3-Reranker
说了这么多,我还想上手体验一下开源的Qwen3Embedding系列模型,用的是千问官方Github上的例子:
https ://github. com/QwenLM/Qwen3-Embedding
用的是最小的0. 6B模型,简单修改了一下代码,这样可以直接从ModelScope上下载模型并运行。
这是修改后的qwen3_embedding_transformers. py代码:
运行后结果如下:
这是qwen3_reranker_transformers. py代码,修改逻辑如上:
运行结果如下:
scores[0. 998421311378479,0. 9987399578094482]
写在最后
Qwen3Embedding系列模型发布后,由于Embedding和Reranker模型的SOTA性能、出色的泛化能力、灵活的架构配置和超多语言的支持,技术社区最大的呼声就是赶紧支持和适配其他知名开源框架,以应用于相关业务:
期待阿里通义千问团队快速跟进,给大家答疑解惑,让技术社区赶紧把这两个好东西用起来!
进技术交流群请添加AINLP小助手微信(id:ainlp2)
请备注具体方向+所用到的相关技术点
关于AINLP
AINLP是一个有趣有AI的自然语言处理社区,专注于AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括LLM、预训练模型、自动生成、文本摘要、智能问答、聊天机器人、机器翻译、知识图谱、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLP小助手微信(id:ainlp2),备注工作/研究方向+加群目的。