仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
微软在官网宣布,在AzureAIFoundry上线了Cohere的Embed4和CommandA两款新模型,主要用于增强RAG以及AIAgent。
Embed4是一个多模态嵌入模型,支持超过100种语言。能够将多种语言的查询和文档编码到同一向量空间中,从而实现开箱即用的跨语言搜索。例如,用一个用西班牙语提出的问题可以检索出语义上与之对齐的原始英文相关文档。
Embed4不仅能够嵌入文本,还能嵌入图像,可用于多模态搜索场景,例如对文本内容和图像进行索引,并允许跨它们进行查询。该模型还具备嵌套表示学习功能,生成可以截断到更小尺寸的嵌入,同时几乎不会损失保真度。这意味着用户可以根据需要选择不同维度的向量,以平衡精度与存储/查询速度。
此外,Cohere对Embed4进行了生产使用的优化,支持int8量化和二进制嵌入输出,显著减少存储占用,并加速相似性搜索。该模型还在大规模数据集上进行了训练,以确保在企业文本噪声环境下表现出色。
CommandA则是Cohere最新发布的旗舰大模型,专为企业场景中的高性能文本生成而设计。CommandA经过指令微调,在多步推理、工具使用和检索增强RAG等复杂任务中表现出色。
支持256Ktoken上下文长度,能够一次性处理极长的输入,而不会失去连贯性。专为企业应用进行了优化,在指令、总结以及尤其是RAG工作流方面表现出色,能够整合检索到的上下文,并引用来源以减少幻觉。
此外,CommandA支持开箱即用的工具调用(函数调用),可以作为AzureAIAgent的一部分与外部API或数据源进行交互。
在多语言用例方面表现出色,涵盖所有主要商业语言,在日语、韩语和德语方面的表现接近领先水平。尽管其规模庞大,但CommandA的设计注重效率,与前身相比,其吞吐量提高了150%,并且仅需2块A100/H100GPU即可运行,这意味着更低的延迟。还支持流式token输出,应用程序可以在生成响应时就开始接收,从而保持交互的低延迟。
目前,Embed4和CommandA已经与AzureAI中的AIAgent完成了集成,只需按名称引用已部署模型即可,将其作为智能体推理的大模型。
下面这些是使用Embed4和CommandA的实际应用案例。
例如,在金融领域,用户可以将数千页的财务文件、收益电话会议记录和市场研究报告输入向量存储库。使用Embed4对这些文本进行嵌入和索引后,当分析师询问“ACME公司2025年第一季度报告中提到了哪些关键收入驱动因素?”时,可以使用查询嵌入来检索最相关的段落。然后通过CommandA将这些段落作为输入,生成简洁的总结或带引文的答案。
在法律领域,一家跨国律师事务所可以利用Embed4对包含多种语言法律文件的庞大文档库进行索引,创建多语言嵌入。当律师研究与德国并购相关的特定法律先例时,可以用英语提问,Embed4检索相关的德语文档,CommandA总结关键要点,翻译摘录内容,并比较不同司法管辖区的法律论点。
CommandA还可以利用工具调用从外部数据库检索额外信息,例如,公司注册详情和监管文件,并将这些数据整合到其分析中,以提供全面的报告。
本文素材来源微软,如有侵权请联系删除
END