2026-02-22 08:55:00

宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

摘要
印度AI实验室Sarvam在当地时间2月18日的人工智能影响力峰会上发布了两款最新的MoE架构大语言模型。这两款模型将在Hugging Face上以开源权

印度AI实验室Sarvam在当地时间2月18日的人工智能影响力峰会上发布了两款最新的MoE架构大语言模型。这两款模型将在Hugging Face上以开源权重的形式提供,并计划随后推出API访问和仪表盘支持。

宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

较小的型号采用30B-A1B设计,预训练数据集规模达16T,支持32K上下文窗口,适用于低延迟的实时应用场景。较大的型号则采用105B-A9B设计,支持128K上下文窗口,面向更复杂的应用需求。

宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

Sarvam表示,其105B-A9B模型在本地化的印度语言基准测试中表现优于谷歌Gemini 2.5 Flash等竞争对手。对于更广泛的工作负载,该模型在大多数基准测试中优于DeepSeek R1,在许多基准测试中优于谷歌Gemini Flash。

科技趋势
时事资讯
回顶部