印度AI实验室Sarvam在当地时间2月18日的人工智能影响力峰会上发布了两款最新的MoE架构大语言模型。这两款模型将在Hugging Face上以开源权重的形式提供,并计划随后推出API访问和仪表盘支持。

较小的型号采用30B-A1B设计,预训练数据集规模达16T,支持32K上下文窗口,适用于低延迟的实时应用场景。较大的型号则采用105B-A9B设计,支持128K上下文窗口,面向更复杂的应用需求。

Sarvam表示,其105B-A9B模型在本地化的印度语言基准测试中表现优于谷歌Gemini 2.5 Flash等竞争对手。对于更广泛的工作负载,该模型在大多数基准测试中优于DeepSeek R1,在许多基准测试中优于谷歌Gemini Flash。