近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队
Ling-flash-2.0 是一款基于 MoE 架构的大型语言模型,拥有 100 亿参数,并且在激活时仅使用 6.1 亿参数 (非嵌入激活 4.8 亿)。经过 20TB 以上高质量语料的预训练、监督微调和多阶段强化学习,该模型在激活 6 亿以上参数的情况下,展现出了媲美 40 亿参数 Dense 模型的卓越性能。
Ling-flash-2.0 在复杂推理、代码生成和前端研发等领域表现出色,能够支持
Ling-flash-2.0 在性能上具有明显优势。与 40 亿参数以下的 Dense 模型 (如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct) 以及更大激活参数的 MoE 模型 (如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low) 相比,Ling-flash-2.0 展现了更强的复杂推理能力。尤其在创作类任务中,该模型同样具有很强的竞争力。
此外,Ling-flash-2.0 的架构经过精心设计,能够实现极速推理。在 LingScalingLaws 的指导下,Ling2.0 采用了 1/32 激活比例的 MoE 架构,并在多个细节上进行了优化,这使得小激活的 MoE 模型能够获得相当于 Dense 架构的性能优势。通过 H20 进行部署时,Ling-flash-2.0 的输出速度可达到每秒 200 多个 Token,相比 36B 的 Dense 模型提升了 3 倍以上的速度。
硅基流动平台致力于为开发者提供快速、经济、可靠的大模型 API 服务。除了 Ling-flash-2.0,平台上还汇聚了多种语言、图像、音频、视频等模型,满足开发者不同的需求。开发者可以在平台上自由对比和组合各类模型,轻松调用高效的 API,助力生成式 AI 应用的
国内站在线体验
https://cloud.siliconflow.cn/models
国际站在线体验
https://cloud.siliconflow.com/models
划重点:
🌟Ling-flash-2.0 是基于 MoE 架构的 100 亿参数语言模型,具备强大的复杂推理能力。
⚡模型支持
最大 128K 的上下文长度,提供极速推理体验,输出速度可达每秒 200+Token。 💰新用户可在国内和国际站获得使用体验赠金,硅基流动平台提供多种大模型服务,助力开发者创新。









