​硅基流动上线蚂蚁百灵团队 Ling-flash-2.0,推理速度再创新高

近日,服务平台正式上线了蚂蚁集团百灵团队最新的 Ling-flash-2.0,这是该平台上线的第 130 个模型。

Ling-flash-2.0 是一款基于 MoE 架构的,拥有 100 亿参数,并且在激活时仅使用 6.1 亿参数 (非嵌入激活 4.8 亿)。经过 20TB 以上高质量语料的预训练、监督微调和多阶段强化学习,该模型在激活 6 亿以上参数的情况下,展现出了媲美 40 亿参数 Dense 模型的卓越性能。

Ling-flash-2.0 在复杂推理、代码生成和前端研发等领域表现出色,能够支持最大 128K 的上下文长度,给用户提供更强大的文本处理能力。其定价也相对亲民,输入为每百万个 Token1 元,输出为每百万个 Token4 元。同时,国内和国际站的新用户可分别获得 14 元或 1 美元的使用体验赠金。

Ling-flash-2.0 在性能上具有明显优势。与 40 亿参数以下的 Dense 模型 (如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct) 以及更大激活参数的 MoE 模型 (如 Hunyuan-A13B-Instruct 和 -OSS-120B/low) 相比,Ling-flash-2.0 展现了更强的复杂推理能力。尤其在创作类任务中,该模型同样具有很强的竞争力。

此外,Ling-flash-2.0 的架构经过精心设计,能够实现极速推理。在 LingScalingLaws 的指导下,Ling2.0 采用了 1/32 激活比例的 MoE 架构,并在多个细节上进行了优化,这使得小激活的 MoE 模型能够获得相当于 Dense 架构的性能优势。通过 H20 进行部署时,Ling-flash-2.0 的输出速度可达到每秒 200 多个 Token,相比 36B 的 Dense 模型提升了 3 倍以上的速度。

硅基流动平台致力于为开发者提供快速、经济、可靠的大模型 API 服务。除了 Ling-flash-2.0,平台上还汇聚了多种语言、图像、音频、视频等模型,满足开发者不同的需求。开发者可以在平台上自由对比和组合各类模型,轻松调用高效的 API,助力 应用的最佳实践。

国内站在线体验

https://cloud.siliconflow.cn/models

国际站在线体验

https://cloud.siliconflow.com/models

划重点:

🌟Ling-flash-2.0 是基于 MoE 架构的 100 亿参数语言模型,具备强大的复杂推理能力。

⚡模型支持最大 128K 的上下文长度,提供极速推理体验,输出速度可达每秒 200+Token。

💰新用户可在国内和国际站获得使用体验赠金,硅基流动平台提供多种大模型服务,助力开发者创新。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

飞猪 AI「问一问」 推出拍照讲解服务,随手一拍即享专业导览

2025-9-19 1:22:22

AI 资讯

Twitter 前高管打造 AI 开发工具 Macroscope 挑战传统开发模式

2025-9-19 1:22:39

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索