​硅基流动上线线蚂蚁集团 Ling-mini-2.0,速度与性能双丰收

近日,服务平台正式上线了蚂蚁集团百灵团队最新的 Ling-mini-2.0。这个新模型在保持先进性能的同时,展现出极高的生成速度,标志着在小体量的同时实现了大能量的突破。

Ling-mini-2.0 采用了 MoE 架构,总参数达到 16B,但在生成过程中每个 Token 仅激活 1.4B 的参数,从而大幅提升了生成速度。这一设计不仅使得模型在处理任务时依旧保持卓越性能,还能与 10B 以下的 Dense 语言模型以及其他更大规模的 MoE 模型进行有效比较。其最大上下文长度支持达到 128K,极大提升了模型的适用范围。

在基准测试中,Ling-mini-2.0 在多个领域的推理任务中表现优异。无论是编码、数学还是知识密集型推理任务,Ling-mini-2.0 都取得了令人满意的成绩,展现出其强大的综合推理能力。特别是在高难度的任务中,该模型的性能优于许多同类产品,表现出色。

此外,Ling-mini-2.0 在生成速度上也颇具优势。在 2000Token 以内的问答任务中,其生成速度超过 300 个 Token 每秒,比传统的 8BDense 模型快了 2 倍以上。随着输出长度的增加,该模型的速度还可以提高,最高可达 7 倍的相对加速。

为了方便开发者使用,硅基流动平台还提供了多种接入方案和 API 文档,支持开发者在平台上进行模型的对比与组合,帮助他们轻松实现生成式 应用。平台内还有多款大模型 API 供开发者免费使用,进一步推动了 的普及和应用。

划重点:

🧠Ling-mini-2.0 总参数 16B,每个 Token 仅激活 1.4B 参数,实现高效生成。

🚀模型支持 128K 最大上下文长度,展现出强大的推理能力。

💻硅基流动平台提供多种接入方案,支持开发者轻松使用多款大模型 API。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

全球高校 「猎杀」 AI 作业!学生如何应对 「人类化」 挑战?

2025-9-11 1:20:41

AI 资讯

日本初创企业 Sakana AI:借鉴自然智慧推动人工智能创新

2025-9-11 1:20:57

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索