近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队
Ling-mini-2.0 采用了 MoE 架构,总参数达到 16B,但在生成过程中每个 Token 仅激活 1.4B 的参数,从而大幅提升了生成速度。这一设计不仅使得模型在处理任务时依旧保持卓越性能,还能与 10B 以下的 Dense 语言模型以及其他更大规模的 MoE 模型进行有效比较。其
在基准测试中,Ling-mini-2.0 在多个领域的推理任务中表现优异。无论是编码、数学还是知识密集型推理任务,Ling-mini-2.0 都取得了令人满意的成绩,展现出其强大的综合推理能力。特别是在高难度的任务中,该模型的性能优于许多同类产品,表现出色。
此外,Ling-mini-2.0 在生成速度上也颇具优势。在 2000Token 以内的问答任务中,其生成速度超过 300 个 Token 每秒,比传统的 8BDense 模型快了 2 倍以上。随着输出长度的增加,该模型的速度还可以提高,
为了方便开发者使用,硅基流动平台还提供了多种接入方案和 API 文档,支持开发者在平台上进行模型的对比与组合,帮助他们轻松实现生成式 AI 应用。平台内还有多款大模型 API 供开发者免费使用,进一步推动了 AI 技术的普及和应用。
划重点:
🧠Ling-mini-2.0 总参数 16B,每个 Token 仅激活 1.4B 参数,实现高效生成。
🚀模型支持 128K
最大上下文长度,展现出强大的推理能力。 💻硅基流动平台提供多种接入方案,支持开发者轻松使用多款大模型 API。









