月之暗面公司正式发布了其
KimiK2 模型总参数高达 1T,激活参数为 32B,在 SWEBenchVerified、Tau2、AceBench 等一系列基准性能测试中,均取得了开源模型中的
在预训练阶段,KimiK2 采用了创新的 MuonClip 优化器,这一优化器有效解决了大规模训练中的 attentionlogits 偏大问题,将训练稳定性与 token 使用效率提升至新高度。月之暗面团队成功完成了 15.5Ttoken 的平稳训练,全程无 lossspike,为万亿参数模型的稳定高效训练提供了新思路。
除了基准性能测试中的优异表现,KimiK2 在实际应用场景中也展现出了强大的能力泛化和实用性。在代码能力方面,KimiK2 不仅能够生成设计感与视觉表现力兼备的前端代码,支持粒子系统、可视化和 3D 场景等复杂表现形式,还能在无具体指令的情况下,自动搭建完整的期货交易界面,展现了其强大的自主编程能力。
在 Agent 工具调用方面,KimiK2 同样表现出色。它能够稳定解析复杂指令,将需求自动拆解为一系列格式规范、可直接执行的 ToolCall 结构,无缝接入各类 Agent/Coding 框架,完成复杂任务或自动化编码。无论是分析远程办公比例对薪资的影响,还是为 Coldplay 粉丝制定追星计划并完成相关规划,KimiK2 都能轻松应对,展现出强大的 Agent 能力。
此外,KimiK2 在风格化写作方面也取得了显著提升。无论是改写科研文本为初中生语气,还是模仿苹果广告文案,KimiK2 都能准确控制输出风格,同时保留原意与表达风格。在虚构写作任务中,KimiK2 生成的文字更加关注细节与情感,不再是抽象泛泛而谈,为用户提供了更加丰富的创作体验。
月之暗面公司此次不仅发布了 KimiK2 模型,还同步开源了 Kimi-K2-Base 和 Kimi-K2-Instruct 两个模型版本。其中,Kimi-K2-Base 为未经过指令微调的基础预训练模型,适合科研与自定义场景; 而 Kimi-K2-Instruct 则为通用指令微调版本,在大多数问答与 Agent 任务中表现卓越。模型及 fp8 权重文件已开源至 HuggingFace 平台,供广大开发者自由使用。
为了方便开发者部署和使用,vLLM、SGLang、ktransformers 等推理引擎也已经同步支持 KimiK2 模型。开发者可以用自己的服务器部署,获得与 Kimi 开放平台 API 相同的体验。
在 API 服务方面,KimiK2 也提供了全面的支持。其 API 服务现已全面上线,支持最长 128K 上下文,具备更强的通用性与工具调用能力。计费方案灵活合理,每百万输入 tokens 仅需 4 元,每百万输出 tokens 为 16 元,同时兼容 OpenAI 和 Anthropic 两种 API 格式,方便开发者无缝切换。










