美团发布 LongCat-Flash-Chat:560B 参数模型再创新高,智能体表现惊艳!

近日,美团正式发布并了其最新的 大模型——LongCat-Flash-Chat。这款模型以 560B 的总参数量和 18.6B 到 31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型 (MoE) 架构,利用 「零计算专家」 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。

在模型架构方面,LongCat-Flash 还引入了跨层通道设计,极大提升了训练和推理的并行性。这使得模型在仅仅 30 天的训练时间内,就在 H800 硬件上达到了单用户每秒处理 100 个 token 的推理速度。值得注意的是,该模型的训练过程中,采用了 PID 控制器来实时调整专家的偏置,保持激活参数的平均水平在 27B,从而有效控制算力消耗。

不仅如此,LongCat-Flash 在能力的提升上也做了诸多优化。通过构建自有的 Agentic 评测集和多智能体数据生成策略,该模型在各类智能体任务中表现优异,尤其是在复杂场景下,其在 VitaBench 基准测试中的得分更是位列第一。相较于参数规模更大的模型,LongCat-Flash 依然展现出卓越的智能体工具使用能力。

在通用知识方面,LongCat-Flash 同样不甘示弱。在 ArenaHard-V2 测试中,其得分达到 86.50,位列所有评估模型的第二; 而在 MMLU 和 CEval 基准测试中分别获得 89.71 和 90.44 的高分,显示出其在语言理解和中文能力评估上的竞争力。

LongCat-Flash-Chat 以其高效的推理速度和出色的智能体表现,不仅在技术上领先同行,且其开源举措也为开发者提供了更多的研究和应用机会。

项目地址:https://github.com/meituan-longcat/LongCat-Flash-Chat

体验官网:https://longcat.ai/

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

​Nvidia 推出小型开放模型 Nemotron-Nano-9B-v2:可切换的推理功能

2025-9-2 1:21:06

AI 资讯

中国 AI 三巨头入选 《时代》 周刊 2025 年度百强榜单

2025-9-2 1:21:24

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索