百度文心新模型 ERNIE-4.5-21B-A3B-Thinking 强势登顶 Hugging Face 榜首

近日,百度旗下文心家族迎来重大升级——ERNIE-4.5-21B-A3B-Thinking 正式,并在 平台迅速登顶文本生成模型榜单首位,同时位居整体模型榜第三。这款轻量级 Mixture-of-Experts(MoE) 模型以其卓越的推理能力和参数效率,引发行业广泛关注,标志着中国 开源生态的又一里程碑。

模型核心规格与创新设计

ERNIE-4.5-21B-A3B-Thinking 采用先进的 MoE 架构,总参数规模为 21B,但每个 token 仅激活 3B 参数。这种稀疏激活机制显著降低了计算开销,同时保持了高性能输出。该模型支持 128K 长上下文窗口,特别适用于处理复杂长文本任务,如逻辑推理、数学求解和分析。

不同于主流模型依赖 PyTorch 框架,ERNIE-4.5 系列基于百度自研的飞桨 (PaddlePaddle) 框架进行训练和优化。这种独立框架的设计,不仅提升了模型在多模态任务中的兼容性,还确保了高效的硬件适配。目前,全球范围内采用自研框架训练大模型的厂商仅有百度和,这凸显了其技术自主性和创新深度。

性能表现: 高效推理挑战行业巨头

根据最新基准测试,该模型在逻辑推理、数学、科学、编码和文本生成等任务上表现出色,甚至在部分指标上接近或超越 Gemini2.5Pro 和 -5 级别模型。尽管总参数仅为 21B(约相当于 Qwen3-30B 的 70%),其在 BBH、CMATH 等数学推理基准上的得分已超过同类竞品,展现出极高的参数效率。

此外,模型内置高效工具调用功能,支持结构化函数调用和外部 API 集成,适用于程序合成、符号推理和多代理工作流场景。在长上下文理解方面,经过专属训练,它能稳定处理海量信息生成学术级合成内容,显著减少幻觉问题。该模型还支持双语 (中英) 优化,适用于全球开发者和企业应用。

开源社区反馈显示,该模型在 HuggingFace 上的下载量和趋势指数飙升,已成为文本生成领域的热门选择。开发者可通过 vLLM、Transformers4.54+和 FastDeploy 等工具轻松集成,实现本地部署或云端推理。

开源意义: 推动 AI 民主化与生态建设

ERNIE-4.5-21B-A3B-Thinking 以 Apache2.0 许可发布,支持商业使用,这进一步降低了 的门槛。继 6 月底百度开源 ERNIE4.5 家族其他 10 款模型后,此次发布强化了其在开源 AI 领域的领导地位。目前,HuggingFace 平台前排模型多为中国开源成果,这反映出中国 AI 在 MoE 架构和推理优化上的全球竞争力。

作为文心大模型的最新迭代,该模型不仅提升了指令跟随和知识密集任务的表现,还通过多轮强化学习强化了其 「思考」 模式。在视觉-语言任务中,其 VL 变体也表现出色,缩小了与 -o1 在 MathVista 和 MMMU 等基准上的差距。

行业影响与未来展望

这款模型的发布,证明了无需万亿级密集参数,即可实现深度推理的可能。它为资源受限的开发者提供了高性能选项,推动 AI 从实验室向实际应用的转型。未来,随着飞桨框架的进一步生态扩展,ERNIE 系列有望在 Agent 产品和多模态应用中发挥更大作用,避免单一厂商垄断带来的风险。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

DeepMCPAgent 开源炸场:MCP+LangChain 一键建神级 AI 代理,生产力暴增 10 倍?

2025-9-16 1:22:19

AI 资讯

苹果 AI 转型面临新挑战:Siri 前负责人离职,AI 搜索项目前景未卜

2025-9-16 1:22:37

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索