​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本

微软今天凌晨在官网上最新版本的 Phi-4 家族模型——Phi-4-mini-flash-reasoning。这一新版本在继承了 Phi-4 系列参数小、性能强的优点基础上,专为受到计算能力、内存和延迟限制的场景设计,能够在单个 GPU 上运行,非常适合笔记本和平板电脑等边缘设备。

Phi-4-mini-flash-reasoning 的推出,标志着推理效率的显著提升,相较于前一版本,推理效率暴涨了 10 倍,同时平均延迟降低了 2 到 3 倍。这种大幅度的性能提升,使其在高级数学推理方面表现得尤为突出,非常适合教育和科研领域的应用。

这一版本的核心在于微软自研的 SambaY 架构。SambaY 是一种创新的解码器混合架构,由微软与斯坦福大学共同研发。通过引入门控存储单元,SambaY 能够实现跨层的高效记忆共享,从而在提升解码效率的同时,保持线性预填充时间复杂度,增强长上下文性能,并且无需显式位置编码。

在长文本生成任务中,SambaY 展现了显著的效率提升。在处理 2K 长度的提示和 32K 长度的生成任务时,解码吞吐量相较于传统的 Phi-4-mini-Reasoning 模型提高了 10 倍。此外,在数学推理能力的测试中,SambaY 的表现也有显著提高,特别是在复杂的数学问题上,能够生成清晰且逻辑连贯的解题步骤。

微软还通过 Phonebook 和 RULER 等基准测试评估了 SambaY 在长上下文检索方面的表现。在 32K 长度的上下文中,SambaY 在 Phonebook 任务中达到了 78.13% 的准确率,表现远超其他模型。这证明了 SambaY 在长上下文理解与生成能力上的优势。

为了验证 SambaY 的可扩展性,微软进行了大规模的预训练实验,使用了 3.8B 参数的 Phi-4-mini-Flash 模型,并在 5Ttokens 的数据集上进行了训练。尽管训练过程中遇到了一些挑战,但通过引入标签平滑和注意力 dropout 等技术,模型最终成功收敛,并在知识密集型任务中取得了显著的性能提升。

开源地址:https://huggingface.co/microsoft/Phi-4-mini-flash-reasoning

英伟达 API:https://build.nvidia.com/microsoft

划重点:

🌟微软推出 Phi-4-mini-flash-reasoning,推理效率提升 10 倍,适合笔记本运行。

🔍创新 SambaY 架构通过高效记忆共享提升解码性能,适合长文本生成与数学推理。

📈在基准测试中表现优异,Phonebook 任务准确率达 78.13%,显示出强大的长上下文理解能力。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

利用 AI 模拟用户行为,Blok 助力开发者提升应用体验

2025-7-11 1:20:50

AI 资讯

​Meta 以超 2 亿美金高薪挖走苹果 AI 模型负责人

2025-7-11 1:20:56

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索