AI 模型架构正在经历一场深刻变革。扩散语言模型凭借其并行生成和高效推理能力,正在成为业界关注的焦点。10 月 9 日,AI 研究机构 RadicalNumerics 正式发布 RND1-Base,这是迄今为止
RND1-Base 基于 Qwen3-30BA3B 的自回归基础模型,通过简单的连续预训练实现了向扩散范式的无缝转型。转换过程采用双向掩码机制和特定于层的学习率以保留原有知识,并使用高达 8M 标记的大批量训练确保稳定性,最终在 500B 标记上完成预训练。这一高效方案避免了从零开始训练带来的资源浪费,体现了 RadicalNumerics 在模型重用方面的创新思路。
与传统自回归语言模型逐个生成 token 的顺序模式不同,RND1 将文本生成视作类似图像去噪的过程,从噪声中并行精炼整个序列,支持双向注意力机制。这不仅提升了生成的灵活性和可控性,还显著降低了推理延迟,特别适合复杂推理和代码生成任务。
在通用基准测试中,RND1-Base 展现出强劲实力,超越了 Dream-7B 和 LLaDA-8B 等开源扩散语言模型前辈。具体成绩包括 MMLU 多任务语言理解 57.2%、GSM8K 数学推理 72.1%、MBPP 代码生成 51.3%。这些指标覆盖推理、STEM 和编程领域,证明该模型在保持自回归基础优势的同时,实现了扩散架构的性能提升。
RND1 的稀疏专家混合设计在 30B 总参数中仅激活 3B 参数,优化了计算效率,适合大规模部署。该模型尚未进行后训练,贪婪采样时可能偶尔出现重复,但开源代码已集成 FlashInfer 和 SGLang 后端,支持快速推理迭代。
RadicalNumerics 将自身定位为下一代 AI 实验室,专注于构建递归自我改进引擎。RND1 正是这一愿景的产物,通过自动化 AI 研究平台,让模型参与优化下一代 AI。该团队由来自 DeepMind、Meta、Liquid 和斯坦福等
开源 RND1 的目的在于激发社区探索扩散语言模型的推理优化和后训练潜力。当前,扩散模型在语言领域的应用正从实验阶段转向实用阶段,特别是在并行生成长序列任务方面展现出优势。业内预计,此举将刺激更多自回归模型向扩散模型转换的实验,填补开源生态在高效生成模型方面的空白。
尽管 RND1 在规模和性能上处于领先地位,但扩散模型的泛化能力与内存开销仍需进一步优化。未来结合多目标微调或混合架构,有望进一步释放其潜力。RadicalNumerics 已开放招聘,欢迎 AI 从业者加入这一前沿探索。
这次突破标志着扩散语言模型从理论探索走向工程实践的重要转折点。通过开源如此大规模的扩散模型,RadicalNumerics 不仅为研究社区提供了宝贵的工具,也为 AI 自我改进和递归优化开辟了新的可能性。随着更多研究者参与到这一领域,扩散语言模型或将成为下一代 AI 架构的重要方向。










