当全球 AI 竞赛仍围绕自回归大模型(如 GPT-5、Gemini) 激烈缠斗时,一家新锐初创公司正以颠覆性架构悄然突围。由斯坦福大学教授 StefanoErmon 领衔的 AI 公司 Inception 近日宣布完成 5000 万美元种子轮融资,由 MenloVentures 领投,微软 M12、英伟达 NVentures、SnowflakeVentures、DatabricksInvestment 及 Mayfield 跟投,吴恩达 (AndrewNg) 与 AndrejKarpathy 亦以天使投资人身份加入,阵容堪称豪华。
Inception 的核心押注,是将原本用于图像生成的扩散模型(DiffusionModels) 全面引入文本与代码领域,挑战当前主流的自回归范式。Ermon 指出,GPT、Gemini 等模型采用 「逐词预测」 方式,必须串行处理,限制了速度与效率; 而扩散模型通过并行迭代优化整体输出,在处理大规模代码库或长文本时展现出显著优势。
这一理念已落地为产品: 公司同步发布其
为何扩散模型适合代码?
代码不同于自然语言——它结构严谨、依赖全局上下文,且常需跨文件关联。自回归模型在处理此类任务时,易因 「逐字生成」 而忽略整体逻辑一致性。而扩散模型从 「噪声」 出发,通过多轮全局调整逼近目标输出,天然适合高结构化数据。此外,其并行计算特性可充分利用 GPU/TPU 集群,显著降低延迟与能耗,直击当前 AI 基础设施高成本痛点。
巨头为何押注?
在 AI 训练与推理成本飙升的背景下,效率成为新战场。微软、英伟达、Databricks 等投资方均在构建 AI 开发栈,亟需高性能、低开销的模型底座。Inception 的路径,或为大模型商业化提供一条 「省算力、高吞吐」 的新出路。
AIbase 认为,Inception 的崛起标志着 AI 架构探索进入深水区——当参数竞赛边际效益递减,底层范式创新将成为破局关键。如果扩散式 LLM 能在代码、科研、金融等高价值场景持续验证其优势,这场由斯坦福实验室发起的技术革命,或将重塑生成式 AI 的未来版图。










