近日,这家以手机芯片闻名的巨头宣布推出两款专为云端 AI 推理设计的全新芯片:AI200(2026 年商用) 与 AI250(2027 年推出),标志着其从终端芯片厂商向全栈 AI 基础设施玩家的关键跃迁。消息一出,高通股价单日飙升超 20%,创 2019 年以来
聚焦推理场景,以能效与成本破局
与英伟达主打训练+推理的全能路线不同,高通选择聚焦大模型推理市场,主打 「低总拥有成本 (TCO)+高能效+大内存」 三大优势。
- AI200 支持高达 768GBLPDDR 内存,可作为独立加速卡或整机架系统交付,专为大语言模型和多模态推理优化,满足企业对高并发、低延迟推理的需求;
- AI250 更进一步,引入近存计算 (near-memorycomputing) 架构,宣称将内存带宽提升 10 倍,同时大幅降低功耗,为超大规模部署提供能效新标杆。
这一策略直击当前数据中心痛点: 随着模型推理成本飙升,企业亟需高性价比、低功耗的专用方案,而非一味追求峰值算力。
十年磨一剑,HexagonNPU 成关键引擎
高通并非临时起意。自 2019 年起,其已在物联网与 5G 边缘计算领域积累云端芯片经验,而核心武器正是其自研的 Hexagon 神经处理单元 (NPU)。经过多年迭代,Hexagon 已从手机端 AI 加速器进化为可扩展至数据中心的高性能推理引擎,成为高通挑战云端市场的技术支点。
巨头围猎英伟达,市场迎来 「去单一化」 拐点
尽管英伟达目前占据 AI 芯片市场约 90% 份额,但客户对供应链多元化的渴求日益强烈。谷歌(TPU)、亚马逊(Trainium/Inferentia)、微软 (Maia) 等云厂商早已自研芯片,而高通的入局,为第三方独立供应商提供了新选择。麦肯锡预测,到 2030 年全球数据中心投资将达 6.7 万亿美元,这片蓝海足以容纳多个玩家。
高通已拿下首个重量级客户: 沙特 AI 初创公司 Humain 计划于 2026 年部署基于 AI200/AI250 的机架系统,总功率高达 200 兆瓦,相当于一座小型城市的用电规模。
能否撼动霸主? 关键看生态与落地
挑战英伟达,芯片性能只是入场券,软件生态、开发者支持与实际部署效果才是决胜关键。高通能否复刻其在移动端的生态整合能力,构建从工具链到框架的完整推理栈,将决定其能否真正分食高端市场。
但无论如何,高通的强势入场,已为 AI 芯片战场投下重磅变量。当 「手机芯片









