-
腾讯开源轻量级混元-A13B 模型 1 张中低端 GPU 卡即可部署
腾讯正式发布并开源混元大模型家族的新成员——混元-A13B 模型。该模型采用基于专家混合 (MoE) 架构,总参数规模达 800 亿,激活参数为 130 亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的 AI 解决方案。据腾讯方面介绍,混元-A13B 模型在极端条件下仅需 1 张中低端 GPU 卡即可部署,用户可通过 Github、HuggingFace 等技术社区下载使用…- 4
- 0
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了 {{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵 ID:×
没有优惠劵可用!










