界面快报 · 来源:界面新闻
6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
评论
评论