6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
腾讯开源混元-A13B模型
来源:界面新闻
腾讯
5.5k
- Anthropic接近完成超200亿美元融资,多家硅谷和华尔街机构或参投
- 腾讯:与特斯拉合作升级座舱体验,上线“微信互联”、“目的地服务”功能
来源:界面新闻
6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
评论