2月12日,面壁智能正式发布稀疏-线性注意力混合架构SALA,以及基于该架构的文本模型MiniCPM-SALA,模型仅有9B参数。据介绍,MiniCPM-SALA不使用投机采样等加速算法,在云端推理芯片上,当序列长度为256K词元时推理速度高达Qwen3-8B的3.5倍,并支持在云端芯片和消费级端侧GPU上进行高达一百万词元上下文长度的推理。
热门排行February 12
来源:界面新闻
2月12日,面壁智能正式发布稀疏-线性注意力混合架构SALA,以及基于该架构的文本模型MiniCPM-SALA,模型仅有9B参数。据介绍,MiniCPM-SALA不使用投机采样等加速算法,在云端推理芯片上,当序列长度为256K词元时推理速度高达Qwen3-8B的3.5倍,并支持在云端芯片和消费级端侧GPU上进行高达一百万词元上下文长度的推理。
评论