正在阅读:

腾讯云发布大模型计算集群,算力性能较前代提升3倍

扫一扫下载界面新闻APP

腾讯云发布大模型计算集群,算力性能较前代提升3倍

该集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU。

图片来源:视觉中国

界面新闻记者 | 崔鹏

4月14日消息,腾讯云正式发布新一代HCC(High-Performance Computing Cluster)高性能计算集群

该集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU,服务器之间采用业界最高的3.2T超高互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。

腾讯方面的实测显示,该集群的算力性能较前代提升达到3倍,是目前国内性能最强的大模型计算集群。

去年10月,腾讯完成首个万亿参数的AI大模型——混元NLP大模型训练。在同等数据集下,将训练时间由50天缩短到11天。如果基于新一代集群,训练时间将进一步缩短至4天。

据腾讯方面介绍,当大模型进入万亿参数时代后,传统的单体服务器算力有限,需要将大量服务器通过RDMA网络相连,建造大规模算力集群。

通过对处理器、网络架构和存储性能的全面优化,腾讯云攻克了大集群场景下的算力损耗问题,能为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。

在网络层面,计算节点间存在海量的数据交互需求,随着集群规模扩大,通信性能会直接影响训练效率。

腾讯自研的星脉网络,为新集群带来了业界最高的3.2T的超高通信带宽。实测结果显示,搭载同样的GPU,3.2T星脉网络相较1.6T网络能让集群整体算力提升20%,并提供单集群高达十万卡级别的组网规模,支持更大规模的大模型训练及推理。

在存储层面,几千台计算节点同时读取一批数据集,需要尽可能缩短加载时长。腾讯云自研的文件存储、对象存储架构,具备TB级吞吐能力和千万级IOPS,满足大模型训练的大数据量存储要求。

在底层架构之上,针对大模型训练场景,新一代集群集成了腾讯云自研的TACO Train训练加速引擎,对网络协议、通信策略、AI框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。

去年10月,腾讯基于自研的高性能计算机群和训练框架AngelPTM,完成了首个万亿参数大模型训练,并将训练时间缩短80%。

腾讯混元大模型背后的训练框架AngelPTM,目前已通过腾讯云对外提供服务,它能够帮助企业加速大模型的落地。 

腾讯混元AI大模型目前覆盖了自然语言处理、计算机视觉、多模态等基础模型和众多行业模型,已经应用于腾讯微信搜索、腾讯广告等自有业务场景,用于提升搜索体验和广告推荐的精准度。

此前,腾讯多款自研芯片已经量产。其中,用于AI推理的紫霄芯片、用于视频转码的沧海芯片已在腾讯内部交付使用。

其中紫霄采用自研存算架构,增加片上内存容量并使用更先进的内存技术,消除访存能力不足制约芯片性能的问题,同时内置集成腾讯自研加速模块,减少与CPU握手等待时间。紫霄已经在腾讯头部业务规模部署,提供3倍的计算加速性能,和超过45%的整体成本节省。

目前,腾讯云的分布式云原生调度总规模超过1.5亿核,并提供16 EFLOPS(每秒1600亿亿次浮点运算)的智算算力。未来新一代集群不仅能服务于大模型训练,还将在自动驾驶、科学计算、自然语言处理等场景中得到应用。

 

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

腾讯云发布大模型计算集群,算力性能较前代提升3倍

该集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU。

图片来源:视觉中国

界面新闻记者 | 崔鹏

4月14日消息,腾讯云正式发布新一代HCC(High-Performance Computing Cluster)高性能计算集群

该集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU,服务器之间采用业界最高的3.2T超高互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。

腾讯方面的实测显示,该集群的算力性能较前代提升达到3倍,是目前国内性能最强的大模型计算集群。

去年10月,腾讯完成首个万亿参数的AI大模型——混元NLP大模型训练。在同等数据集下,将训练时间由50天缩短到11天。如果基于新一代集群,训练时间将进一步缩短至4天。

据腾讯方面介绍,当大模型进入万亿参数时代后,传统的单体服务器算力有限,需要将大量服务器通过RDMA网络相连,建造大规模算力集群。

通过对处理器、网络架构和存储性能的全面优化,腾讯云攻克了大集群场景下的算力损耗问题,能为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。

在网络层面,计算节点间存在海量的数据交互需求,随着集群规模扩大,通信性能会直接影响训练效率。

腾讯自研的星脉网络,为新集群带来了业界最高的3.2T的超高通信带宽。实测结果显示,搭载同样的GPU,3.2T星脉网络相较1.6T网络能让集群整体算力提升20%,并提供单集群高达十万卡级别的组网规模,支持更大规模的大模型训练及推理。

在存储层面,几千台计算节点同时读取一批数据集,需要尽可能缩短加载时长。腾讯云自研的文件存储、对象存储架构,具备TB级吞吐能力和千万级IOPS,满足大模型训练的大数据量存储要求。

在底层架构之上,针对大模型训练场景,新一代集群集成了腾讯云自研的TACO Train训练加速引擎,对网络协议、通信策略、AI框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。

去年10月,腾讯基于自研的高性能计算机群和训练框架AngelPTM,完成了首个万亿参数大模型训练,并将训练时间缩短80%。

腾讯混元大模型背后的训练框架AngelPTM,目前已通过腾讯云对外提供服务,它能够帮助企业加速大模型的落地。 

腾讯混元AI大模型目前覆盖了自然语言处理、计算机视觉、多模态等基础模型和众多行业模型,已经应用于腾讯微信搜索、腾讯广告等自有业务场景,用于提升搜索体验和广告推荐的精准度。

此前,腾讯多款自研芯片已经量产。其中,用于AI推理的紫霄芯片、用于视频转码的沧海芯片已在腾讯内部交付使用。

其中紫霄采用自研存算架构,增加片上内存容量并使用更先进的内存技术,消除访存能力不足制约芯片性能的问题,同时内置集成腾讯自研加速模块,减少与CPU握手等待时间。紫霄已经在腾讯头部业务规模部署,提供3倍的计算加速性能,和超过45%的整体成本节省。

目前,腾讯云的分布式云原生调度总规模超过1.5亿核,并提供16 EFLOPS(每秒1600亿亿次浮点运算)的智算算力。未来新一代集群不仅能服务于大模型训练,还将在自动驾驶、科学计算、自然语言处理等场景中得到应用。

 

未经正式授权严禁转载本文,侵权必究。