腾讯发布新一代超强算力集群:面向大模型训练,性能提升 3 倍 -j9九游会登陆入口
it之家 4 月 14 日消息,it之家从腾讯官方获悉,腾讯云发布了新一代 hcc 高性能计算集群,采用最新一代星星海自研服务器,搭载英伟达 h800 tensor core gpu。
腾讯官方称,该集群基于自研网络、存储架构,带来 3.2t 超高互联带宽、tb 级吞吐能力和千万级 iops。实测结果显示,新一代集群算力性能较前代提升 3 倍。
去年 10 月,腾讯完成首个万亿参数的 ai 大模型 —— 混元 nlp 大模型训练。在同等数据集下,将训练时间由 50 天缩短到 11 天。如果基于新一代集群,训练时间将进一步缩短至 4 天。
计算层面,服务器单机性能是集群算力的基础,腾讯云新一代集群的单 gpu 卡在不同精度下,支持输出最高 1979 tflops 的算力。
针对大模型场景,星星海自研服务器采用 6u 超高密度设计,相较行业可支持的上架密度提高 30%;利用并行计算理念,通过 cpu 和 gpu 节点的一体化设计,将单点算力性能提升至更高。
网络层面,计算节点间,存在着海量的数据交互需求。随着集群规模扩大,通信性能会直接影响训练效率,需要实现网络和计算节点的最大协同。
腾讯自研的星脉高性能计算网络,号称具备业界最高的 3.2t rdma 通信带宽。实测结果显示,搭载同等数量的 gpu,3.2t 星脉网络相较 1.6t 网络,集群整体算力提升 20%。
同时,腾讯自研的高性能集合通信库 tccl,融入定制设计的j9九游会登陆入口的解决方案。相对业界开源集合通信库,为大模型训练优化 40% 负载性能,消除多个网络原因导致的训练中断问题。
存储层面,大模型训练中,大量计算节点会同时读取一批数据集,需要尽可能缩短数据加载时长,避免计算节点产生等待。
腾讯云自研的存储架构,具备 tb 级吞吐能力和千万级 iops,支持不同场景下对存储的需求。cos goosefs 对象存储方案和 cfs turbo 高性能文件存储方案,充分满足大模型场景下高性能、大吞吐和海量存储要求。
此外,新一代集群集成了腾讯云自研的 taco 训练加速引擎,对网络协议、通信策略、ai 框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。
腾讯混元大模型背后的训练框架 angelptm,也已通过腾讯云 taco 提供服务,帮助企业加速大模型落地。
通过腾讯云 ti 平台的大模型能力和工具箱,企业可结合产业场景数据进行精调训练,提升生产效率、快速创建和部署 ai 应用。
依托分布式云原生的治理能力,腾讯云智算平台提供 16 eflops 的浮点算力。