随着人工智能的不断发展,深度学习的训练模型越来越庞大和复杂,训练模型对算力的需求也在快速增长。
云上AI训练已经被越来越多的开发者接受。为了让开发者第一时间享受到最新款的算力,近日,阿里云异构计算宣布推出gn7 GPU系列云服务器。这也是国内首款应用NVIDIA A100 GPU的商业化云服务器。
gn7系列实例是阿里云新一代GPU计算实例,主要面向AI训练和高性能计算应用。该产品基于NVIDIA A100 Tensor Core GPU打造,云服务器中的8块A100 GPU以NVIDIA NVSwitch实现了GPU之间的NVLink直接通信。
结合最新支持的Tensor Core加速能力,阿里云gn7云服务器最高可让AI最佳性能提升20倍,高性能计算速度提升2.5倍,单卡最高支持19.5TFlops(FP64)、156TFlops (TF32)、312 TFlops(FP16 混合精度)的运算。对于大模型训练的场景,阿里云自研的神龙AI加速引擎AIACC可以通过优化多GPU训练通信效率,进一步提升多GPU和多机并行训练的加速比,为AI研发过程节省更多的时间和成本。
第一批上线的产品为效率最高的阿里云神龙裸金属实例ebmgn7, 用户可直接获得一台完整的配置有Intel 2代Xeon Scalable 52核CPU、768G系统内存和由 NVSwitch互联的8颗A100 的GPU服务器主机。
随着人工智能的不断发展,深度学习的训练模型越来越庞大和复杂,训练模型需要的算力也在快速增长。针对AI训练和高性能计算的算力需求,NVIDIA于今年5月推出了 A100 GPU。NVIDIA A100 GPU基于最新NVIDIA 安培(Ampere)架构,不仅通过制程优化提升了计算性能,同时优化了计算架构,其第三代Tensor Core可以对单精度及双精度进行加速,大幅提升了整体计算性能。
阿里云gn7系列云服务器上线,意味着各大企业可以立即开始使用最新一代的GPU的强大算力。该系列实例适合深度学习场景,如图像识别、无人驾驶、语音识别等人工智能算法的训练应用;也适用于诸如计算流体动力学、计算金融学、分子动力学、环境分析等GPU加速的高性能计算场景。
云是获取AI算力最为便捷的方式,相较于自行购买服务器,用户可以按需要随时购买GPU实例资源,训练和推理任务结束时,自动释放/停止GPU实例资源。阿里云拥有亚洲最大的异构计算集群,加上秒级交付的弹性能力,为行业提供强大的AI算力。
针对人工智能场景,阿里云异构计算提供了软硬一体性能优化方案,自研的飞天AI加速器(AIACC)是业界首个支持Tensorflow、PyTorch、MXNet、Caffe等主流开源框架的深度学习加速引擎,它针对训练场景和推理场景,结合阿里云的网络和异构计算架构作了优化,云上训练有2-14倍的性能提升,推理场景下性能提升2-6倍。
前不久,阿里云异构计算也推出了独有的cGPU容器技术和弹性加速计算实例(EAIS),与神龙AI加速引擎(AIACC)一起组成阿里云异构计算的三大特色优势,为用户提供灵活高效、性能超群的异构计算基础设施。
推荐阅读
- FunCDN:亚太CN2-GIA全优化网络5Gbps防御@100G月流量,国内全高防BGP优化网络/欧美CN2普防优化网络350Gbps防御@100G月流量
- 翼龙云Yilongcloud-阿里云CDN内容分发加速服务