服务器(服务器配置)
188
2022-07-28
gpu服务器有哪些分类呢?GPU擅长处理大规模深度合作学习能力训练方法以及其他部分典型HPC任务。经常有朋友在咨询公司如何有效配置可以用于深度学习或计算加速的GPU服务器,今天我们就来看看吧!
GPU服务器分类:
首先介绍下常见的GPU和GPU服务器。以NVIDIA Tesla系列GPU为例,按总线数据接口不同类型企业可以发展分为NV-Link接口技术以及国内传统PCI-e总线进行两种。
1、Nv-link接口类型的gpu:典型的代表是NVIDIA V100,使用SXM2接口,DGX-2的接口SXM3。
2、NV-Link总线技术标准的GPU服务器
DGX是由NVIDIA设计的超级计算机的典型代表。DGX超级计算机不仅提供硬件,以及相关的软件和服务。
3、传统PCI-e总线数据接口的GPU
NVIDIA特斯拉GPU加速对主流专业计算主要是:P4/P40(P指的是前一代PASCAL架构的开头),P100,V100和图灵架构特斯拉T4那些段落。且其中只有薄薄槽P4和T4,常用推理,现在有成熟的识别模型和推理。
4、传统的pci-e总线gpu服务器分为两类:
(1)OEM服务器:通过NVIDIA官方的测试和制造商的认证。比如,广泛的技术不仅NVIDIA的合作伙伴,已成为公司加快NVIDIA潜在的AI计划成员;
(2)非OEM服务器,也包括企业很多不同种类
选择的基本原则:选择GPU服务器时首先要进行考虑企业业务发展需求来选择一个适合的GPU型号。在HPC高性能数据计算中还需我们要根据不同精度来选择,比如他们有的高性能计算方法需要双精度,这时如果可以使用P40或者P4就不合适,只能通过使用V100或者P100,同时也会对显存容量有要求,比如石油或石化勘探类的计算技术应用对显存要求比较高,还有些对总线控制标准有要求,因此本文选择GPU型号要先看业务市场需求。
GPU服务器人工智能领域应用也较多。GPU虚拟化在场景中要求更高。根据数量,需要将GPU服务器虚拟出30或60个虚拟GPU,因此批量培训需要GPU,通常使用V100进行GPU培训。模型训练需要推理,所以推理一般采用P4或T4,少数情况为V100。
发表评论
暂时没有评论,来抢沙发吧~