如何配置一台深度学习主机
发布网友
发布时间:2022-04-22 00:17
我来回答
共2个回答
热心网友
时间:2022-06-30 09:04
搞AI,谁又能没有“GPU之惑”?下面列出了一些适合进行深度学习模型训练的GPU,并将它们进行了横向比较,一起来看看吧!
CPU与GPU对比
CPU是一个有多种功能的优秀领导者。它的优点在于调度、管理、协调能力强,计算能力则位于其次。而GPU相当于一个接受CPU调度的“拥有大量计算能力”的员工。
下图是处理器内部结构图:
DRAM即动态随机存取存储器,是常见的系统内存。
Cache存储器:电脑中作为高速缓冲存储器,是位于CPU和主存储器DRAM之间,规模较小,但速度很高的存储器。
算术逻辑单元ALU是能实现多组算术运算和逻辑运算的组合逻辑电路。
当需要对大数据bigdata做同样的事情时,GPU更合适,当需要对同一数据做很多事情时,CPU正好合适。
GPU能做什么?关于图形方面的以及大型矩阵运算,如机器学习算法等方面,GPU就能大显身手。
简而言之,CPU擅长统领全局等复杂操作,GPU擅长对大数据进行简单重复操作。CPU是从事复杂脑力劳动的教授,而GPU是进行大量并行计算的体力劳动者。
深度学习是模拟人脑神经系统而建立的数学网络模型,这个模型的最大特点是,需要大数据来训练。因此,对电脑处理器的要求,就是需要大量的并行的重复计算,GPU正好有这个专长,时势造英雄,因此,GPU就出山担当重任了。
太长不看版
截至2020年2月,以下GPU可以训练所有当今语言和图像模型:
RTX 8000:48GB VRAM,约5500美元RTX 6000:24GB VRAM,约4000美元Titan RTX:24GB VRAM,约2500美元
以下GPU可以训练大多数(但不是全部)模型:RTX 2080 Ti:11GB VRAM,约1150美元GTX 1080 Ti:11GB VRAM,返厂翻新机约800美元RTX 2080:8GB VRAM,约720美元RTX 2070:8GB VRAM,约500美元
以下GPU不适合用于训练现在模型:RTX 2060:6GB VRAM,约359美元。
在这个GPU上进行训练需要相对较小的batch size,模型的分布近似会受到影响,从而模型精度可能会较低。
GPU购买建议
RTX 2060(6 GB):你想在业余时间探索深度学习。RTX 2070或2080(8 GB):你在认真研究深度学习,但GPU预算只有600-800美元。8 GB的VRAM适用于大多数模型。RTX 2080 Ti(11 GB):你在认真研究深度学习并且您的GPU预算约为1,200美元。RTX 2080 Ti比RTX 2080快大约40%。Titan RTX和Quadro RTX 6000(24 GB):你正在广泛使用现代模型,但却没有足够买下RTX 8000的预算。Quadro RTX 8000(48 GB):你要么是想投资未来,要么是在研究2020年最新最酷炫的模型。NV TESLA V100 (32GB):如果你需要在NVIDIA数据中心使用CUDA,那么TESLA就是必选品了。图像模型
内存不足之前的最大批处理大小:*表示GPU没有足够的内存来运行模型。
性能(以每秒处理的图像为单位):*表示GPU没有足够的内存来运行模型。
语言模型
内存不足之前的最大批处理大小:*表示GPU没有足够的内存来运行模型。
性能:* GPU没有足够的内存来运行模型。
使用Quadro RTX 8000结果进行标准化后的表现
图像模型
语言模型
结论
语言模型比图像模型受益于更大的GPU内存。注意右图的曲线比左图更陡。这表明语言模型受内存大小*更大,而图像模型受计算力*更大。具有较大VRAM的GPU具有更好的性能,因为使用较大的批处理大小有助于使CUDA内核饱和。具有更高VRAM的GPU可按比例实现更大的批处理大小。只懂小学数学的人都知道这很合理:拥有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容纳3倍大的批次。比起其他模型来说,长序列语言模型不成比例地占用大量的内存,因为注意力(attention)是序列长度的二次项。
附注:测试模型
图像模型:
语言模型:
云轩Cloudhin专注Deep learning和高性能计算服务器定制,针对主要深度学习框架(如TensorFlow、Caffe 2、Theano或Torch)进行了优化和设置,在桌面上即可提供强大的深度学习功能。
请点击输入图片描述
请点击输入图片描述
热心网友
时间:2022-06-30 09:04
这不配置出来的,是需要研发与创造的。