深度学习用GPU好还是CPU好?


(一)市场上提供的深度学习硬件配置有严重缺陷深度学习太火了卖深度学习的计算机、服务器、工作站,五花八门到处都是卖家,到处都是专家似乎,只要机器裏能插GPU插的越多性能越强,实际情况是:  


反馈1: 为什么4块GPU机器比人家2块GPU机器还慢
反馈2: 为什么同样8块GPU比人家8块GPU卡,还慢
反馈3: 为什么2塊GPU卡一个快一个慢
反馈4: 为什么这么多GPU卡,计算过程还是很慢
反馈5: 我的机器噪音巨大无法放到办公环境,怎么在静音环境下运行
误區1:只要有足够多GPU卡性能更强大
误区2:同样数量GPU卡,谁便宜、谁性价比更高就最好选择
误区3:CPU核数,频率不重要把钱砸到GPU上就行
误區4:硬盘和内存不重要,最重要的是GPU卡越多越好
困惑1: 上述反馈是什么原因造成的
困惑2:市场谁家能给出更好的配置架构

问题来了,深度學习需要什么样的硬件配置才是最合理最高效的

(二)深度学习硬件架构分析首先一定从深度学习计算过程分析开始


上述图示,深度神經网络计算大致流程下面通过深度神经网络计算环节,分析核心硬件配置理想要求

CPU(单核计算模式)

CPU频率越高处理越快

增加GPUCPU核数大于GPU数量内存比显存大

数据结果->内存

常见计算机硬件配置上的低级错误:
1.为了省钱,硬盘用普通PC硬盘寿命短,带宽低或数量不够,
2. 为叻节省CPU用的最多的是Xeon E5 2620v(8核2.1GHz),频率太低数据预处理太慢,成为整个计算的最大瓶颈
3.为了把钱用到“刀刃上”—尽可能多配GPU卡,但昰总显存比内存容量大不合理,或者CPU核数低于GPU卡数这些都会造成计算过程资源耗尽,数据来回从虚拟内存导入计算变慢

我要回帖

 

随机推荐