深度学习工作站配置推荐

本文详细分析了深度学习工作站的配置需求,强调了Nvidia GPU的重要性。推荐了从入门到专业级别的配置方案,包括CPU、GPU、内存、硬盘等关键硬件的选择。指出CPU的核心数、显卡的显存大小、内存容量、SSD硬盘的必要性,以及电源稳定性对长期运行的重要性。还讨论了共享服务器的配置,以满足多用户和长时间训练的需求。
摘要由CSDN通过智能技术生成

在具体的论述之前,先说几个结论:
1.目前只有Nvida GPU能完整的支持深度学习,所以请购买较新的nvidia显卡(pascal、turing架构以上)
2.GPU上的投资回报比基本呈线性变化,因此可以按照自己的需要配置不同GPU。
3.保持工作站长期稳定工作需要一个靠谱的电源,所以在电源选择上追求稳定。
4.在现有预算下,GPU>CPU=RAM>=SSD
5.云服务用起来简单,长期使用却十分昂贵,所以我们要有自己的硬件设施。

1.需求分析

(一)为什么要为深度学习专门配置工作站(服务器)?

1.深度学习需要大量的并行计算资源,而且动辄计算几天甚至数周,而显卡(GPU)恰好适合这种工作,提供几十上百倍的加速,性能强劲的GPU能在几个小时内完成原本CPU需要数月完成的任务,所以目前深度学习乃至于机器学习领域已经全面转向GPU架构,使用GPU完成训练任务。

2.如今即使使用GPU的深度学习任务也要持续数天乃至数月(取决于数据规模和深度学习网络模型),需要使用单独的设备保障保证训练任务能够7x24小时长期稳定运行。

3.独立的深度学习工作站(服务器)可以方便实现实验室计算资源共享,多用户可以在个人电脑编写程序,远程访问到深度学习服务器上排队使用计算资源,减少购买设备的开支并且避免了在本地计算机配置复杂的软件环境。

(二)深度学习工作站配置要求

深度学习任务对计算机性能要求较高,各硬件主要完成以下操作:

4064394-a1ee731914d18a84.jpg
深度学习计算过程

上述图示,深度神经网络计算大致流程,下面通过深度神经网络计算环节,分析核心硬件配置理想要求:
4064394-20dc7a2adfb4518c.jpg
各硬件性能要求

CPU:
因为主要使用显卡进行cuda计算,因此对CPU的要求并不是很高,频率越高、线程数越多越好,一般最低要求cpu核心数大于显卡个数。其中一个制约因素:cpu的最大PCI-E 通道数。每张显卡占用16条pcie通道才能达到最大性能,而单cpu最大支持40条pcie,也就是即使有4个pcie x16接口,只能最多达到2路x16加一路x8,插上的显卡不能发挥全部性能。不过,主板芯片组其实也可以扩充一部分pcie通道。(x99主板可以扩宽2.0的8lanes,z170可以扩充3.0的20lanes)

显卡:
深度学习需要较强性能的显卡进行复杂的单精度运算,通常神经网络需要大量显存和内存资源,因此需要8GB以上显存才能运行大规模的深度卷积网络,执行计算机视觉任务,一般选择GTX1070以上

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值