【亲测】跑深度学习模型:笔记本的RTX3060 6G vs Google colab免费GPU 速度比较

简单测评

笔记本:thinkbook16p RTX3060标配

模型是FCN,跑的小数据集, 用的tensorflow
同样的数据和模型参数,我们来看看在两块GPU上的表现如何吧:

1、本地 RTX3060 6G (残血版,105w?):


2、Google Colab 分配的免费GPU:

在这里插入图片描述
【结果】除了第一个epoch速度不太稳定可以忽略:
本地RTX3060:8s /epoch
Colab免费GPU:6s /epoch
本地CPU:24s /epoch

(上一台笔记本的英特尔i5-8265U CPU 更慢,大概是50+s/epoch)

补充:偶尔本地GPU的速度能达到2s /epoch,但大部分情况下仍是8s/epoch
在这里插入图片描述
结论就是本地3060不如Colab上白嫖的GPU速度快 (真香!),不过没有差太多。但是Colab不好的一点就是太容易断连,这个真的很头疼。
对于本地的RTX3060, 我发现一个kernel只能开一个页面,再开第二个页面。训练模型时必崩溃。。必须restart kernel才行,可能是显存小的原因?总之感觉本地的这个3060局限还是挺多的,后面租GPU似乎是避免不了了。

但是目前对我来说,这块显卡还是很有用的,因为目前我的数据集和使用的模型都没有确定下来,还在探索中,使用租用的GPU实在是不方便,一个是需要频繁更换数据,另一个是配置环境。不得不说,Colab在配置环境这块真的很方便,库比较齐全,基本不需要额外安装。
当然,也不是只为了这个显卡才换的电脑,比如16寸的大屏是真的香(之前用了4年的14寸),除了键盘比较一言难尽外整体还是不错的。

ps: 笔记本最近刚降了一波价哦,现在某东和联想官网7999就能买到了,2月初的时候还是8499,我还是买早了(心痛)

=====================================
【更新】
免费GPU首推kaggle!p100 16G每周至少30小时,比Colab免费分配的Tesla T4快了好几倍。然后避坑Colab pro(在淘宝充的80多一个月)分配的GPU(Tesla v100 sxm2 )开到高配都和p100相差不大,体感甚至弱一些,而且每个月都有时间(算力)限制,注意是每个月(开最高配置,没仔细算过,估计12小时都跑不到。。性价比极低)
kaggle上除了不能改python版本和存储输出文件比较麻烦外,真的很良心了

  • 8
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值