提示:
如果你用的是GPU,那就点击本页面右上角的X,本文针对的是CPU
环境
anaconda
python 3.7
tensorflow 1.13.1
numpy 1.16.0
背景:
在学校做毕设,是基于树莓派小车云边协同行人跟随。我用的是yolov3 tiny算法作为检测行人的算法(因为笔记本是轻薄本,性能很差)。现在基本做完了,但是yolov3t算法在我的笔记本上的运行速度是0.25s/帧,显示画面还是很卡的。于是乎我这几天一直在找比yolov3t更轻便的算法,但是没啥收获,自我感觉这个网络已经很简单了。
期间,由于我的网络只用于检测人,所以修改了输出层(减少了点参数,没准速度快一丢丢),到网吧用显卡添加数据集去训练,但是发现网吧的显卡加速并不快,也就比用CPU快一倍的样子,以前训练VGG那可是快了十倍不止啊,就很奇怪,看着截止时间要30h,遂放弃。
就在这一筹莫展,本着“差不多就行了”的思想准备放弃,收拾东西回家过年之时。我突然留意到每次运行代码时出现的一段话,大意就是我的CPU支持AVX、AVX2编译巴拉巴拉,我百度一搜,发现很多都是屏蔽这个消息的方法,但是有人说可以通过安装别人处理好的tensorflow来让CPU支持这个,而且还可以加速,还可以加速!
我跟着方法,去Github下载,但是Github上下载都是下载整个仓库,但是这也太大了,我又没翻过墙,下载速度只有2