- 博客(5)
- 收藏
- 关注
原创 Pytorch tutorials 实战教程(1)——训练自己的数据集(代码详解)
最开始入坑的时候使用的是caffe,前一段时间换了使用主流框架的keras(Tensorflow as backward),但是keras确实封装得太好了,一个高级的API对于我这种编程渣渣来说反而上手有些不习惯,在写了一段时间的代码以后开始使用pytorch(反正老板要求了两个框架都要熟练那就都学啦),对于源码部分确实友好了很多,尽管需要自己定义前向过程但是也很简单啦~先给两个git...
2018-03-28 10:45:19 10118 1
原创 知识蒸馏(Distillation)相关论文阅读(3)—— FitNets : Hints for Thin Deep Nets
知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...
2018-03-28 00:13:03 6173 2
原创 知识蒸馏(Distillation)相关论文阅读(2)——Cross Model Distillation for Supervision Transfer
知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...
2018-03-27 21:14:59 3390 1
原创 踩坑笔记之Pytorch利器:Pycharm(安装Pycharm破解以及创建快捷方式)
刚刚深度学习入门的时候一直用的Anaconda自带的Jupyter notebook编写程序,那个时候因为框架用的caffe,jupyter可以一段一段的运行调试,现在使用Pytorch,安利一个pytorch利器:Pycharm。它和Matlab比较相似,可以单步调试,关键是有workspace查看中间变量,方便编程小白理解代码中函数的作用意义,好啦废话不多开始安装,安装过程还是非常简单的。...
2018-03-24 11:35:29 5124
原创 知识蒸馏(Distillation)相关论文阅读(1)——Distilling the Knowledge in a Neural Network(以及代码复现)
———————————————————————————————《Distilling the Knowledge in a Neural Network》Geoffrey Hintion以往为了提高模型表现所采取的方法是对同一个数据集训练出多个模型,再对预测结果进行平均;但通常这样计算量过大。引出一种模型压缩技术:Distillation;以及介绍了一种由一个或多个完整模型(full models...
2018-03-21 21:46:25 9923 11
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人