自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Pytorch tutorials 实战教程(1)——训练自己的数据集(代码详解)

最开始入坑的时候使用的是caffe,前一段时间换了使用主流框架的keras(Tensorflow as backward),但是keras确实封装得太好了,一个高级的API对于我这种编程渣渣来说反而上手有些不习惯,在写了一段时间的代码以后开始使用pytorch(反正老板要求了两个框架都要熟练那就都学啦),对于源码部分确实友好了很多,尽管需要自己定义前向过程但是也很简单啦~先给两个git...

2018-03-28 10:45:19 10118 1

原创 知识蒸馏(Distillation)相关论文阅读(3)—— FitNets : Hints for Thin Deep Nets

知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...

2018-03-28 00:13:03 6173 2

原创 知识蒸馏(Distillation)相关论文阅读(2)——Cross Model Distillation for Supervision Transfer

知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...

2018-03-27 21:14:59 3390 1

原创 踩坑笔记之Pytorch利器:Pycharm(安装Pycharm破解以及创建快捷方式)

刚刚深度学习入门的时候一直用的Anaconda自带的Jupyter notebook编写程序,那个时候因为框架用的caffe,jupyter可以一段一段的运行调试,现在使用Pytorch,安利一个pytorch利器:Pycharm。它和Matlab比较相似,可以单步调试,关键是有workspace查看中间变量,方便编程小白理解代码中函数的作用意义,好啦废话不多开始安装,安装过程还是非常简单的。...

2018-03-24 11:35:29 5124

原创 知识蒸馏(Distillation)相关论文阅读(1)——Distilling the Knowledge in a Neural Network(以及代码复现)

———————————————————————————————《Distilling the Knowledge in a Neural Network》Geoffrey Hintion以往为了提高模型表现所采取的方法是对同一个数据集训练出多个模型,再对预测结果进行平均;但通常这样计算量过大。引出一种模型压缩技术:Distillation;以及介绍了一种由一个或多个完整模型(full models...

2018-03-21 21:46:25 9923 11

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除