- 博客(6)
- 收藏
- 关注
原创 pytorch转caffe步骤
写在前面主要记录一下如何用pycaffe写prototxt,以及按pytorch结构写prototxt过程中遇到的坑。步骤先把pytorch的参数权重存起来,例如存到npy文件里对batch normalization层的权重进行融合(未确定是否必要,似乎只是为了节省内存)建立caffe的.prototxt文件,即按照pytorch的网络架构写出caffe的架构(目前只打算写一下这个,...
2019-06-11 15:21:17 19704 17
原创 tensorflow的命名域问题:tf.Variable与tf.get_variable
写在前面tensorflow的命名问题断断续续接触了又忘记,干脆写一篇博来记录一下好啦。其实极客学院里面也回答的挺清楚的了:极客学院:共享变量, 但它考虑了更多种情况,自己还是想以更简单的方式去记忆。tf.Variable:创建变量这个是最简单粗暴的创建变量方式,如果不停地调用它,是会产生不同的变量的。举个更简单的例子:import tensorflow as tf#tf.Variabl...
2019-03-02 16:27:03 536
原创 python安装pytorch方法
其实就一个传送门:https://pytorch.org/按自己的要求去选就好了,自动告诉你要输入什么命令,超简单!现在pytorch也支持windows啦!
2018-05-18 15:57:19 30279
原创 Windows7下用Anaconda3安装python2
win7,Anaconda3下安装python2,亲测非常简单:1. 打开Anaconda Navigator的Environments,点击Create(如下图所示,图片来源于网络,侵删)2. 在弹出的窗口里选择“python2.7”(如下图所示,图片来源于网络,侵删)3. 在newpy2这个环境里,打开spyder(左上角Applications on选择 newpy2,然后打开下面这个spy...
2018-05-16 11:07:30 1043
原创 迁移学习--深度迁移学习
文章:How transferable are features in deep neural networks代码部分:http://yosinski.com/transfer这篇文章里的迁移我认为是transductive TL层面上的迁移(transductive TL具体可以看我这篇文章:迁移学习--综述)也就是domain不同,但是task相同。但是transductive TL里面还提...
2018-04-12 11:33:58 35614 6
原创 迁移学习--综述
最近开始入迁移学习的坑。在此必须感谢一下知乎用户@王晋东不在家,他做了超级详细的关于迁移学习的归纳整理,从最新文章到可以上手的代码,应有尽有:http://transferlearning.xyz/开始正文!文章:A Survey on Transfer Learning这篇文章可以说是十分经典了,对迁移学习的历史、分类、遇到的挑战都做了很详尽的解释。1. 迁移学习的重要性传统的机器学习/数据挖掘...
2018-04-11 21:06:48 53981 7
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人