- 博客(4)
- 资源 (2)
- 收藏
- 关注
原创 pytorch 与 BatchNormalization
BatchNormallization是神经网络中的一个正则化技术,可以加速网络的收敛,并且在一定程度上解决深度网络“梯度弥散”的问题。它本是数据预处理的一种方法,google的研究人员将它应用在了神经网络中。论文地址:https://arxiv.org/abs/1502.03167 理论pytorch batch normalization:
2017-12-21 12:54:55 8080 1
原创 torch 踩坑小结
近期使用torch写神经网络的框架,初次接触,踩了不少坑,在这里总结一下。tensor typetorch中tensor是有类型的,默认是DoubleTensor
2017-12-09 23:54:24 6525
原创 caffe on windows 安装
最近准备入坑caffe,操作系统是windows,记录下安过程,基本上就是按照github上的的安装步骤来的。下载代码caffe: a fast open framework for deep learning 依赖项安装python路径运动demo
2017-12-01 22:51:59 1004
经典js库,scriptaculous-js-1.9.0
2014-08-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人