自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 什么时候可以将神经网络的参数全部初始化为0?

用SGD训练神经网络时, 怎样决定初始化参数的方式? 主要有两个考虑点: 一: 最终是否能得到想要的学习结果, 即是否能得到一个符合预期目标的分类器;二: 训练时间, 好的参数初始化可以有效缩短训练时间, 如预训练.不加思考时, 将所有参数都初始化为0是最省力的做法. 有些情况下可行, 但大部分情况下会导致学习失败, 得不到可用的模型.先看最简单的例子: 用逻辑回归算法识别手写数字MNIST. 逻辑

2017-04-20 00:47:23 4796

原创 RELU

优点1:Krizhevsky et al. 发现使用 ReLU 得到的SGD的收敛速度会比 sigmoid/tanh 快很多(如上图右)。有人说这是因为它是linear,而且梯度不会饱和 优点2:相比于 sigmoid/tanh需要计算指数等,计算复杂度高,ReLU 只需要一个阈值就可以得到激活值。 缺点1: ReLU在训练的时候很”脆弱”,一不小心有可能导致神经元”坏死”。举个例子:由于ReL

2017-04-19 23:39:23 2589

原创 windows系统问题汇总(持续更新)

最近经常装系统,Ubuntu win7都装过,以下是遇到的坑,此文作为记录。 写在前面,纯净window系统请在http://www.itellyou.cn/ MSDN我告诉你,中下载,关于ed2k传输协议,可以使用百度云网页版离线下载搭配IDM下载即可。安装win7后,所有usb设备无法使用 UEFU的Bios,开机后按DEL进入Bios,在“集成外设”中,将“支持传统USB规格设备”设置为

2017-04-10 14:35:12 402

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除