UFLDL知识整理(1)

在学习吴恩达老师的UFLDL教程(非常感谢无私的翻译人员)时,发现有的知识点需多看几遍才理解下来。于是将有的知识点进行了整理和记录。
UFLDL教程链接

两种激活函数:

sigmoid函数 和 双曲正切函数tanh(x)
这里写图片描述
tanh(z)sigmoid[1,1]sigmoid[0,1]

f(z)=1/(1+exp(z))sigmoidf(z)=f(z)(1f(z))tanhf(z)=1(f(z))2sigmoidtanh.

前馈神经网络模型

特点是: 没有闭环或回路
这里写图片描述
像这种从输入层,一层一层的向输出层传播数据,称为 : 前向传播 。

代价函数

注意 1. 代价函数
这里写图片描述
这里注意:
J(W,b;x,y) J(W,b) 是不一样的。
文章上面明确指出,我们共有m个样本, J(W,b;x,y) 表示的某一个样本i 造成的误差。
J(W,b) 表示的m个样本造成误差的平均和。
J(W,b) 是所有样本 J(W,b;x,y) 的平均和(当然, J(W,b) 还加了一项正规化)

注意 2. 回归与分类
这里写图片描述
也就是在回归问题,要对输出值域规范化。
原因还没想清楚。

注意 3. 关于参数的初始化
这里写图片描述
能力尚浅,原因还没想清楚。

梯度下降法 最小化代价函数

这里写图片描述

在《机器学习基石》这门课程当中,讨论了梯度下降法。
其实就是迭代优化的思想。 wt+1=wt+ην 。其中 ην 一个表示方向,一个表示步长。他们怎么取值,见我的《机器学习基石》系列的 其中一节 (logisitic 回归 +极大似然法 + 梯度下降法 (迭代优化))

其中关键步骤是计算偏导数。我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法

反向传播算法(用于计算偏导数)

具体见教程,这里只说明
这里写图片描述
的推导过程。
这里写图片描述
这里写图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值