Stanford机器学习---第七讲. 神经网络的学习 Neural Networks learning

==================Cost Function===============

1.一些基本符号


2.COST函数



================Backpropagation Algorithm=============

1.要计算的东西

2.向前传递向量图,但为了计算上图的偏导,要用到后向传递算法

3.后向传递算法


4.小题目

==============Backpropagation Intuition==============

1.前向计算与后向计算很类似

2.仅考虑一个例子,COST函数化简

3.倒着算theta


=======Implementation Note: Unrolling Parameters======= 

1.参数的展开

2.学习算法

============Gradient Checking====================

1.梯度的数字计算

2.所有的梯度的近似计算




3.回退计算而不是梯度计算的本质原因

4.实现注意点

============Random Initialization=============

1.zero initial 对神经网络不适合

2.随机对称初始化

==========Putting It Together==============

1.隐含层越多,则计算量越大。隐含层节点相同比较好。

2.训练神经网络的步骤,其实跟回归很像。关键是用后退算偏导。











评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值