神经网络:学习(2)

初始化,不能一开始全部全设成0,因为这样的话,隐层结点就会变得全部一样,体现不出神经网络多层多结点的优越性。

咦~如果层数很多的话,超过三层,那么有个潜规则就是中间的几层的隐节点数一般都是一样大小

隐节点数稍微大点输入结点个数这个是极好的。

下面就是几个步骤


第一步,随机化参数

第二步,前向得到一个结果。

第三步,计算成本函数

第四步,反向传播计算这个theta


第五步,就是用梯度检验,看下梯度有没有写错。

第六步,用一些很厉害的算法来计算出最小化J(theta)之后的theta值是多少。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值