神经网络动物园-逻辑回归-激活函数-梯度下降-反向传播-链式法则

转载源自:

【日更】子豪兄深度学习与神经网络系列教程_哔哩哔哩_bilibili

神经网络动物园链接:

The Neural Network Zoo - The Asimov Institute

其中很多诸如逻辑回归,单层感知机,多层感知机,循环神经网络,深度卷积神经网络,反卷积网络,马尔科夫链,生成对抗网络,胶囊网络,深度残差网络等神经网络

 可视化逻辑回归以及sigmoid激活函数和Relu激活函数:链接:

A Visual And Interactive Look at Basic Neural Network Math – Jay Alammar – Visualizing machine learning one concept at a time. (jalammar.github.io)

通过泰坦尼克号的数据来通过逻辑回归来预测是否生还,网站里可以自己试一试sigmoid函数以及Relu函数的数据变化得到的函数值.

线性回归和梯度下降链接:

A Visual and Interactive Guide to the Basics of Neural Networks – Jay Alammar – Visualizing machine learning one concept at a time. (jalammar.github.io)

注:线性回归的思路,初始化w和b,也就是weight和bias,权重和截距,然后通过梯度下降算法,不断地更新权重,也可以在里面看到损失函数曲线和权重偏执曲线。通过初始化权重计算得到预测y1,将y1与实际值y计算均方误差,通过均方误差函数对不同的w求导数,更新参数更可能的使均方误差最小。

下面还有个多分类网络,使用到了softmax函数。

softmax函数的作用:在线性回归网络中,得到的softmax前的神经元得到的数值是各种各样的,softmax就是将这些神经元的数值进行归一化,得到的相对应的神经元是一个加一起等于1的概率神经元,便于后面取概率最大的神经元作为预测结果。

反向传播-链式法则

 

Y就是通过一系列wx+b,加上relu()函数得到的,若要更新W1的值,使用上述Y对W1的导数再乘以学习率得到步长,这个步长就是梯度下降的步长,在每一次迭代的时候更新W1的值。

本期到此结束啦~

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值