对于两层的浅层神经网络公式总结

两层浅层神经网络

第一层中用到的函数

一次线性方程
Z 1 = W 1. X + b 1 Z1=W1.X+b1 Z1=W1.X+b1
第一层的非线性激活函数为tanh,公式为:
A 1 = σ ( Z 1 ) = e Z 1 − e − Z 1 e Z 1 + e − Z 1 A1=\sigma(Z1)=\frac{e^{Z1}-e^{-Z1}}{e^{Z1}+e^{-Z1}} A1=σ(Z1)=eZ1+eZ1eZ1eZ1
等同于:
A 1 = t a n h ( Z 1 ) A1=tanh(Z1) A1=tanh(Z1)
tanh函数的导数为:
T ′ ( x ) = 1 − T 2 ( x ) T'(x)=1-T^2(x) T(x)=1T2(x)

第二层

一次线性方程
Z 2 = W 2. A 1 + b 2 Z2=W2.A1+b2 Z2=W2.A1+b2
第二层用的激活函数为非线性激活函数sigmoid
sigmoid函数的公式为:
A 2 = σ ( Z 2 ) = 1 1 + e − Z 2 A2=\sigma(Z2)=\frac{1}{1+e^{-Z2}} A2=σ(Z2)=1+eZ21
等同于
A 2 = s i g m o i d ( Z 2 ) A2=sigmoid(Z2) A2=sigmoid(Z2)
对于sigmoid函数对Z2求导公式为:
f ( x ) = 1 1 + e − x = ( 1 + e − x ) − 1 f(x)=\frac{1} {1+e^{-x}}=(1+e^{-x})^{-1} f(x)=1+ex1=(1+ex)1
f ′ ( x ) = 1 1 + e − x ( 1 − 1 1 + e − x ) f'(x)=\frac{1}{1+e^{-x}}(1-\frac{1}{1+e^{-x}}) f(x)=1+ex1(11+ex1)
= f ( x ) ( 1 − f ( x ) ) =f(x)(1-f(x)) =f(x)(1f(x))

用到的其他函数

1、对数似然损失函数

2、平方差损失函数

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yuejich

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值