感知器与线性单元

感知器

  • 隐藏层:输入层和输出层之间的层叫隐藏层,隐藏层比较多(大于2)的神经网络叫做深度神经网络。

  • 感知器:神经元是神经网络的组成单元,神经元也叫感知器。一个感知器有如下组成部分:

    • 输入权值:一个感知器可以接收多个输入x,每个输入上有一个权值**w,此外还有一个偏置项**b;
    • 激活函数:f(z);
    • 输出:感知器的输出有下面公式(1)计算:
      y=f(wx+b)
  • 感知器训练算法:用来获取权重项和偏移项。首先,将权重项和偏移项初始化为0,然后利用下面的感知器规则迭代的修改 wi b ,直到训练完成。

    wwi+Δwi

    bb+Δb

    其中:

    Δwi=η(ty)xi

    Δb=η(ty)

    wi 是与输入 xi 对应的权重项, b 是偏置项。事实上,可以把b看作是值永远为1的输入所对应的权重。 t 是训练样本的实际值,一般称之为label。而是y感知器的输出值,根据公式(1)计算得出。 η 是一个成为学习速率的常数,其作于是控制每一步调整的权值。

  • 感知器不仅仅能实现简单的布尔运算(可以看做是一个二分类问题),他可以拟合任何线性函数,任何线性分类线性回归问题都可以用感知器来解决。

线性单元

y=h(x)=wx+b

  • 模型 y=h(x)=WT+b , 其中 b=w0x0 ,且 x0=1 .

  • 单个样本的误差

    e=12(yy)2
    y 表示训练样本的标记,即实际值,
    y
    表示由模型计算出的预测值。

  • 用所有样本的误差和来表示模型的误差E,如下:

    E=12(e(1)+e(2)+...+e(n))=12i=0n[y(i)y(i)]2

其中, y(i)=h(x(i))=WTx(i),x(i) 表示第 i 个训练样本的特征,y(i)表示对应的标记.

  • 目标函数

    E(w)=12i=0n[y(i)y(i)]2=12i=0n[y(i)WTx(i)]2

  • 梯度下降(上升)优化算法,随机梯度下降(上升)优化算法(SGD)

    xnew=xoldηf(x)

    其中,

    ηf(x)f(x)

  • 对于目标函数,有:

    wnew=woldηE(w)

    其中,

    E(w)=i=0n(y(j)y(j))x(j)

    即:
    wnew=wold+ηj=0n(y(j)y(j))x(j)

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值