python-机器学习打卡(六)--监督学习(五)--神经网络

神经网络

这里讨论关于多层感知机(multilayer perceptron,MLP),MLP被称为前馈神经网络,有时也叫神经网络。

神经网络模型

MLP可以被看做是广义的线性模型,执行多层得到的结论。
对象与线性回归公式
y ^ = W ∗ X + b = w [ 0 ] ∗ x [ 0 ] + w [ 1 ] ∗ x [ 1 ] + ⋅ ⋅ ⋅ + w [ p ] ∗ x [ p ] + b \hat{y} =W*X+b= w[0]*x[0]+w[1]*x[1]+···+w[p]*x[p]+b y^=WX+b=w[0]x[0]+w[1]x[1]++w[p]x[p]+b
简单来说,线性模型的结果 y ^ \hat{y} y^就是将输入的 x x x加权求和,权重系数为 w w w,如下图所示
在这里插入图片描述
上图中左侧节点代表一个输入特征,连线代表学到的系数,右侧节点代表输出。

而在MLP中,则是多次重复上述的加权求和,如下图所示,中间hidden layers表示中间过程的隐藏单元,MLP的输出就是这些隐藏单元的加权求和。
在这里插入图片描述
这个模型则需要学习更多的权重系数,从数学角度看,计算一系列加权求和和计算一个加权求和是完全相同的。但是为了让模型更加强大,通常会在隐藏单元加权求和后应用一个非线性函数(激活函数)----通常是校正线性单元(ReLU)或者正切双曲线(tanh),使用非线性函数的输出进行加权求和。

对于上述小型神经网络,输出值 y ^ \hat{y} y^的公式如下:

h [ 0 ] = w [ 0 ] ∗ x [ 0 ] + w [ 0 ] ∗ x [ 1 ] + w [ 0 ] ∗

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值