神经网络

神经网络可以解决当特征太多,计算负荷过大的问题.比如在处理图像问题时,一张图片每一个像素都是一个特征,用神经网络就比较合适.
神经网络起源于80~90年代,但是在90年代后期就减少了.而现在神经网络又再次兴起,原因是计算机运行速度变快,解决了神经网络计算量偏大的问题.
每个神经元都可以被认为是一个处理单元/神经核(processing unit/ Nucleus),它含有许多输入/树突(input/Dendrite),并且有一个输出/轴突(output/Axon)
这里写图片描述

神经网络模型建立在很多神经元上,每一个神经元又是一个学习模型,也称为激活单元(activation unit),在神经网络中参数 θ θ 由被称为权重(weight).
这里写图片描述

其中 x1,x2,x3 x 1 , x 2 , x 3 是输入单元(input units),这个是原始的特征
a1,a2,a3 a 1 , a 2 , a 3 是中间单元,
最后是输出单元,计算 hθ(x) h θ ( x ) .
每一层的输出变量都是下一层的输入变量.第一城(layer1)是输入层(input layer),最后一层(layer3)称为输出层(output layer),中间一层称为隐藏层(hidden layers).每一层都增加一个偏差单元(bias unit)
这里写图片描述
a(j)i a i ( j ) 代表第j层的第i个激活单元.
θ(j) θ ( j ) 代表从第j层映射到第j+1层时的权重的矩阵,例如 θ(1) θ ( 1 ) 代表从第一层映射到第二层的权重的矩阵.其尺寸为以j+1层激活单元数量为行数,以第j层的激活单元数加1为列的矩阵.例如,上图所示矩阵 θ(1) θ ( 1 ) 的尺寸为3*4.
对于上图,激活单元和输出分别是:
这里写图片描述

每一个激活单元a都是由上一层所有的x和每一个x所对应的 θ θ 决定的.我们把这样的从左到右的神经网络算法称为前向传播算法(Forward Propagation).
这里写图片描述

神经网络与逻辑回归
这里写图片描述
右半部分其实就是以 a0,a1,a2,a3 a 0 , a 1 , a 2 , a 3 按照逻辑回归的方式输出 hθ(x) h θ ( x ) .其实神经网络就像是逻辑回归,只不过我们把逻辑回归的输入向量变成了隐藏层的激活单元的输出结果.
我们可以把 a0,a1,a2,a3 a 0 , a 1 , a 2 , a 3 看成更为高级的特征值,也就是 x0,x1,x2,x3 x 0 , x 1 , x 2 , x 3 的进化体,它是由x与 θ θ 决定的.

直观理解
在逻辑回归中,我们只能使用原始特征 x0,x1,x2,x3 x 0 , x 1 , x 2 , x 3 ,而在神经网络中原始特征只是输入层,最后做预测的是根据隐藏层处理之后的新特征.
在神经网络中,单层神经网络(无中间层)的计算可用来表示逻辑运算,比如逻辑AND.逻辑OR.
AND
这里写图片描述
所以 g(x) g ( x ) 的图像是:
这里写图片描述
OR
这里写图片描述

二元逻辑运算符(Binary logical operators)当输入特征为布尔值(0或1)时,我们可以用一个单一测激活层作为二元逻辑运算符,为了表示不同的运算逻辑,只需要选择不同的权重即可.
逻辑与(AND)
这里写图片描述
逻辑或(OR)
这里写图片描述
逻辑非(NOT)
这里写图片描述

将表示:
AND
(NOT x1 x 1 ) AND(NOT x2 x 2 )
OR的神经元进行组合

综合以上逻辑判断表示XNOR
这里写图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值