神经网络与深度学习-笔记(1)——第四周

对数回归与多分类回归

       从概率角度二分类问题可使用条件概率描述:

因为是二分类,可假设输出为{0,1}。

        重新修改指标函数:

假设各样本相互独立,即服从伯努利(Bernoulli)分布。则的合理估计值应当是让所有样本事件产生的几率最大,即应当是极大似然的,因此取似然函数: 

感知机模型

        感知机(Perceptron)是在1957年时由Rosenblatt提出的,可以解决线性分类问题,是神经网络和支持向量机的基础。感知机可以用来解决线性分类问题:

 

感知机原理

        在方程为上的一点(x0,y0),到直线的距离为:

 

训练过程

        线性可分参数迭代过程:

线性不可分参数迭代过程:

 感知机与神经元类比

多层感知机

XOR问题

        线性不可分问题:无法进行线性分类。Minsky 1969年提出XOR问题:

 多层感知机
          解决方案:使用多层感知机
        • 在输入和输出层间加一或多层隐单元,构成多层感知器(多层前馈神经网络)。
        • 加一层隐节点(单元)为三层网络,可解决异或( XOR )问题由输入得到两个隐节点、一个输出层节点的输出:

        三层感知器可识别任一凸多边形或无界的凸区域。
        更多层感知器网络,可识别更为复杂的图形。
        多层感知器网络,有如下定理:
        定理1:
        若隐层节点(单元)可任意设置,用三层阈值节点的网络,可以实现任意的二值逻辑函数。
        定理2:
        若隐层节点(单元)可任意设置,用三层S型非线性特性节点的网络,可以一致逼近紧集上的连续函数或按 范数逼近紧集上的平方可积函数。


多层前馈网络
        多层感知机(MLP)是人工神经网络中的一种,属于前馈神经网络的范畴。它由至少三层构成:输入层、一个或多个隐藏层以及输出层。在多层感知机中,信息的流动是单向的,从输入层流向隐藏层,然后到达输出层。

        输入层负责接收外部输入的数据,并将其传递给隐藏层。每个隐藏层的神经元会对输入数据进行加权求和,并加上一个偏置项,然后通过激活函数处理得到该神经元的输出。这个输出又会作为下一层神经元的输入。隐藏层可以有多个,它们的作用是提取输入数据的特征并进行非线性变换。

        输出层的神经元根据前一层的输出计算最终结果,同样涉及加权求和、偏置和激活函数。多层感知机的输出可以是分类标签、数值预测或者其他类型的数据。

        多层感知机的学习过程通常采用反向传播算法,该算法通过计算损失函数的梯度,并根据梯度下降原则调整网络中的权重和偏置,以最小化输出误差。

        全连接网络是多层感知机的一种特殊形式,其中除了输入层之外,每一层的神经元都与前一层的所有神经元相连。这种连接方式使得网络能够捕捉到输入数据之间的复杂关系。

 

  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值