6.1 神经网络算法(Nerual Networks)(上)

1. 背景:

     1.1 以人脑中的神经网络为启发,历史上出现过很多不同版本

     1.2 最著名的算法是1980年的 backpropagation 

 

2. 多层向前神经网络(Multilayer Feed-Forward Neural Network)

     2.1 Backpropagation被使用在多层向前神经网络上

     2.2 多层向前神经网络由以下部分组成:

           输入层(input layer), 隐藏层 (hidden layers), 输入层 (output layers)

     2.3 每层由单元(units)组成

     2.4 输入层(input layer)是由训练集的实例特征向量传入

     2.5 经过连接结点的权重(weight)传入下一层,一层的输出是下一层的输入

     2.6 隐藏层的个数可以是任意的,输入层有一层,输出层有一层

     2.7 每个单元(unit)也可以被称作神经结点,根据生物学来源定义

     2.8 以上成为2层的神经网络(输入层不算)

     2.8 一层中加权的求和,然后根据非线性方程转化输出

     2.9 作为多层向前神经网络,理论上,如果有足够多的隐藏层(hidden layers) 和足够大的训练集, 可以模     

          拟出任何方程

 

3. 设计神经网络结构

     3.1 使用神经网络训练数据之前,必须确定神经网络的层数,以及每层单元的个数

     3.2 特征向量在被传入输入层时通常被先标准化(normalize)到0和1之间 (为了加速学习过程)

     3.3 离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值

          比如:特征值A可能取三个值(a0, a1, a2), 可以使用3个输入单元来代表A。

                    如果A=a0, 那么代表a0的单元值就取1, 其他取0;

                    如果A=a1, 那么代表a1de单元值就取1,其他取0,以此类推

 

     3.4 神经网络即可以用来做分类(classification)问题,也可以解决回归(regression)问题

          3.4.1 对于分类问题,如果是2类,可以用一个输出单元表示(0和1分别代表2类)

                                         如果多余2类,每一个类别用一个输出单元表示

                   所以输入层的单元数量通常等于类别的数量

 

          3.4.2 没有明确的规则来设计最好有多少个隐藏层

                    3.4.2.1 根据实验测试和误差,以及准确度来实验并改进

                  

4. 交叉验证方法(Cross-Validation)

          

                    

 

          K-fold cross validation 

 

5. Backpropagation算法

     5.1 通过迭代性的来处理训练集中的实例

     5.2 对比经过神经网络后输入层预测值(predicted value)与真实值(target value)之间

     5.3 反方向(从输出层=>隐藏层=>输入层)来以最小化误差(error)来更新每个连接的权重(weight)

     5.4 算法详细介绍

           输入:D:数据集,l 学习率(learning rate), 一个多层前向神经网络

           输入:一个训练好的神经网络(a trained neural network)

 

          5.4.1 初始化权重(weights)和偏向(bias): 随机初始化在-1到1之间,或者-0.5到0.5之间,每个单元有          

                    一个偏向

          5.4.2 对于每一个训练实例X,执行以下步骤:

                    5.4.2.1: 由输入层向前传送

                                   

                                   

                    

                                   

                      5.4.2.2 根据误差(error)反向传送

                                 

               5.4.3 终止条件

                         5.4.3.1 权重的更新低于某个阈值

                         5.4.3.2 预测的错误率低于某个阈值

                         5.4.3.3 达到预设一定的循环次数

                         

6. Backpropagation 算法举例

          

          

                                

                                     

               

          

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
贝叶斯神经网络是将贝叶斯方法和神经网络结合的一种方法。在实践中,训练贝叶斯神经网络是一项具有挑战性的任务。最流行的训练神经网络的方法是反向传播算法,而我们可以使用反向传播算法来训练贝叶斯神经网络。贝叶斯神经网络的目标是通过考虑不确定性来提高神经网络的性能和鲁棒性。通过引入概率分布来表示权重和偏置项的不确定性,贝叶斯神经网络可以提供更加准确的预测和更可靠的不确定性估计。贝叶斯神经网络的训练过程涉及到对权重和偏置项的后验分布进行推断,通常使用一些近似推断方法来简化计算。总的来说,贝叶斯神经网络是一种优化概率神经网络的方法,它可以提供更加准确和可靠的预测结果。\[2\] #### 引用[.reference_title] - *1* [优化概率神经网络_贝叶斯神经网络最新综述](https://blog.csdn.net/weixin_39695323/article/details/111049287)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [优化概率神经网络_贝叶斯神经网络(系列):第二篇](https://blog.csdn.net/weixin_39747630/article/details/110243953)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值