[期末考试]
[笔记整理]
-
神经网络的基本定义包括
- 适应性的简单单元
- 广泛并行互联
- 模拟生物
- 交互反应
-
M-P神经元的构成
- 输入信号
- 带权连接
- 阈值比较
- 输出
-
激活函数
- 阶跃函数:不连续不光滑
- sigmoid:连续光滑
-
感知机[熟悉书本图片]
- 对比神经元:在MP的输入位置上添加了输入神经元。仍然属于单层神经网络
- 局限
- 只能进行一次激活
- 只能处理线性可分(与或非)
- 不能处理异或
-
两层神经网络特点
- 用反向传播解决计算量大的问题
- 中间的层称为隐含层
- 性能:无限逼近任意连续函数
-
多次前馈网络的前馈:
- 指的是不存在环路
- 信号可以向后传
-
BP
- 思想:梯度下降
- 核心:带权求和+sigmoid
- 误差:均方误差
- 反向传播的计算[熟悉书本公式]
-
BP算法的分类
- 标准BP
- 每个样例都会导致参数更新
- 不同样例之间可能导致抵消
- 可能会导致更多迭代
- 累计BP
- 累计一轮才更新参数
- 训练后期可能会比标准BP慢
- 标准BP
- 神经元的个数由试错确定。
-
过拟合
- 表现:训练误差下降,测试误差上升
- 应对:
- 早停:监测到过拟合,提前停止
- 正则化:在损失函数中控制网络参数
-
局部极小值的应对策略
- 训练多个不同初始化的模型
- 模拟退火算法
- 随机梯度
- 遗传算法
-
增加隐层数比增加神经元个数更好
- 原因:隐层数进一步增加了激活函数的嵌套
- 难点:多隐层可能导致误差发散不收敛
-
无监督逐层训练
- 解决的问题:多隐层难训练
- 思路:预训练+微调
- 做法:[先局部最优再全局最优]
- 每次训练一层。上层为输入,下层为输出。
- 所有层训练完后进行BP。
-
权值共享
- 含义:一组神经元使用相同的参数
- 实例:CNN 每个平面的权值相同
- 特征学习:让机器自己提取数据的特征