深度学习入门(斋藤康毅)

第二章:感知机
1、什么是感知机
    感知机就是一个算法,它可以接收多个输入信号,只输出一个信号.在神经元中,多个信号经过不同的权重输入到一个神经元中,输出的信号只有一个.当不同输入信号经过加权求和之后,得到的总和超过阈值时,这个神经元才会输出信号.具体的说,w是控制输入信号重要性的参数,而b是调整神经元倍激活的容易程度的参数。

2、感知机可以实现基本的与, 或, 与非门,但是感知机不能实现异或门。

3、单层感知机无法表示的东西,通过增加一层就可以解决。也就是说,通过增加层,感知机能够进行更加灵活的表示。

4、2层感知机(激活函数使用了sigmoid函数的感知机)可以表示任意函数。

5、学习就是确定合适参数的过程,而人要做的就是思考感知机的构造(模型),并且把训练数据交给计算机。

总结:
    (1)感知机是具有输入和输出的算法
    (2)感知机酱权重和偏置设定为算法
    (3)使用感知机可以表示与门和或门等逻辑电路,但是异或门无法通过一层感知机实现,只能通过单层感知机实现
    (4)单层感知机只能表示线性空间,多层感知机可以表示非线性空间

第三章:神经网络
(神经网络解决的问题不就是多分类问题吗,也就是多输出,这个感知机有着异曲同工之妙)
1、感知机的优缺点:
    优点:即时对于复杂的函数,感知机也可能表示
    缺点:权重的确定还要通过人工进行
   但是神经网络的出现,能够弥补感知机存在的缺点。神经网络一个非常重要的性质就是它可以自动地从数据中学习合适的参数。

2、激活函数的作用:
    (1)激活函数的作用在于决定如何来激活输入信号的总和
    (2)“朴素感知机”是指单层神经网络,指的就是激活函数使用了阶跃函数的模型
    (3)“多层感知机”是指神经网络,指的就是使用sigmoid函数等平滑的激活函数的多层网络

3、感知机和神经网络的联系和区别
    感知机的激活函数的阶跃函数;神经网络的激活函数是除了阶跃函数的其他函数。神经网络的激活函数常常是sigmoid或者是relu函数。

4、阶跃函数和sigmoid函数的联系和区别:
    区别:
    (1)sigmoid函数是一个平滑的曲线,输出随着输入发生连续性的变化。但是阶跃函数的输出随着输入发生着剧烈的变化。这是不利于神经网络进行学习的。
    (2)感知机中的神经元之间流动着的是0或者1的二元信号,神经网络中流动的是连续的实数值信号。
    联系:
    (1)当输入信号是比较重要的信息时,阶跃函数和sigmoid函数都会输出较大的值;当输入信号微不重要的信息时,两者都会输出比较小的值。而且,不管输入信号有多小,或者有多大,输出信号都在0和1之间。
    (2)阶跃函数和sigmoid都是非线性的函数
    注意:神经网络的激活函数必须要使用非线性神经网络,也就是说,神经网络的激活函数不能使用线性函数。这是因为,如果激活函数选择的是线性函数,不管有多少层,神经网络都是在进行线性叠加,这样是没有任何意义的。

5、机器学习问题的步骤可以分为“学习”和“推理”两个阶段:
    (1)学习:在学习阶段进行模型的学习
    (2)推理:将学习到的模型对未知的数据进行推理(分类)

6、softmax函数:
    softmax函数的输出和总是1,因次,我们可以把softmax函数的输出解释为“概率”。我们取出这个概率列表中最大值的索引,作为预测结果。需要用到的api是np.argmax(x)

7、为什么批处理会极大提高运算速度和效率?
    当数据传送称为瓶颈的时候,批处理可以减轻数据总线的负荷,花更多的时间在计算上,而不是在数据传送上。

总结:
    (1)神经网络中的激活函数使用平滑变化的sigmoid函数或者是Relu函数
    (2)机器学习的问题大体上可以分为回归问题和分类问题
    (3)关于输出层的激活函数,回归问题一般使用恒等函数,分类分体一般使用softmax函数
    (4)分类问题中,输出层的神经元的数量设置为要分类的类别数
    (5)输入数据的几何称为批。通过以批为单位进行推理处理,能够实现高速的运算。

第四章:神经网络的学习
1、机器学习中的“学习”就是指从训练数据中自动获取最优参数的过程;学习的目的就是寻找损失函数最小的参数。

2、泛化能力是指处理未被观察过的数据的能力。

3、对权重参数的损失函数求导,表示的就是“如果稍微改变一下这个权重参数的值,损失函数的值将会如何变化”。如果导数的值为负数,那么表示参数的更新方向应该往正方向更新;反之,如果导数的参数为正数,那么表示参数的更新方向应该往负方向更新。(因为我们的目标就是为了是损失函数的值接近0)

4、我们不能需用识别精读作为指标,因为识别精读是离散的,数值是突变的,不利于神经网络的学习。所以我们会选用一些连续的函数作为我们的指标。

5、负梯度的方向是梯度法中变量更新的方向,梯度的方向是函数值变小最快的方向

总结:
    (1)机器学习中使用的数据集分为训练数据和测试数据
    (2)神经网络使用训练数据进行学习,使用测试数据检测神经网络的泛化能力
    (3)神经网络的学习以损失函数为指标,以损失函数的值最小微目标,不断的更新参数
第五章:误差反向传播算法
1、为何使用计算图解题?
    (1)通过计算图,我们可以把复杂的问题简单化
    (2)利用计算图,我们可以把中间的过程数据保存下载
    (3)最重要的就是,在计算图中,可以通过反向传播计算导数

总结:
    (1)计算图的结点是由局部计算构成的,局部计算构成全局计算。
    (2)计算图的正向传播进行一般的计算,通过计算图的反向传播,可以计算各个节点的导数。
    (3)通过将神经网络的组成元素实现成层,可以高效地计算梯度(反向传播法)


第七章:卷积神经网络
1、CNN中出现了卷积层(Convolution)和池化层(Pooling)
2、CNN层的连接顺序是:卷积层 - relu - 池化层
3、全连接层存在的问题:数据的形状被忽略了,所以全连接层无法利用形状相关的信息;但是卷积层可以保持形状不变,这样可以保证CNN能够正确理解图像等具有形状的数据
4、增大步幅,输出大小变小;增大填充后,输出大小变大
5、输入数据和滤波器的通道数要设为相同的值;池化的窗口大小和步幅设定为相同的值
6、池化层的特点:没有需要学习的参数;通道数不发生变化;对微小的位置变化具有鲁棒性(健壮)
7、滤波器在学习什么?答案就是在观察边缘(颜色变化的分界线)和斑块(局部的块状区域)
 

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值