机器学习(李宏毅)lecture05 CNN

本文探讨了卷积神经网络(CNN)为何适合图像处理,包括其减少了神经元对完整图像的依赖,同一模式的通用性,以及通过下采样减少参数。CNN的架构由卷积层和最大池化层组成,其中滤波器参数通过学习得到。通过卷积和最大池化,我们可以观察到CNN学到的图像模式。此外,CNN的应用包括Deep Dream和Deep Style技术。
摘要由CSDN通过智能技术生成

Convolutional Nueral Network

CNN适合做图像处理的原因

1.一个神经元不需要看整张图来判断某个模式的存在。
2.同一个模式可能出现在图片的不同地方,不需要训练不同的模型,神经元可以用同一种参数。
3.可以对图像做下采样*(subsampling:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。)*,能减少模型要用的参数。

CNN架构

在这里插入图片描述
卷积层可以来处理上述原因1和2,最大池化层处理原因3.

CNN-卷积

在这里插入图片描述
1.Filter的参数是通过学习得到的。
2.这里每一个Filter用来识别某一个模式。

Filter内积图像的像素矩阵=>Feature Map。
在这里插入图片描述

彩色图片处理

RGB,矩阵变成立方体
在这里插入图片描述

CNN与Fully Connected

每个神经元连接的input比全连接减少很多,因此参数会少很多。
同时不同神经元共用权值参数。
在这里插入图片描述

Max Pooling

在得到Feature Map后,选择每个Feature Map中最大的值,比较暴力。
在这里插入图片描述

CNN学习到了什么

当进行卷积+Max Pooling后,并不能直接知道Filter到底用来发现哪种模式,可以用下面的方法:
固定模型的参数,通过梯度下降最小化Filter的激活函数的值,得到的input图像就是学习到的Filter用来发现的模式。
a k = ∑ i = 1 n ∑ i = 1 n a i j k a^k=\sum_{i=1}^n\sum_{i=1}^{n}a^k_{ij} ak=i=1ni=1naijk
n : n: n:Filter矩阵维度。
x ∗ = a r g m a x x a k x^*=argmax_xa^k x=argmaxxak
x : x: x:input。

Application

1.Deep Dream:模型要夸大自己看到的东西。
2.Deep Style:
给出一张图片,得到Fearture Map output,另一张图片得到style,再通过CNN找到一张图片尽可能的相似Feature Map output和style。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值