听了三天讲座后,对于基础理论课反而有点不适应,会多想几个为什么,真的吗。知名课最好还是看最新的,与时俱进。
【01】为什么是CNN?
这个问题,现在有transformer和mlp的工作,还真不好回答
上图展现了图像分类中特征的从低层到高层表示。
课程里给出了三个基于观察的解释,很重要,后面也会用到。
01 只要部分信息就能给出答案
- 这是分类吧,检测和分割得看全局啊
这张图里,只需要看到鸟喙就能确定有个鸟,不需要看见全局的图像。 - 容易被攻击?不过可以做真实图像鉴别的工作
02 相同模式会出现在不同区域
检测鸟喙的部分应当是同一个检测器,而不是不同的位置采取不同的检测器。
03 对图像下采样后不影响识别
这说明可以使用更少的参数来处理图像。
后续明天再说。
三个理由完全没懂
这个架构不一定了
讲卷积的基础概念啊,可以快点
妙,这里讲出来了,filter可以检测出特征来,而且一个filter胜任多个同种特征
filter size,image size,padding,stride
特征图。feature map。
能用hsv去搞吗?
filter的值就是权重
部分连接,共用同样的weight
没看明白哪里共享了
哦哦,明白了,3和1不是权重!是神经元,隐藏层的,他们和前面的连接是共享的,这张图里都是9根线。
这个怎么train,有现成的框架,如果要自己写的话,就和普通的一样?(想起杰哥,自己手写,强啊)
不能微分了???
pixel
25*25个filter???
会考虑深度,每一个filter都会对前面的所有层内积求和?这一层的filter深度和前一层feature map深度一样的
固定一些前面提取边缘的层?这部分不动?
CNN in Keras
2333,大人,时代变了!现在是Pytorch的天下啦
动手搭建卷积神经网络?
CNN学到了什么
什么能让网络响应最大,固定参数,找x,去让输出最大
这不是深度学习可视化那篇论文吗
这几个filter学到的是纹路
!!可以拿来做文章里面的可解释性解释!!!还可以用来debug!
要用gradient ascent吗???
固定参数,寻找使filter输出最大的输入,把它显示出来,当成filter学到的东西
每部分的filter检测方法不一样?
和想象的直接0 1 2不一样啊,人看不出来,为什么?虚假的相关性2,学到了人不能感知的信息模式?怎么解决?很容易受攻击吧
如果我把4的图像弄到一张正常的0或1,他是不是会输出4?可以通过这样的方法来获取攻击图像吗?
两种攻击方式,噪声的区别
+改成-,因为是max
使图像大部分是空白没有内容的(像素0)
绝对值怎么微分
受益匪浅啊!可解释性的问题!基础课有必要大家的都听一下吗?
Deep Dream?
夸大自己看到的东西?
有点意思,怎么做到的?
DeepStyle,风格迁移?
weight = style
https://zhuanlan.zhihu.com/p/136804220
有点掉san啊说实话
CNN用来下围棋?
除了supervised的部分,其实还有reinforcement的部分
这种方式感觉只考虑了当前的局势?
Alpha Go
什么时候用CNN呢?有图像任务的那种特性
模式比图像小,不同的区域可能有同样意义的模式
围棋不行吧?subsampling。一直很困惑2333
paper,读一读?没有仔细描述过CNN架构2333
zero padding
没有用max pooling
妙哇!
语音处理
横轴时间,纵轴频率,这样就可以应用CNN了?人能看出来???我天!
speech2text
不是时间方向移动?
因为CNN后面会接LSTM之类的,比CNN的时间序列建模能力要好
但是频率方向上的,有用?
怎么说呢,大有感触啊!那个根据任务需求来设计的tip!
词向量,词向量矩阵,矩阵!这个filter怎么移动?要用maxpoolling吗?
词向量的维度是相互独立的,每个维的意义隐式但
确实存在,所以维度上移动没有意义?
非常棒啊!!!