时间:2019/3/29
内容:神经网络、CNN历史
课时10:神经网络
(上图中结构图中的h是max(0, W1x))
- 顶层有一个线性变换,然后有一个非线性计算,继而在顶层在加入另一个线性层。神经网络就是由简单函数构成的一组函数,在顶层堆叠在一起(用一种层次化的方式将它们堆叠,为了形成一个更复杂的非线性函数),这就是基本的多阶段分层计算
- 实现的手段:将多个线性层堆叠在顶层和其他非线性函数结合在一起
- W1中可以包含多个范本,h是W1中每个范本的得分,W2用来加权这些分数,来得到分类的最后得分
- 非线性通常出现在h之前,h是非线性之后的值
- W1像之前一样是用来寻找相同的模板,W2是这些得分的加权
课时11:CNN(历史)
CNN与常规的神经网络思路相同,不同的是需要训练卷积层,因为卷积层更能保留输入的空间结构
- 读涉及论文