CS231N 卷积神经网络课程学习笔记

本文是斯坦福大学CS231N课程的学习笔记,重点讲解卷积神经网络的结构,包括输入层、卷积层、非线性层、池化层和全连接层。卷积层的局部连接性、空间布局和参数共享特性被详细阐述,而池化层的作用在于减少参数并防止过拟合。全连接层则类似传统神经网络,但可以转换为卷积形式。
摘要由CSDN通过智能技术生成

CS21N 是斯坦福大学教授李菲菲的课程,主要讲卷积神经网络相关内容,为了更好的记忆,整理下笔记。文中有些不对的术语和理解还请大家指正。

 

一、卷积神经网络的结构

    传统的神经网络一般由输入,点乘,非线性变换组成,由于每一层和前一层都是全连接,网络的复杂度和输入的图像大小有很大的关系,如果图像过大,输入层的参数会非常多。卷积神经网络则利用输入图像的一些特征,可以更有效地学习同时也大大减小了学习的参数。一般的卷积单元可以用宽度,高度,深度来表示。常用的卷积神经网络层有:输入层,卷积层,池化层,全连接层和非线性层。一个卷积神经网络就是这些层数的不同排列。

1.输入层(input layer):输入的原始图像数据。

2.卷积层(convelotionallayer):将和神经元局部连接的输入与对应权重做点乘(dotproduct)。需要参数:权重和偏置。

3.非线性层(RELU layer):将神经元的输入通过非线性变换,如RELU输出。

4.池化层(poolinglayer):在宽度和高度方向做降采样。目的是在不改变网络性能的前提下,减小网络的大小。可能会有超参数(hyperparameter??)。

5.全连接层(fully-connectedlayer): 和前一层全连接,用于计算最终分类的得分。需要参数ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值