CNN图像处理基础
文章平均质量分 81
灬德布罗意的猫灬
这个作者很懒,什么都没留下…
展开
-
ResNet网络分析与demo实例
ResNet 网络是在2015年由微软实验室提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集中目标检测第一名,图像分割第一名。在ResNet网络的创新点:提出Residual结构(残差结构),并搭建超深的网络结构(可突破1000层)使用Batch Normalization加速训练(丢弃dropout)原创 2023-12-25 19:58:18 · 966 阅读 · 0 评论 -
GoogleNet网络分析与demo实例
GoogLeNet 的创新点:1.引入了 Inception 结构(融合不同尺度的特征信息)2.使用1x1的卷积核进行降维以及映射处理 (虽然VGG网络中也有,但该论文介绍的更详细)3.添加两个辅助分类器帮助训练4.丢弃全连接层,使用平均池化层(大大减少模型参数,除去两个辅助分类器,网络大小只有vgg的1/20)原创 2023-12-25 12:06:57 · 924 阅读 · 0 评论 -
VGG网络分析与demo实例
参考自VGG 在2014年由牛津大学著名研究组)提出,斩获该年 ImageNet 竞赛中 Localization Task(定位任务)第一名和 Classification Task(分类任务)第二名。VGG 的创新点:通过堆叠多个小卷积核来替代大尺度卷积核,可以减少训练参数,同时能保证相同的感受野。论文中提到,可以通过堆叠两个3×3的卷积核替代5x5的卷积核,堆叠三个3×3的卷积核替代7x7的卷积核。原创 2023-12-25 11:56:19 · 779 阅读 · 0 评论 -
Alexnet网络分析与demo实例
分析可以发现,除 Conv1 外,AlexNet 的其余卷积层都是在改变特征矩阵的深度,而池化层则只改变(减小)其尺寸。构建模型;# 用nn.Sequential()将网络打包成一个模块,精简代码self.features = nn.Sequential( # 卷积层提取图像特征nn.ReLU(inplace=True), # 直接修改覆盖原值,节省运算内存self.classifier = nn.Sequential( # 全连接层对图像分类。原创 2023-12-24 10:28:26 · 1007 阅读 · 0 评论 -
LeNet网络分析与demo实例
利用函数可以在线导入pytorch中的数据集,包含一些常见的数据集如MNIST等# 导入10000张测试图片train=False, # 表示是数据集中的测试集# 加载测试集batch_size=10000, # 每批用于验证的样本数# 获取测试集中的图像和标签,用于accuracy计算2.2 训练过程epoch : 对训练集的全部数据进行一次完整的训练,称为 一次 epoch。原创 2023-12-24 09:59:21 · 386 阅读 · 0 评论 -
卷积神经网络基础与补充
参考自CNN的历史发展:这一点老师上课的时候也有讲到,BP的出现对CNN的发展至关重要卷积的特性:关于具体体现在哪,上课老师的ppt讲的非常的明白目的:进行特征提取,减少训练过程中需要的参数数量下面这种图也是非常的好,对于理解卷积的过程有很好的理解需要注意的是:1.卷积核的chanel和输入矩阵的阿chanel是一致的2.根据卷积的过程也可以知道最后输出矩阵的chanel是卷积核的个数反向传播中误差的计算:softmax/sigmoid一般是用)来计算误差。原创 2023-12-24 09:38:03 · 655 阅读 · 0 评论