卷积神经网络
文章平均质量分 71
浅念念52
专注人工智能cv
展开
-
卷积神经网络resent网络实践
文章目录前言一、技术介绍二、实现途径三、总结前言上篇文章,讲了经典卷积神经网络-resnet,这篇文章通过resnet网络,做一些具体的事情。一、技术介绍总的来说,第一步首先要加载数据集,对数据进行一些处理,第二步,调整学习率一些参数,训练好resnet网络模型,第三步输入图片或者视频通过训练好的模型,得到结果。二、实现途径1.加载数据集,对数据进行处理,加载的图片是(N,C,H,W )对图片进行处理成(C,H,W),通过图片名称获取标签,进行分类。train_paper=r'E:\桌面\资原创 2022-05-12 09:00:00 · 2476 阅读 · 120 评论 -
经典卷积神经网络——resnet
resnet前言一、resnet二、resnet网络结构三、resnet181.导包2.残差模块2.通道数翻倍残差模块3.rensnet18模块4.数据测试5.损失函数,优化器6.加载数据集,数据增强7.训练数据8.保存模型9.加载测试集数据,进行模型测试四、resnet深层对比前言随着深度学习的不断发展,从开山之作Alexnet到VGG,网络结构不断优化,但是在VGG网络研究过程中,人们发现随着网络深度的不断提高,准确率却没有得到提高,如图所示:人们觉得深度学习到此就停止了,不能继续研究了,但是原创 2022-05-06 13:21:27 · 11152 阅读 · 144 评论 -
卷积神经网络 迁移学习
迁移学习前言一、经典的卷积神经网络二、迁移学习的目标三、好处四、步骤五、代码前言在深度学习训练的过程中,随着网络层数的提升,我们训练的次数,参数都会提高,训练时间相应就会增加,我们今天来了解迁移学习一、经典的卷积神经网络在pytorch官网中,我们可以看到许多经典的卷积神经网络。附官网链接:https://pytorch.org/这里简单介绍一下经典的卷积神经发展历程1.首先可以说是卷积神经网络的开山之作Alexnet(12年的夺冠之作)这里简单说一下缺点 卷积核大,步长大,没有填充层,原创 2022-04-28 16:23:51 · 3586 阅读 · 24 评论 -
卷积神经网络 一些参数计算
次数,参数,输出张量的size原创 2022-04-26 18:30:35 · 2351 阅读 · 34 评论 -
经典卷积神经网络——VGG16
VGG16前言一、VGG发展历程二、VGG网络模型三、VGG16代码详解1.VGG网络架构2.VGG16网络验证2.读取数据,进行数据增强3.训练模型,测试准确率四、VGG缺点前言我们都知道Alexnet是卷积神经网络的开山之作,但是由于卷积核太大,移动步长大,无填充,所以14年提出的VGG网络解决了这一问题一、VGG发展历程VGG网络由牛津大学在2014年ImageNet挑战赛本地和分类追踪分别获得了第一名和第二名。研究卷积网络深度对其影响在大规模图像识别设置中的准确性,主要贡献是全面评估网络原创 2022-04-30 09:05:14 · 27382 阅读 · 79 评论