CNN
深度学习-CNN提取图像特征
深度学习-CNN提取图像特征_知识搬运工的博客-CSDN博客_cnn特征提取
CNN(卷积神经网络)最早是哪一年提出,是如何发展的?
CNN(卷积神经网络)最早是哪一年提出,是如何发展的? - 知乎
cnn是如何提取特征的?
刘建平先生的cnn博客
如何将卷积神经网络应用在一维时间序列数据上?
如何设计CNN网络架构资料汇总
如何设计CNN网络架构资料汇总_漂洋过海的油条的博客-CSDN博客
CNN 网络应该如何设计?
关于CNN图像分类的一份综合设计指南
https://segmentfault.com/a/1190000014793497
cnn从理论到实践的笔记
通过卷积计算的理论结合pytorch的 nn.conv2d进行解读,并且咱们彻底搞懂nn.conv2d使用。
通过卷积层和池化层后输出大小怎么得出,
通过卷积层和池化层后输出大小怎么得出_GoGoingB的博客-CSDN博客_卷积层和池化层输出大小
要不是特别大的网络需要用公式去计算,平时自己用原理去推也行~
卷积动态图
nn.Conv2d卷积
nn.Conv2d卷积_落地生根-CSDN博客_nnconv2d
torch.nn.Conv2d() 用法讲解//(不得不说,讲的很好)
torch.nn.Conv2d() 用法讲解_分享日常的学习,开展的项目,编写的软件,解决的问题等~-CSDN博客_conv2d
Pytorch 中nn.Conv2d的参数用法 channel含义详解//关于group的使用(不得不说,讲的很好)
Pytorch 中nn.Conv2d的参数用法 channel含义详解_忽逢桃林的博客-CSDN博客_conv2d参数 pytorch
pytorch的conv2d函数groups分组卷积使用及理解
pytorch的conv2d函数groups分组卷积使用及理解_HappinessSourceL的博客-CSDN博客_conv1d groups
pytorch之torch.nn.Conv2d()函数详解//关于group、dilation、channel的使用(不得不说,讲的很好)全是细节
pytorch之torch.nn.Conv2d()函数详解_夏普通-CSDN博客_torch.nn.conv2d
以上链接一定都要看完,可以有个很清楚的理解。
对比keras和pytorch框架呢,确实发现keras虽然调用方便很好理解,但是在一些cnn的网络细节调节上有很大的不便比如分组卷积group(参数groups——分组卷积)、参数dilation——扩张卷积(也叫空洞卷积)
欠采样(undersampling)和过采样(oversampling)会对模型带来怎样的影响?
欠采样(undersampling)和过采样(oversampling)会对模型带来怎样的影响? - 知乎
14种模型设计帮你改进你的卷积神经网络(CNN)
14种模型设计帮你改进你的卷积神经网络(CNN)_jiangziya1221的博客-CSDN博客_卷积神经网络改进
什么是feature map(个人理解)
什么是feature map(个人理解) - 小孢子 - 博客园
动手学深度学习2——二维卷积层(回头看)
动手学深度学习2——二维卷积层_123梦野的博客-CSDN博客
神经网络学习小记录20——ResNet50模型的复现详解
神经网络学习小记录20——ResNet50模型的复现详解_Bubbliiiing的学习小课堂-CSDN博客_resnet50
Resnet50详解与实践(基于mindspore)
Resnet50详解与实践(基于mindspore) - 知乎
经典CNN结构简析:AlexNet、VGG、NIN、GoogLeNet、ResNet etc.
经典CNN结构简析:AlexNet、VGG、NIN、GoogLeNet、ResNet etc. - 知乎
请问深度学习中“激活”神经元的数值含义是什么?
最近刚开始看cv方面的深度学习,想请教一下论文中经常提到的“激活”了某个神经元是什么意思呢。是不是设定了某个阈值,神经元输出大于此阈值表示被“激活”,反之则没有被激活
ReLU激活函数最符合你的描述——大于零的留下相当于被激活,否则一律为零,简单粗暴。
激活函数还有tanh——双正切函数,取值范围[-1,1];sigmoid——S形函数,取值范围[0,1]……
激活神经元的数值含义可以先不用去管它,引入激活函数是为了去线性化,增加神经网络的拟合能力。神经网络如果没有激活函数,全连接层再多也可以被简化。
数值含义的话可以这样理解:不同的数值代表不同的信号强度,而信号经过激活函数后会被加强、不变或者减弱。
机器学习中正则化项L1和L2的直观理解
机器学习中正则化项L1和L2的直观理解_小平子的专栏-CSDN博客_l2正则
深入理解L1、L2正则化
刘建平先生的正则化:DNN的L1&L2正则化
范数
都知道正则化是可以防止过拟合的功能,但怎么去解释却是个头疼的问题。