卷积神经网络(CNN)
Rocky Ding*
全网同名Rocky Ding,AIGCmagic社区创始人,自媒体WeThinkIn主理人,AIGC算法专家,持续分享AI行业前沿资讯、干货经验以及深度思考,欢迎社招/校招/实习面试咨询。
展开
-
深度学习_卷积神经网络_分组卷积
分组卷积介绍分组卷积(Group Convolution)最早出现在AlexNet网络中,分组卷积被用来切分网络,使其能在2个GPU上并行运行。接下来我们看下面的图来分析分组卷积和普通卷积的区别:普通卷积进行运算的时候,如果输入feature map尺寸是C×H×WC\times H \times WC×H×W,卷积核有N个,那么输出的feature map与卷积核的数量相同也是N个,每个卷积核的尺寸为C×K×KC\times K \times KC×K×K,N个卷积核的总参数量为N×C×K×KN原创 2020-11-04 21:55:18 · 1790 阅读 · 0 评论 -
深度学习_卷积神经网络_C/C++实现卷积
#include<iostream>#include<vector>using namespace std;int main(){ //定义feature map int const map = 32; float A[map * map]= {0}; //定义卷积矩阵 int const kernel = 3; float B[kernel * kernel] = {0}; //计算卷积输出矩阵的维数(如果步长为1,padding为0) int原创 2020-05-25 15:35:31 · 1448 阅读 · 1 评论 -
深度学习_卷积神经网络_卷积感受野(RF)
目标检测和目标跟踪都用到了RPN层,anchor是RPN的基础,感受野(receptive field,RF)是anchor的基础。感受野概念介绍在经典CNN网络中,FC层每个输出节点的值都依赖FC层所有输入,而卷积层每个输出节点的值仅依赖卷积层输入的一个区域,这个区域之外的其他输入值都不会影响输出值,该区域就是感受野。上图是个微型CNN,来自Inception-v3论文,原图是为了说明一...原创 2020-03-11 11:20:54 · 1570 阅读 · 0 评论 -
深度学习_卷积神经网络_卷积神经网络的计算量和参数量
如果卷积核的尺寸是K×KK\times KK×K,有NNN个特征图作为输入,每个特征图的大小为R×CR\times CR×C,输出为MMM个特征图。在上述情况下,卷积神经网络一次前向传播需要的乘法运算次数为:R×C×M×N×K×KR\times C\times M\times N\times K\times KR×C×M×N×K×K...原创 2020-04-04 09:10:53 · 3536 阅读 · 4 评论 -
深度学习_卷积神经网络_1 * 1卷积
NIN(Network in Network)是第一篇探索1 * 1卷积核的论文,这篇论文通过在卷积层中使用MLP替代传统线性的卷积核,使单层卷积层内具有非线性映射的能力,也因其网络结构中嵌套MLP子网络而得名NIN。NIN对不同通道的特征整合到MLP子网络中,让不同通道的特征能够交互整合,使通道之间的信息得以流通,其中的MLP子网络恰恰可以用1 * 1的卷积进行代替。GoogLeNet则采用1...原创 2020-01-23 13:03:56 · 435 阅读 · 0 评论 -
深度学习_卷积神经网络_Sobel算子应用于卷积核
我们用Sobel边缘检测器对卷积运算进行赋值,对一幅3通道图像计算水平和竖直方向的边缘强度。首先我们读入图像:#读入图像import numpy as npfrom PIL import Imageimport matplotlib.pyplot as pltim = Image.open(...)im = np.array(...) / 255.0把图像转换为pytorch ...原创 2020-01-23 17:09:07 · 2095 阅读 · 1 评论