深度学习Matlab工具箱代码注释——cnnff.m

%%=========================================================================
%函数名称:cnnff()
%输入参数:net,神经网络;x,训练数据矩阵;
%输出参数:net,训练完成的卷积神经网络
%主要功能:使用当前的神经网络对输入的向量进行预测
%算法流程:1)将样本打乱,随机选择进行训练;
%         2)讲样本输入网络,层层映射得到预测值
%注意事项:1)使用BP算法计算梯度
%%=========================================================================
function net = cnnff(net, x)
n                  = numel(net.layers);      %层数
net.layers{1}.a{1} = x;                      %网络的第一层就是输入,但这里的输入包含了多个训练图像
inputmaps          = 1;                      %输入层只有一个特征map,也就是原始的输入图像
for l = 2 : n                                %对于每层(第一层是输入层,循环时先忽略掉)
    if strcmp(net.layers{l}.type, 'c')       %如果当前是卷积层
        for j = 1 : net.layers{l}.outputmaps %对每一个输入map,需要用outputmaps个不同的卷积核去卷积图像
            %%=========================================================================
            %主要功能:创建outmap的中间变量,即特征矩阵
            %实现步骤:用这个公式生成一个零矩阵,作为特征map
            %注意事项:1)对于上一层的每一张特征map,卷积后的特征map的大小是:(输入map宽 - 卷积核的宽 + 1)* (输入map高 - 卷积核高 + 1)
            %         2)由于每层都包含多张特征map,则对应的索引则保存在每层map的第三维,及变量Z中
            %%=========================================================================
            z = zeros(size(net.layers{l - 1}.a{1}) - [net.layers{l}.kernelsize - 1 net.layers{l}.kernelsize - 1 0]);

            for i = 1 : inputmaps    %对于输入的每个特征map
                %%=========================================================================
                %主要功能:将上一层的每一个特征map(也就是这层的输入map)与该层的卷积核进行卷积
                %实现步骤:1)进行卷积
                %         2)加上对应位置的基b,然后再用sigmoid函数算出特征map中每个位置的激活值,作为该层输出特征map
                %注意事项:1)当前层的一张特征map,是用一种卷积核去卷积上一层中所有的特征map,然后所有特征map对应位置的卷积值的和
                %         2)有些论文或者实际应用中,并不是与全部的特征map链接的,有可能只与其中的某几个连接
                %%=========================================================================
                z = z + convn(net.layers{l - 1}.a{i}, net.layers{l}.k{i}{j}, 'valid');
            end
            net.layers{l}.a{j} = sigm(z + net.layers{l}.b{j});   %加基(加上加性偏置b)
        end
        inputmaps = net.layers{l}.outputmaps;                    %更新当前层的map数量;

    elseif strcmp(net.layers{l}.type, 's')                       %如果当前层是下采样层
        for j = 1 : inputmaps
            %%=========================================================================
            %主要功能:对特征map进行下采样
            %实现步骤:1)进行卷积
            %         2)最终pooling的结果需要从上面得到的卷积结果中以scale=2为步长,跳着把mean pooling的值读出来
            %注意事项:1)例如我们要在scale=2的域上面执行mean pooling,那么可以卷积大小为2*2,每个元素都是1/4的卷积核
            %         2)因为convn函数的默认卷积步长为1,而pooling操作的域是没有重叠的,所以对于上面的卷积结果
            %         3)是利用卷积的方法实现下采样
            %%=========================================================================
            z = convn(net.layers{l - 1}.a{j}, ones(net.layers{l}.scale) / (net.layers{l}.scale ^ 2), 'valid');
            net.layers{l}.a{j} = z(1 : net.layers{l}.scale : end, 1 : net.layers{l}.scale : end, :);   %跳读mean pooling的值
        end
    end
end

%%=========================================================================
%主要功能:输出层,将最后一层得到的特征变成一条向量,作为最终提取得到的特征向量
%实现步骤:1)获取倒数第二层中每个特征map的尺寸
%         2)用reshape函数将map转换为向量的形式
%         3)使用sigmoid(W*X + b)函数计算样本输出值,放到net成员o中
%注意事项:1)在使用sigmoid()函数是,是同时计算了batchsize个样本的输出值
%%=========================================================================
net.fv = [];                       %net.fv为神经网络倒数第二层的输出map
for j = 1 : numel(net.layers{n}.a) %最后一层的特征map的个数
    sa = size(net.layers{n}.a{j}); %第j个特征map的大小
    net.fv = [net.fv; reshape(net.layers{n}.a{j}, sa(1) * sa(2), sa(3))];
end
net.o = sigm(net.ffW * net.fv + repmat(net.ffb, 1, size(net.fv, 2))); %通过全连接层的映射得到网络的最终预测结果输出
end

原文链接

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值