C++元编程——CNN卷积层使用ReLu激活和NAdam更新

本文介绍了如何在C++中利用元编程技术,结合ReLu激活函数和NAdam优化器来加速CNN卷积层的训练。通过实例展示了在7*7输入矩阵和3*3输出矩阵的情况下,仅需500次更新就能达到与训练万次相当的精确结果。
摘要由CSDN通过智能技术生成

CNN的卷积层在出来时候需要经过ReLu激活函数。基于之前对BP神经网络的研究,于是就想能不能采用NAdam对卷积层进行加速,结果是惊人的,原来训练万次可得结果的卷积层仅需500次更新就可以得到完全精确的结果!!!以下是输入[1-7]*7的7*7矩阵,输出是[1-9]的3*3矩阵。500次训练后,结果可见是完全一致的!

废话不多,直接上代码:

#ifndef _CONVOLUTION_LAYER_HPP_
#define _CONVOLUTION_LAYER_HPP_
#include "mat.hpp"
#include "weight_initilizer.hpp"
#include "base_function.hpp"

/* 卷积层 */
template<int input_row, int input_col, int tpl_row, int tpl_col, int row_step, int col_step, template<typename> class update_method_templ, template<typename> class activate_func, typename tpl_init_method, typename val_t = double>
struct conv_layer 
{
	using tpl_type = mat<tpl_row, tpl_col, val_t>;
	using input_type = mat<input_row, input_col,
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

腾昵猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值