Tensorflow中卷积神经网络之卷积层

本文详细介绍了卷积层在Tensorflow中的工作原理,强调了其与全连接层的区别。卷积层通过过滤器对输入进行局部处理,形成更深层次的特征。过滤器的尺寸和深度由人工设定,前向传播过程涉及过滤器在输入矩阵上的滑动计算。文章还探讨了输出矩阵大小的计算公式,涉及步长和是否使用全0填充的情况。
摘要由CSDN通过智能技术生成

卷积层:与传统全连接层不同,卷积层中每一个节点的输入只是上一层神经网络的一小块。(试图将神经网络中的每一小块进行更加深入地分析从中得到抽象程度更高的特征)

在卷积层中:1.过滤器(filter)处理的节点矩阵的长和宽由人工指定;2.处理得到的单位节点矩阵的深度--过滤器的深度;

                        (过滤器的尺寸是指过滤器输入节点矩阵的大小;深度是指输出单位节点矩阵的深度)

在卷积层结构中的前向传播过程是通过一个过滤器从神经网络当前层的左上角移动到右下角,并且计算每一个对应的单位矩阵而得到的。

卷积层中过滤器前向传播过程实质就是为通过左侧小矩阵中的节点计算出右侧单位矩阵中节点的过程。

filter_weight = tf.get_variable('weights', [5,5,3,16], initializer = tf.truncated_normal_initializer(stddev=0.1)) #创建过滤器的权重变量和偏执项变量,声明一个                                                                                                           思维矩阵,前面俩维度代表过滤器的尺寸,第三                                                                                                                   个维度表示当前层的深度,第四个维度表示过滤器的深度
biases = tf.get_variable('biases', [16], initializer= tf.constant_initializer(0.1))
conv &
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值