关于神经网络中的shape问题

本文探讨了神经网络中形状变化的重要性,特别是矩阵相乘在全连接层和卷积层的应用。在全连接层,输入的形状是[样本数,特征数],权重矩阵W的形状是[前一层神经元数,后一层神经元数],输出形状是[样本数,后一层神经元数]。而在卷积层,卷积和池化操作会影响输出尺寸的计算。
摘要由CSDN通过智能技术生成

1.矩阵相乘神经网络

参考:

https://blog.csdn.net/machinerandy/article/details/79632748#commentBox

但对上文中最后一句“并且对于最终全连接的单输出节点 YY 得到的结果也由 Y1×10→Y10×1Y1×10→Y10×1。 ”,持保留意见。

 

tensorflow中,使用的代码是output = tf.matmul(inputs,W) + b,对应的公式是y = X*W + b

输入变量X的shape是[样本数,单个样本的特征数]。特征数也是输入层神经元的个数。第(1,2)层(第1层指输入层,第2层指第一个hidden层)的W的shape是[第1层神经元个数,第2层神经元个数]。b的shape是[第2层神经元个数]。(b是加在第2层神经元上的偏置,是一维向量)。

所以第(i,i+1)层,输入的shape是[样本数,第i层的神经元的个数],W的shape是[第i层神经元个数,第i+1层神经元个数],b的shape是[第i+1层神经元个数],输出的shape是[样本数,第i+1层神经元个数]。

输入数据 [samples,输入特征数]
W [输入特征数,输出特征数]
b [输出特征数]
输出数据 [samples,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值