神经网络怎么构建矩阵

在这里插入图片描述输入:shape(2,1)
中间层:shape(3,1)
输出:shape(2,1)
因此:W0.shape():(3,2),W1.shape():(2,3)
即W0.dot(X0)—>X1, W1.dot(X1)----->X2

BP神经网络(back propagation …):神经网络的反向传播,目的是更新参数,w1,w2,w3,w4,w5,w6,使得损失值越来越小。比如误差计算为e1, e1对w1的导数为0.12,则更新w1:=w1 - lr*0.12

神经元:就是隐藏层中的每一个小圆圈,简单的神经网络中所有的输入都会链接他。cnn是只有部分的点跟他链接。如下图,红色,黑色,等他们权值一样.
神经元和卷积核要分清
在这里插入图片描述对于多通道的图片进行卷积,1.有几个通道就要有几个卷积通道. 2.有几个卷积核就有几个特征层.
在这里插入图片描述记住特征矩阵经过padding后,然后池化后size大小计算。
在这里插入图片描述拉平,当有两个特征层时,拉平后连接在一起。
在这里插入图片描述要注意卷积核的数量

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值