bp神经网络和卷积神经网络浅谈

    这周首先进行了BP神经网络的学习,主要是继续学习了吴恩达老师的课程。1 对比了常见的激活函数,sigmoid、tanh和RELU的特点,使用范围,其中二分类问题使用sigmoid和tanh,而tanh函数比sigmoid性能更加优越,当隐含层不确定时,倾向于使用Relu,主要是由于后者训练速度快。2 为什么使用激活函数,当神经网络中没有激活函数时,不管有多少隐含层,最后相当于输入对输入进行线性操作,即隐含层不起作用。3学习了双层神经网络的前向传播和后向传播,神经网络训练中注意随机初始化参数W,以防每层中多个节点不起作用,同时,w值应较小以加快训练速度。4正在用C语言实现BP神经网络,后续继续完成

       这周简单了解了CNN卷积神经网络,明白了局部感受野,共享权重、偏置和混合的概念。明白了常见卷积神经网络的结构:输入层-卷积层-混合层-全连接层-输出层。后续会继续学习吴恩达老师的课程

      这周正在学习论文faster-Rcnn,目前进度较慢,争取汇报前看完

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值