吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-3)-- 浅层神经网络


作者大树先生
博客http://blog.csdn.net/koala_tree
GitHubhttps://github.com/KoalaTree
2017 年 09 月 22 日


以下为在Coursera上吴恩达老师的DeepLearning.ai课程项目中,第一部分《神经网络和深度学习》第三周课程“浅层神经网络”部分关键点的笔记。笔记并不包含全部小视频课程的记录,如需学习笔记中舍弃的内容请至Coursera 或者 网易云课堂。同时在阅读以下笔记之前,强烈建议先学习吴恩达老师的视频课程。


同时我在知乎上开设了关于机器学习深度学习的专栏收录下面的笔记,方便在移动端的学习。欢迎关注我的知乎:大树先生。一起学习一起进步呀!_


神经网络和深度学习—浅层神经网络

1. 神经网络表示

简单神经网络示意图:

还在路上,稍等...

神经网络基本的结构和符号可以从上面的图中看出,这里不再复述。

主要需要注意的一点,是层与层之间参数矩阵的规格大小:

  • 输入层和隐藏层之间
    • w [ 1 ] − > ( 4 , 3 ) w^{[1]}->(4,3) w[1]>(4,3):前面的4是隐层神经元的个数,后面的3是输入层神经元的个数;
    • b [ 1 ] − > ( 4 , 1 ) b^{[1]}->(4,1) b[1]>(4,1):和隐藏层的神经元个数相同;
  • 隐藏层和输出层之间
    • w [ 1 ] − > ( 1 , 4 ) w^{[1]}->(1,4) w[1]>(1,4):前面的1是输出层神经元的个数,后面的4是隐层神经元的个数;
    • b [ 1 ] − > ( 1 , 1 ) b^{[1]}->(1,1) b[1]>(1,1):和输出层的神经元个数相同;

由上面我们可以总结出,在神经网络中,我们以相邻两层为观测对象,前面一层作为输入,后面一层作为输出,两层之间的w参数矩阵大小为 ( n o u t , n i n ) (n_{out},n_{in}) (nout,nin),b参数矩阵大小为 ( n o u t , 1 ) (n_{out},1) (nout,1),这里是作为 z = w X + b z = wX+b z=

  • 23
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值