AndrewNg神经网络和深度学习笔记
钱伯斯
这个作者很懒,什么都没留下…
展开
-
AndrewNg神经网络和深度学习笔记-Week2-11向量化
尽量使用向量化的变量+内置函数来处理,原因是充分利用并行化计算。原创 2017-11-20 21:23:44 · 265 阅读 · 0 评论 -
AndrewNg神经网络和深度学习笔记-Week3-6激活函数
不同层可以由不同的激活函数。隐藏层用tanh函数,而不用sigmoid函数,因为tanh的输出介于-1,1之间,激活函数输出的平均值更接近于0,而不是sigmoid的的0.5,让下一层的学习更方便一些。只在输出层是二分类的时候用sigmoid函数,因为y输出0、1,正符合sigmoid函数的值域。tanh和sigmoid的缺点都是,当z非常大或者非常小的时候,函数的斜率趋近于0,会拖慢原创 2017-11-21 22:06:34 · 285 阅读 · 0 评论