![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
旗木归来
这个作者很懒,什么都没留下…
展开
-
神经网络中的值为1的偏置项b到底是什么?
https://blog.csdn.net/Uwr44UOuQcNsUQb60zk2/article/details/81074408 前言 很多人不明白为什么要在神经网络、逻辑回归中要在样本X的最前面加一个1,使得 X=[x1,x2,…,xn] 变成 X=[1,x1,x2,…,xn] 。因此可能会犯各种错误,比如漏了这个1,或者错误的将这个1加到W·X的结果上,导致模型出各种bug甚至无法收...转载 2018-09-12 21:19:42 · 2431 阅读 · 2 评论 -
为什么无监督预训练有助于深度学习?Why Does Unsupervised Pre-training Help Deep Learning?
https://blog.csdn.net/qq_37655759/article/details/57445246转载 2018-09-13 22:16:58 · 921 阅读 · 0 评论 -
受限的玻尔兹曼机
https://blog.csdn.net/u013631121/article/details/76652647/转载 2018-09-14 17:38:20 · 121 阅读 · 0 评论 -
从自编码到栈式自编码
https://blog.csdn.net/hjimce/article/details/49106869转载 2018-10-16 15:03:29 · 430 阅读 · 0 评论