深度学习
Mr_Zhang_Zhen
重庆大学硕士,从事机器学习、深度学习方面的研究
展开
-
linux系统下,Python2.7安装numpy踩过的坑
linux系统下,Python2.7安装numpy踩过的坑原创 2022-08-08 17:31:54 · 1092 阅读 · 0 评论 -
交叉验证
因为在实际的训练中,训练的结果对于训练集的拟合程度通常还是挺好的(初始条件敏感),但是对于训练集之外的数据的拟合程度通常就不那么令人满意了。因此我们通常并不会把所有的数据集都拿来训练,而是分出一部分来(这一部分不参加训练)对训练集生成的参数进行测试,相对客观的判断这些参数对训练集之外的数据的符合程度。这种思想就称为交叉验证(Cross Validation) 。交叉验证的基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(valida原创 2020-11-20 15:12:55 · 353 阅读 · 0 评论 -
RBM(受限玻尔兹曼机)解析
1.RBM结构RBM包括隐层、可见层和偏置层。与前馈神经网络不一样,RBM在可见层和隐层间的链接方向不定的(即可以双向传播:隐层—>可见层和可见层—>隐层)和完全链接的。如下图表示了一个微型的RBM如上图所示,每一层的节点之间没有链接,第一层是可见层,及输入层(v)第二层是隐藏层(h),如果假设所有节点都是随机二进制变量节点(只能取0或1值),同时假设全概率分布p(v,h)满足Boltzmann分布,这个模型就叫RBM。2.数学知识:2.1全概率公式:2.2 贝叶斯公式:转载 2020-09-29 11:03:53 · 11869 阅读 · 0 评论 -
【深度学习】学习率设定
转载 2020-08-12 10:51:17 · 232 阅读 · 0 评论 -
【深度学习】波尔次曼机,受限波尔兹曼机,DBN详解
神经网络自20世纪50年代发展起来后,因其良好的非线性能力、泛化能力而备受关注。然而,传统的神经网络仍存在一些局限,在上个世纪90年代陷入衰落,主要有以下几个原因:1、传统的神经网络一般都是单隐层,最多两个隐层,因为一旦神经元个数太多、隐层太多,模型的参数数量迅速增长,模型训练的时间非常之久;2、传统的神经网络,随着层数的增加,采用随机梯度下降的话一般很难找到最优解,容易陷入局部最优解。在反向传播过程中也容易出现梯度弥散或梯度饱和的情况,导致模型结果不理想;3、随着神经网络层数的增加,深度神经网...转载 2020-07-30 11:36:14 · 1247 阅读 · 0 评论