- 博客(4)
- 资源 (18)
- 收藏
- 关注
转载 CNN卷积神经网络新想法
本文转自:http://www.mamicode.com/info-detail-971389.html接下来步入正题: 最近一直在看卷积神经网络,想改进改进弄出点新东西来,看了好多论文,写了一篇综述,对深度学习中卷积神经网络有了一些新认识,和大家分享下。 其实卷积神经网络并不是一项新兴的算法,早在上世纪八十年代就已经被提出来,但当时硬件运算能力有限,所以当时只用来识别支票上
2015-12-15 10:23:40 678
转载 正则化方法:L1和L2 regularization、数据集扩增、dropout
文章转自:http://blog.csdn.net/u012162613/article/details/44261657本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,
2015-12-15 10:21:26 559
转载 Dropout原理介绍
本文转自:http://m.blog.csdn.net/blog/whiteinblue/37808623 一:引言因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能
2015-12-15 10:18:09 2172
转载 (全面 经典 管用)Windows7 64位+Cuda6.5+vs2012 的caffe配置历程
本文转自Cuda6.5安装备注:已经装好cuda的请略过,往下看。 记得没有VS2012的一定要先装VS。否则:安装后打开VS2012新建项目不显示NIVIDA解决方案。记住记住记住!重要的事情说三遍! 第一步:安装文件的下载,直接去官网就下载就可以。现在有cuda7.0了。 直接双击exe文件,弹出后,首先会监测一下你的运行环境,如果找不到Nividia
2015-12-15 10:07:52 894
mercurial_extension.zip
2019-06-03
mybatis逆向工程jar组件包
2018-01-24
c3p0-0.9.2.1和mchange-commons-java-0.2.3.3
2017-11-22
aspectjweaver-1.8.7和aopalliance1.0
2017-11-15
matlab-libsvm
2015-04-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人