- 博客(44)
- 收藏
- 关注
原创 Deep Learning:Optimization for Training Deep Models(二)
Optimization for Training Deep Models
2017-10-31 19:11:00 375
原创 Deep Learning:Optimization for Training Deep Models(一)
How Learning Differs from Pure Optimization
2017-10-26 16:44:47 676
原创 Deep Learning:Optimization for Training Deep Models(零)
Deep Learning:Optimization for Training Deep Models
2017-10-26 15:15:13 393
原创 Deep Learning:正则化(十四)
Tangent Distance, Tangent Prop, and Manifold Tangent ClassifierMany machine learning algorithms aim to overcome the curse of dimensionality by assuming that the data lies near a low-dimensional manifol
2017-10-26 14:48:48 460
原创 Deep Learning:正则化(十一)
Bagging and Other Ensemble Methods:Bagging (short for bootstrap aggregating) is a technique for reducing generalization error by combining several models.
2017-10-25 10:07:28 547
原创 Deep Learning:正则化(六)
Semi-Supervised Learning:In the paradigm of semi-supervised learning, both unlabeled examples from P(x) and labeled examples from P (x, y) are used to estimate P (y | x) or predict y from x.
2017-10-24 09:26:25 297
原创 Deep Learning:正则化(五)
Noise Robustness:Dataset Augmentation has motivated the use of noise applied to the inputs as a dataset augmentation strategy.
2017-10-23 23:59:58 393
原创 Deep Learning:正则化(四)
Dataset Augmentation:The best way to make a machine learning model generalize better is to train it on more data.
2017-10-23 23:00:50 302
原创 Deep learning:正则化(三)
Regularization and Under-Constrained ProblemsMany linear models in machine learning, including linear regression and PCA, depend on inverting the matrix
2017-10-23 17:37:20 311
原创 Deep Learning:正则化(二)
We can minimize a function subject to constraints by constructing a generalized Lagrange function, consisting of the original objective function plus a set of penalties.
2017-10-23 16:59:43 383
原创 Deep Learning:正则化(一)
Many strategies used in machine learning are explicitly designed to reduce the test error, possibly at the expense of increased training error. These strategies are known collectively as regularization
2017-10-23 16:04:23 597
原创 Deep Learning:深度前馈神经网络(五)
Back-Propagation and Other Differentiation Algorithms
2017-10-20 16:51:18 452
原创 Deep Learning : 深度前馈神经网络(三)
Hidden UnitsSo far we have focused our discussion on design choices for neural networks that are common to most parametric machine learning models trained with gradientbased optimization.
2017-10-19 21:18:48 436
原创 Tensorflow基础:多线程输入数据处理框架
在图像预处理中介绍了使用Tensorflow对图像数据进行预处理的方法。但是这些复杂的预处理过程也会减慢整个训练过程。为了避免图像预处理成为神经网络模型训练效率的瓶颈,Tensorflow提供了一套多线程处理输入数据的框架。
2017-10-17 23:46:52 826
原创 Tensorflow基础:图像预处理
通过对图像的预处理,可以尽量避免模型受到无关因素的影响。在大部分图像识别问题中,通过图像预处理过程可以提高模型的准确率。Tensorflow提供了几类图像处理函数
2017-10-16 23:45:40 2126
原创 Tensorflow基础:统一的数据存储格式
来自实际问题的数据往往有很多格式和属性,TFRecord格式可以统一不同的原始数据格式,并更加有效地管理不同的属性。
2017-10-13 10:27:41 926
原创 Tensorflow基础:卷积神经网络迁移学习
ImageNet图像分类数据集中有120万标注图像,所以才能将152层的ResNet的模型训练到大约96.5%的正确率。在真实的应用中,很难收集到如此多的标注数据。即使可以收集到,也需要花费大量人力物力。而且即使有海量的训练数据,要训练一个复杂的卷积神经网络也需要几天甚至几周的时间。迁移学习,提供了一种解决标注数据和训练时间的问题。迁移学习所谓迁移学习,就是将一个问题上训练好的模型,通过简单的调整使
2017-10-13 09:00:51 874
原创 Tensorflow实例:Inception-v3模型
通过介绍LeNet-5模型整理除了一类经典的卷积神经网络架构设计。在本文中,将介绍Inception结构以及Inception-v3卷积神经网络模型。
2017-10-12 20:55:43 3304
原创 Tensorflow实例:mnist最佳实践
Tensorflow最佳实践mnist程序在Tensorflow实例:mnist中已经给出了一个完整的Tensorflow程序来解决MNIST问题。然而这个程序的可扩展性并不好。
2017-10-11 21:50:32 1242
原创 Tensorflow实例:mnist手写数字
Tensorflow实例:mnist手写数字本文将给出一个完整的Tensorflow程序来解决MNIST手写数字识别问题。代码中包含的功能有:带指数衰减的学习率设置、使用正则化来避免过拟合、使用滑动平均模型来使得最终模型更加健壮。
2017-10-11 16:30:50 526
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人