深度学习
文章平均质量分 92
qq_34555202
这个作者很懒,什么都没留下…
展开
-
Generative Adversarial Nets(译)
论文地址:Generative Adversarial Nets 论文翻译:XlyPb(http://blog.csdn.net/wspba/article/details/54577236)摘要我们提出了一个通过对抗过程估计生成模型的新框架,在新框架中我们同时训练两个模型:一个用来捕获数据分布的生成模型G,和一个用来估计样本来自训练数据而不是G的概率的判别模型D,G的训练过程是最大化D产生错误的转载 2017-09-05 15:00:26 · 267 阅读 · 0 评论 -
YOLO1
1.重点大小目标的检测转载 2018-09-25 11:26:40 · 138 阅读 · 0 评论 -
YOLO小结
1.Object Localization前两节课程中,我们介绍的是利用CNN模型进行图像分类。除此之外,本周课程将继续深入介绍目标定位和目标检测(包含多目标检测)。标准的CNN分类模型我们已经很熟悉了,如下所示:原始图片经过CONV卷积层后,Softmax层输出4 x 1向量,分别是:注意,class label也可能是概率。上述四个向量分别对应pedestrain,...转载 2018-09-25 10:35:53 · 728 阅读 · 0 评论 -
如何选择回归损失函数
无论在机器学习还是深度领域中,损失函数都是一个非常重要的知识点。损失函数(Loss Function)是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。我们的目标就是最小化损失函数,让 f(x) 与 y 尽量接近。通常可以使用梯度下降算法寻找函数最小值。损失函数有许多不同的类型,没有哪种损失函数适合所有的问题,需根据具体模型和问题进行选择。一般来说,损失函数大致可以分成两类:回归(...转载 2018-09-07 10:21:13 · 3863 阅读 · 0 评论 -
机器学习小结一
谷歌的自动驾驶汽车和机器人研发之路受到很多阻碍,但该公司真正的未来是机器学习,这种技术使计算机变得更加智能和个性化。 – Eric ...原创 2018-09-03 14:37:00 · 602 阅读 · 0 评论 -
机器学习常用中英文对照
Perceptron 感知机原创 2018-09-05 16:10:26 · 859 阅读 · 0 评论 -
机器学习入门:特征初期处理技巧
所谓特征工程,指的就是从数据中抽取包含大量信息的特征,方便模型易于学习的过程。所有的模型都是错误的,但其中有些是有用的。下面介绍几个优秀的数据特征处理技巧:1.数据转换为图像实例1:用数据集预测电力消耗热图的纵坐标DOW表示一周7天,横坐标则是一天24小时。很明显,周末整天的用电情况和工作日深夜的用电情况十分类似。由此,创建了一个特征——weekend proximity,...转载 2018-09-05 15:55:24 · 1076 阅读 · 0 评论 -
SVM对偶问题
一.关于优化问题的最基本的介绍 #优化问题这里面有很多东西,我先给出参考过的资料有,可以先看看这些资料自己总结一下,因为我觉得这部分内容很多人总结的都很好了:①《支持向量机导论》的第五章最优化理论②刚买的《统计学习方法》中的相关附录,不得不说这本书真的很棒③《An Introduction to Optimization》这本书专门讲最优化的,如果要系统理解我觉得可以看看,但我只看...转载 2018-08-30 15:35:22 · 967 阅读 · 0 评论 -
机器学习常用方法总结
决策树一、 决策树优点1、决策树易于理解和解释,可以可视化分析,容易提取出规则。2、可以同时处理标称型和数值型数据。3、测试数据集时,运行速度比较快。4、决策树可以很好的扩展到大型数据库中,同时它的大小独立于数据库大小。二、决策树缺点1、对缺失数据处理比较困难。2、容易出现过拟合问题。3、忽略数据集中属性的相互关联。4、ID3算法计算信息增益时结果偏向数值...转载 2018-09-01 14:50:03 · 630 阅读 · 0 评论 -
深度学习名称注意
1.相似名词:去卷积也是反卷积。 合页损失函数也是hinge loss 也是最大间隔损失函数。2 基础名词 层误差,反向传播的误差原创 2018-08-24 17:27:25 · 141 阅读 · 0 评论 -
坐标下降
给定一个可微的凸函数,如果在某一点x,使得f(x)在每一个坐标轴上都是最小值,那么f(x)是一个全局的最小值。如果f(x)不可微,则不满足。同理:对所有的,其中g是可微的凸函数,每一个hi都是凸的,我们可以使用坐标下降寻求一个最小值。一 综述坐标下降法属于一种非梯度优化的方法,它在每步迭代中沿一个坐标的方向进行搜索,通过循环使用不同的坐标方法来达到目标函数的局部极小值。二 算法过程...转载 2018-08-30 16:30:54 · 540 阅读 · 0 评论 -
决策树考点
1.随机森林随机选特征的作用RF的话,如果有一个特征和标签特别强相关。选择划分特征时,如果不随机的从所用特征中随机取一些特征的话,那么每一次那个强相关特征都会被选取。那么每个树都会是一样的。这就是随机森林随机选取一些特征的作用,让某些树,不选这个强相关特征。2.Bagging 意义bootstrap aggregating 自举汇聚法模型很好,variable很大。3.GBDT...原创 2018-08-26 17:13:06 · 182 阅读 · 0 评论 -
过拟合问题
过拟合:在训练集表现好,在测试集表现一塌糊涂。常用方法:数据,样本不够,如果现在的训练集只是所有样本空间的一个小小的部分,那么这个模型的泛化能力就非常差(边画图,边说) B 可以加正则项,L1,L2正则。L1还可以用来选择特征。因为L1的话会把某些不重要的特征压缩为0,相当于特征选择。因为(画图)L1约束是正方形的,经验损失最有可能和L1的正方形的顶点相交,L1比较有棱角。所以可以把某些...原创 2018-08-26 16:59:23 · 172 阅读 · 0 评论 -
遗留问题:
LR为什么用sigmoid函数。SVM原问题和对偶问题关系。L1正则为什么可以把系数压缩成0REP剪枝。C4.5是悲观剪枝原创 2018-08-26 16:47:48 · 283 阅读 · 0 评论 -
梯度下降法描述
梯度下降法是为了找到最优的目标函数,寻找的过程就是沿着损失函数下降的方向来确定参数变化的方向。参数更新的过程就是一个不断迭代的过程,每次更新参数学到的函数都会使得误差损失越来越小,也就是说学习到的参数函数越来越逼近最优函数。参数的更新是按照损失函数的等高线的方向进行的。梯度下降是一阶导数,梯度下降是用平面来逼近局部。 牛顿法是二阶导数,牛顿法是用曲面逼近局部。梯度下...转载 2018-08-22 10:36:50 · 671 阅读 · 0 评论 -
网络参数初始化Xavier与MSRA
权值初始化的方法主要有:常量初始化(constant)、高斯分布初始化(gaussian)、positive_unitball初始化、均匀分布初始化(uniform)、xavier初始化、msra初始化、双线性初始化(bilinear)。可参考博客。重点介绍xavier与msra。xavier初始化 对于权值的分布:均值为0,方差为(1 / 输入的个数) 的 均匀分布。推导...转载 2019-01-03 09:10:27 · 442 阅读 · 0 评论