机器学习
文章平均质量分 68
lazerliu
这个作者很懒,什么都没留下…
展开
-
机器学习-两种常用的数据归一化方法
转载自:https://www.cnblogs.com/chaosimple/archive/2013/07/31/3227271.html数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适...转载 2018-04-25 17:00:08 · 229 阅读 · 0 评论 -
【翻译】Faster R-CNN
Faster R-CNN:使用区域候选网络的实时物体跟踪 任少卿 何凯文 Ross Girshick 孙健 摘要 最前沿水平的物体检测网络是基于候选算法来预测物体位置的。像SPPnet[1]和Fast R-CNN[2]这些先进的算法减少了检测网络...翻译 2018-09-09 14:39:58 · 1515 阅读 · 3 评论 -
深度学习之Softmax&SVM loss&gradient公式图及其python实现
Softmax与SVM都是用来对数据进行分类的。Softmax常用于神经网络的输出层,SVM常常直接与SGD配合实现物体分类。无论是Softmax还是SVM在工作时都需要计算出loss和gradient,学习使用中发现两者有很多相似之处,特拿来对比学习。 公式 图解 scores是计算得到的分类得分公式中的s,y是ground truth python代码实现 ...原创 2018-09-15 15:32:54 · 1649 阅读 · 0 评论 -
深度学习之网络设计时优化【Dropout,Batch Normalization及其python实现】
一、Dropout 随机失活是一种 简单但非常有效的 神经网络训练效果提升技巧,原理大概是它在一定程度上避免了某些特定特征组合对训练造成的负面影响。 在正向传播时随机挑选一部分神经元失活。在反向传播时梯度只流经没有失活的神经元。 图1 使用Dropout的网络结构示意图 注意: 在测试时候要对随机失活进行补益。比如说随机失活了P=0.5的神经元,那么在最后测试的结果上乘以P=0....原创 2018-09-22 21:08:00 · 1718 阅读 · 2 评论