![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
sinat_29552923
这个作者很懒,什么都没留下…
展开
-
机器学习入门文章
转自 飞鸟各投林史上最强—-机器学习经典总结—入门必读—-心血总结—–回味无穷让我们从机器学习谈起导读:在本篇文章中,将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。当然,本文也面对一般读者,不会对阅读有相关的前提要求。 在进入正题前,我想读者心中可能会有一个疑惑:机器学习有什么重要性,以至于要阅读完这篇非常长的文章呢? 我并不直转载 2017-04-23 13:30:22 · 262 阅读 · 0 评论 -
机器学习——Dropout原理介绍
一:引言文章转载自小梦想大愿望 因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能力不好),但是在测试数据上损失函数比较大,预测准确率较低。 常用的防治过拟合的方法是在模转载 2017-05-16 16:26:14 · 1125 阅读 · 0 评论 -
SIFT特征提取分析
SIFT(Scale-invariant feature transform)是一种检测局部特征的算法,该算法通过求一幅图中的特征点(interest points,or corner points)及其有关scale 和 orientation 的描述子得到特征并进行图像特征点匹配,获得了良好效果,详细解析如下:算法描述SIFT特征不只具有尺度不变性,即使改变旋转角度,图像亮转载 2017-05-22 14:57:51 · 768 阅读 · 0 评论 -
非极大值抑制算法 (NMS)
1. 算法原理 非极大值抑制算法(Non-maximum suppression, NMS)的本质是搜索局部极大值,抑制非极大值元素。2. 3邻域情况下NMS的实现 3邻域情况下的NMS即判断一维数组I[W]的元素I[i](2 a. 算法流程3-5行判断当前元素是否大于其左邻与右邻元素,如符合条件,该元素即为极大值点。对于极大值点I[i],已知I[i]>I[i+1],转载 2017-06-02 21:54:38 · 6391 阅读 · 1 评论 -
BP算法详解
首先跟大家说声新年快乐啊,刚刚步入16年啊,啊哈哈。额,您继续看。。 暂时只包含全连接的BP,至于conv的。。预先说明由于有些人实在太蠢,没办法只能加上这一段。首先,这里面什么看成变量,什么看成常量。 变量:网络的权值W(偏置b默认在W内。)以及输入X。 常量:就是target 你可能会说呃呃呃,不是输入都是有值得吗,不都是数吗,怎么会是变量啊。。我还能说什么呢?一般来说转载 2017-07-01 11:16:22 · 972 阅读 · 0 评论 -
最优化方法:范数和规则化regularization
http://blog.csdn.net/pipisorry/article/details/52108040机器学习中出现的非常频繁的问题有:过拟合与规则化。先简单的来理解下常用的L0、L1、L2和核范数规则化,最后聊下规则化项参数的选择问题。一般来说,监督学习可以看做最小化下面的目标函数):θ∗=argminθ1N∑i=1NL(yi,f(xi;θ))+λ Φ(θ)转载 2017-06-12 16:40:07 · 15706 阅读 · 0 评论