机器学习Machine Learning
Twig程
Make more time.
展开
-
机器学习:逻辑斯特回归算法
逻辑回归算法机器学习可分为有监督学习,无监督学习,半监督学习,强化学习。对于LR来说,看成一种典型的有监督学习。 既然是有监督学习,训练集自然可以用如下方式表述: 对于这m个训练样本,每个样本本身有n维特征。再加上一个偏置项x0, 则每个样本包含n+1维特征: 其中 x∈Rn+1, x0=1, y∈{0,1} 统计学习方法一书中: 分类是监督学习的一个核心问题,在监督学习中...转载 2018-04-22 15:58:06 · 656 阅读 · 0 评论 -
机器学习Machine Learning:成本(cost) 函数,损失(loss)函数,目标(Objective)函数的区别和联系?
机器学习Machine Learning:cost 函数,loss函数,objective函数的区别和联系?关于这个问题,我也是机器学习初学者,对于这些概念感觉有必要追根究底。 不同笔者有不同的见解,通过搜集一些相关笔者的回答和个人的理解,我整理了材料如下:首先在Andrew NG的Coursera:Neural Networks and Deep Learning 课程中,有如下一...原创 2018-04-22 15:41:42 · 8698 阅读 · 0 评论 -
机器学习算法之支持向量机SVM
机器学习算法之支持向量机SVMOutline 1. Optimization Objective 2. large margin intuition 3. The mathematics behind large margin 4. Kernels 5. Using a SVM1.Optimization Objective4 ...原创 2018-04-21 19:48:11 · 264 阅读 · 0 评论 -
机器学习Machine Learning:特征选择Feature Selection 与 数据降维Dimension Reduction的区别?
为什么会有降维和特征选择???我们知道机器学习的终极目标就是为了预测,当然预测前我们要对数据进行训练。通常我们不会拿原始数据来训练,为什么呢?可能有些人觉得原始信息(original data)包含了样本最丰富的信息,没有经过任何处理的raw data能最完整表达样本,这个观点没有错。但是用raw data来直接训练的话,有一个问题就是我们设计的分类器在训练集上会得到很好的performanc...翻译 2018-05-05 20:51:58 · 1122 阅读 · 0 评论 -
机器学习:朴素贝叶斯算法
朴素贝叶斯算法1.朴素贝叶斯的假设一个特征出现的概率,与其他特征(条件)独立(特征独立性) 其实是:对于给定分类的条件下,特征独立每个特征同等重要(特征均衡性)举个栗子:以文本分类为例样本:1000封邮件,每个邮件被标记为垃圾邮件或者非垃圾邮件 分类目标:给定第1001封邮件,确定它是垃圾邮件还是非垃圾邮件分析方法:朴素贝叶斯 关于拉普拉斯平滑处理...原创 2018-04-28 21:14:06 · 250 阅读 · 0 评论 -
先验概率与后验概率浅析
先验概率和后验概率先验(Apriori;又译:先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。它通常与后验知识相比较,后验意指“在经验之后”,需要经验。 这一区分来自于中世纪逻辑所区分的两种论证,从原因到结果的论证称为“先验的”,而从结果到原因的论证称为“后验的1 先验概率袋子中有5个红球,3个白球,现在去抓一...原创 2018-07-23 10:33:23 · 2740 阅读 · 0 评论 -
漫谈初学者机器学习模型设计?
首先,我也是一个机器学习初学者,这里跟大家聊一下自己的最近学习感悟。我认为在面对一件事务的时候,首先对这个事务来一个深刻的认识很重要。首先我们来看一下统计学习具体由什么构成或者有什么重要的要素? 这一点我参造《统计学习方法》里面写道,统计机器学习方法是由模型、策略和算法构成的。 方法 = 模型+策略+算法模型Model在监督学习过程中,模型就是要学习的条件概率分布或者决策函数。模型...原创 2018-07-22 15:18:48 · 525 阅读 · 0 评论