- 博客(21)
- 收藏
- 关注
翻译 支持向量机《统计学习方法》摘要
1.支持向量机最简单的情况是线性可分支持向量机,或硬间隔支持向量机。构建它的条件是训练数据线性可分。其学习策略是最大间隔法。可以表示为凸二次规划问题,其原始最优化问题为求得最优化问题的解为w*,b*,得到线性可分支持向量机,分离超平面是分类决策函数是最大间隔法中,函数间隔与几何间隔是重要的概念。线性可分支持向量机的最优解存在且唯一。位于间隔边界上的实例点为支持向量。最优...
2019-04-19 14:40:51 496
转载 支持向量机系列
转载:http://blog.pluskid.org/?p=702牛的一逼的博客支持向量机系列基本篇: 支持向量机: Maximum Margin Classifier—— 支持向量机简介。 支持向量机: Support Vector—— 介绍支持向量机目标函数的 dual 优化推导,并得出“支持向量”的概念。 支持向量机:Kernel—— 介绍核方法,并由此将支持向量机...
2019-04-19 10:51:54 207
转载 机器学习基本概念
机器学习入门好文,强烈推荐(可惜不知道原创是谁)转:https://blog.csdn.net/zhangbijun1230/article/details/79439216终于知道原创了,必须附上链接转自飞鸟各投林史上最强----机器学习经典总结---入门必读----心血总结-----回味无穷导读:在本篇文章中,将对机器学习做个概要的介绍。本文的目的是能让即便完全...
2019-04-15 15:06:00 526
原创 pycharm卡死原因分析
安装完成pycharm之后,开始进行编程,在代码自动补全的时候特别的卡,通过以下三种方法解决了,不过最终还是觉得第三种情况很消耗内存: 第一:关闭代码的自动提示,在需要的时候通过手动进行提示。将代码自动补全的功能全部关闭,截图如下,第二:调整pycharm的堆大小配置,Help->Edit custorm vm options,第三:在经过上面的两步后,发现系统还是非常
2018-02-05 16:53:05 46623 5
转载 k近邻
转载 :http://blog.csdn.net/qll125596718/article/details/8426458在使用k近邻法进行分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。由于k近邻模型的特征空间一般是n维实数向量,所以距离的计算通常采用的是欧式距离。关键的是k值的选取,如果k值太小就意味着整体模型变得复杂,容易发生过拟合,即如
2018-01-30 18:58:17 385
转载 最近邻法和k-近邻法
转载:https://www.cnblogs.com/21207-iHome/p/6084670.html最近邻法和k-近邻法 下面图片中只有三种豆,有三个豆是未知的种类,如何判定他们的种类? 提供一种思路,即:未知的豆离哪种豆最近就认为未知豆和该豆是同一种类。由此,我们引出最近邻算法的定义:为了判定未知样本的类别,以全部训练样本作为代表点,计算未知样本与所有训练样
2018-01-30 18:10:26 22801
转载 K近邻算法
转载:http://blog.csdn.net/bbzz2/article/details/50915681一、原理 K近邻算法(KNN,K-NearestNeighbors)是一种非常简单的机器学习方法,它既可以处理分类问题,也可以处理回归问题,而且它的执行效果非常好。KNN是一种懒惰学习算法(lazy learningalgorithm)。所谓懒惰算法指的是
2018-01-30 14:23:59 389
转载 决策树
转载地址:https://www.jianshu.com/p/3ef0d7fa92a5?from=jiantop.com机器学习笔记--决策树 这里开始机器学习的笔记记录。今天的这篇是一个分类方法--决策树。方法适用问题模型特点模型类别学习策略学习的损失函数学习算法决策树多类
2018-01-29 18:46:29 364
转载 常见向量范数和矩阵范数
1、向量范数1-范数:,即向量元素绝对值之和,matlab调用函数norm(x, 1) 。2-范数:,Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)。∞-范数:,即所有向量元素绝对值中的最大值,matlab调用函数norm(x, inf)。-∞-范数:,即所有向量元素绝对值中的
2018-01-26 13:58:08 3745
原创 最优化理论视频网站
找了好久的最优化理论视频,主要是针对凸优化的,视频列表如下上交大最优化-youku:http://list.youku.com/albumlist/show?id=6461357&ascending=1&page=1上交大最优化-bilibili:https://www.bilibili.com/video/av14666879/#page=1斯坦福大学-convex op
2018-01-24 09:37:28 18309
转载 机器学习-朴素贝叶斯实例分析- 文本分析
转载地址:http://blog.csdn.net/dream_angel_z/article/details/46312319本节主要给出一个朴素贝叶斯的实例。引文:由于之前讲过了朴素贝叶斯的理论Stanford机器学习[第五讲]-生成学习算法第四部分,同时朴素贝叶斯的算法实现也讲过了,见机器学习算法-朴素贝叶斯Python实现。那么这节课打算讲解一下朴素贝叶斯算
2018-01-22 14:03:06 579
转载 朴素贝叶斯理论推导与三种常见模型
由于博主不允许转载,只能标明链接地址:http://blog.csdn.net/u012162613/article/details/48323777#reply
2018-01-22 12:28:47 664
原创 机器学习心得体会总结
第一:线性代数是把复杂问题简单化解决,但是简单问题已经很复杂了。第二:国内还没有一本关于机器学习讲得连老百姓都能看得明白的书籍。
2018-01-04 14:40:31 8173
转载 数学书籍推荐
装载:http://blog.sina.com.cn/s/blog_5e638d950100dswh.html数学系教材推荐 (2009-07-21 13:09:32)转载▼标签: 课本 教育 计划 数学 文化 校园 杂谈分类: 数学
2018-01-03 15:20:19 12204
转载 核函数(Kernels)
转载:http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988406.html支持向量机(三)核函数7 核函数(Kernels)考虑我们最初在“线性回归”中提出的问题,特征是房子的面积x,这里的x是实数,结果y是房子的价格。假设我们从样本点的分布中看到x和y符合3次曲线,那么我们希望使用x的三次多项式来逼近这些样本点。那么
2018-01-03 14:17:34 11107
转载 支持向量机:Duality
转载:http://blog.pluskid.org/?p=702该文是解释strong duality问题成立条件,最容易理解、最透彻的一篇文章,不得不佩服网络上的大拿非常多,还是一句话,只要愿意在网上不断的寻找答案,一定会有的,纵使找不到答案,了不起是一个打酱油的,纵使命运注定是个打酱油的,也要打一瓶与别人不一样的酱油!支持向量机:Duality by pluski
2017-12-30 11:01:21 292
原创 博文收藏
以下将陆续收藏非常好的博文、网址:机器学习:http://www.hankcs.com/ml/,该楼主的相关博文还是有不少比较好的内容的。拉格朗日的对偶性:http://www.cnblogs.com/90zeng/p/Lagrange_duality.html支持向量&拉格朗日对偶:http://blog.pluskid.org/?p=702,该楼主的相关博文还是有不少比较好的内容的
2017-12-30 09:39:01 8512
转载 拉格朗日对偶性
装载:http://www.hankcs.com/ml/lagrange-duality.html该博主的文章使得对于拉格朗日问题,以及KTT约束的理解有本质提升拉格朗日对偶性码农场 > 机器学习2015-10-11 阅读(2289)评论(4)目录1. 原始问题2. 对偶问题3. 原始问题和对偶问题的关系定
2017-12-29 20:29:21 420
转载 支持向量机(SVM)的详细推导过程及注解
转:http://blog.sina.com.cn/s/blog_4298002e010144k8.html支持向量机(SVM)的详细推导过程及注解(一) (2012-03-19 15:57:24)转载▼标签: svm 支持向量机 拉格朗日 对偶问题 不等式条件极值
2017-12-29 18:20:38 775 1
转载 拉格朗日乘子法
转载:http://jermmy.xyz/2017/07/27/2017-7-27-understand-lagrange-multiplier/拉格朗日乘子法 发表于 2017-07-27 | 分类于 机器学习 | 阅读次数 305最近在学习 SVM 的过程中,遇到关于优化理论中拉格朗日乘子法的知识,本文是根据几篇文章总结得来的笔记。由于是刚刚接触,难免存在错误,还望指出
2017-12-29 11:40:38 430
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人