machine learning
凯旋的铁铁
咸鱼一号
展开
-
python+sklearn,机器学习-线性回归实现-以披萨尺寸预测价格
实例:思路:简单而直观的方式是通过数据的可视化直接观察成交价格与尺寸间是否存在线性关系。对于本实验的数据来说,散点图就可以很好的将其在二维平面中进行可视化表示。代码# **用matplotlib画出图形**import matplotlib.pyplot as plt%matplotlib inlinefrom matplotlib.font_manager import F...原创 2020-02-16 15:07:25 · 5157 阅读 · 2 评论 -
Scikit-Learn中的SVM实现
sklearn.svmsklearn.svm模块提供支持向量机算法,可用于分类、回归和异常值检测。• 分类实现有三种方式:• LinearSVC基于liblinear实现线性SVM比基于libsvm实现的线性SVC/NuSVC更快,同时可采用更多正则选择(L1/L2)和损失函数选择,L1正则可以得到特征系数稀疏的效果,适用于样本数更多的情况• SVC和NuSVC类似,都是基于l...原创 2019-12-07 21:29:35 · 504 阅读 · 0 评论 -
Bagging算法
集成学习有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。Bagging算法(英语:Bootstrap aggregating,引导聚集算法),又称装袋算法,是机器学习领域的一种团体学习算法。最初由Leo Breiman于1996年提出。Bagging算法可与其他分类、回归算法结合,提高...原创 2019-12-04 23:16:40 · 21722 阅读 · 1 评论 -
BAT机器学习面试1000题系列
BAT机器学习面试1000题系列https://blog.csdn.net/sinat_35512245/article/details/78796328转载 2019-11-21 16:02:49 · 135 阅读 · 0 评论 -
决策树
机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测决策的形式以树的形式进行示意和编码,...原创 2019-11-21 15:58:39 · 175 阅读 · 0 评论 -
SVM——输出概率值
https://blog.csdn.net/flyfrommath/article/details/78139719原创 2019-11-21 15:50:01 · 2741 阅读 · 0 评论 -
svm——支持向量
支持向量本质是向量,而这些向量却起着很重要的作用,如果做分类,他们就是离分界线最近的向量。也就是说超平面的参数完全由支持向量确定。和任何其他的点无关。如果改变其他点的位置,只要其他点不落入虚线上或者虚线内,那么超平面的参数都不会改变。在支持向量机中,距离超平面最近的且***满足一定条件***的几个训练样本点被称为支持向量。(什么条件)所以在训练样本中只有小部分是向量机特点:1。距离超平面最近...原创 2019-11-20 17:33:29 · 1443 阅读 · 1 评论 -
svm——合页损失
横轴表示函数间隔,我们从两个方面来理解函数间隔:1)正负当样本被正确分类时,y(wx+b)>0;当样本被错误分类时,y(wx+b)<0。2)大小y(wx+b)的绝对值代表样本距离决策边界的远近程度。y(wx+b)的绝对值越大,表示样本距离决策边界越远。因此,我们可以知道:当y(wx+b)>0时,y(wx+b)的绝对值越大表示决策边界对样本的区分度越好当y(wx+b...原创 2019-11-20 17:13:33 · 421 阅读 · 0 评论 -
svm——核函数
SVM算法的原理就是找到一个分割超平面,它能把数据正确的分类,并且间距最大!但并不总是线性可分,我们可以将样本通过一个映射函数把它从原始空间投射到一个更高维的特征空间,使得样本在这特征空间线性可分。核函数的定义 :设x,z∈X,X属于R(n)空间,非线性函数Φ实现输入间X到特征空间F的映射,其中F属于R(m),n<<m。根据核函数技术有: ...原创 2019-11-20 16:23:39 · 1088 阅读 · 0 评论