![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 80
Lydia.na
这个作者很懒,什么都没留下…
展开
-
【统计学习|书籍阅读】第七章 支持向量机 p95-p133
算法是支持向量机学习的一种快速算法,其特点是不断地将原二次规划问题分解为只有两个变量的二次规划子问题,并对自问题进行解析求解,直到所有变量满足KKT条件为止。现实中训练数据是线性可分的情形较少,训练数据往往是近似线性可分的,这时使用线性支持向量机,或软间隔支持向量机。支持向量机最简单的情况是线性可分支持向量机,或硬间隔支持向量机,构建它的条件是训练数据线性可分,其学习策略是。线性可分支持向量机的最优解存在且唯一,位于间隔边界上的实例点为支持向量,最优分离超平面由支持向量完全决定。原创 2022-10-02 09:08:17 · 834 阅读 · 0 评论 -
【统计学习|书籍阅读】第六章 logistics回国和最大熵模型 p77-p88
logistic 回归是统计学习的经典分类方法。最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型。原创 2022-09-28 13:17:26 · 364 阅读 · 0 评论 -
【统计学习|书籍阅读】第五章 决策树 p55-p75
决策树是一种基本的分类与回归方法。主要讨论分类决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。可以认为是if-then规则的集合,也可认为是定义在特征空间与类空间的条件概率分布。学习时,利用训练数据,根据损失函数最小化原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。决策树学习通常包括3个步骤:特征选择、决策树的生成和决策树的修建。原创 2022-09-26 20:53:48 · 582 阅读 · 0 评论 -
【统计学习|书籍阅读】第四章 朴素贝叶斯 p47-p54
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入,利用贝叶斯定理求出后验概率最大的输出y。原创 2022-09-26 09:14:49 · 414 阅读 · 0 评论 -
【统计学习|书籍阅读】第二章 感知机 p25-p35
感知器对应于输入空间中将实例划分为正负两类的分离超平面,属于判别模型,感知机学习旨在求出将训练数据进行线性划分的分离超平面。为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求的感知机模型。感知机学习算法是基于随机梯度下降法的对损失函数的最优化算法,有原始形式和对偶形式。当训练数据集线性可分时,感知机学习算法存在无穷多个解,其解由于不同的初值或不同的迭代顺序而可能有所不同。对偶形式的基本思想是将w和b表示为实例xi和标记yi的线性组合的形式,通过求解系数而得到w和b.原创 2022-09-26 08:29:15 · 167 阅读 · 0 评论 -
【统计学习|书籍阅读】第一章 统计学习方法概论 p1-p24
统计学习的对象:数据。统计学习的目标:考虑学习什么样的模型和如何学习模型,以使模型能对数据进行准确的预测与分析,同时也要考虑尽可能提高学习效率。原创 2022-09-25 17:43:46 · 477 阅读 · 0 评论 -
雷达图 The number of FixedLocator locations (4), usually from a call to set_ticks, does not match the n
错误的原因是刻标与标签长度不一致,增加一个步骤即可。看了网上好多方法没用,但这个方法是有用的。雷达图 The number of FixedLocator locations (4), usually from a call to set_ticks, does not match the n原创 2022-09-08 14:53:57 · 1984 阅读 · 3 评论 -
python高级特性及函数式编程例题
==例题:==利用切片操作,实现一个trim()函数,去除字符串首尾的空格,注意不要调用str的方法。迭代==例题:==请使用迭代查找一个list中最小和最大值,并返回一个tuple:列表生成式如果list中既包含字符串,又包含整数,由于非字符串类型没有lower()方法,所以列表生成式会报错:使用内建的函数可以判断一个变量是不是字符串:==例题:==请修改列表生成式,通过添加if语句保证列表生成式能正确地执行:迭代器==例题:==杨辉三角定义如下:/ \ / \ / \ / 1 4原创 2022-07-14 17:41:14 · 343 阅读 · 0 评论 -
【机器学习】 吴恩达机器学习作业 ex2逻辑回归 Matlab实现
h(x)=g(θTX)h(x)=g(\theta ^TX)h(x)=g(θTX)g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}} g(z)=1+e−z1hθ(x)h_\theta(x)hθ(x)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1的可能性即hθ(x)=P(y=1∣x;θ)h_\theta(x)=P(y=1|x;\theta)hθ(x)=P(y=1∣x;θ)假说化简得到h(x)=11+e−θTxh(x)=\frac{1}{1+e^{-\theta ^T原创 2022-06-20 23:53:18 · 1709 阅读 · 0 评论 -
【机器学习】 吴恩达机器学习作业 ex1 python实现+Matlab实现
matlabpython2 单变量的线性回归数据集在ex1data1.txt中,第一列是城市人口数,第二列是小吃店利润。MatlabpythonmatlabcomputeCost.m计算代价函数gradientDescent.m计算梯度python计算结果应为32.07Matlab使用ex1data2.txt中的数据,第一列是房屋大小,第二列是卧室数量,第三列是房屋售价。根据已有数据,建立模型,预测房屋售价MatlabfeatureNormalize.m进行标准化时,mu原创 2022-06-17 11:53:40 · 2071 阅读 · 3 评论