![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
guanguanboy
这个作者很懒,什么都没留下…
展开
-
Windows10下安装Anaconda3
参考链接:https://blog.csdn.net/ychgyyn/article/details/82119201特别需要注意的是环境变量的配置,配置环境变量:如果你在安装过程中勾选了Add PATH 那个选项,那么你不需要额外配置环境变量,但是如果你没有勾选(默认是不勾选的),那么你需要按照以下标准去配置(路径根据自己的安装位置变化):不配置环境变量可能会产生如下的错误:错误:Importing the multiarray numpy extension module fa.原创 2020-09-05 14:44:32 · 655 阅读 · 0 评论 -
多项式回归
与特征选择密切相关的一个概念是 多项式回归。原创 2020-07-28 15:38:37 · 184 阅读 · 0 评论 -
特征缩放与梯度下降的关系
特征缩放:对于一个sample,他可能有多个特征,通过缩放,使得每个特征的大小范围保持一致的过程,就是特征缩放。例如,房价预测的例子中,一个房子,可以有多个特征,房屋面积,卧室数量,使用年限等。特征缩放可以使得梯度下降算法更快的收敛,并且收敛的更好。有这个效果的原因如下:以两个特征卧室数量和 房屋面积为例,如果不进行特征缩放,则等值线是细长的椭圆形。这样收敛比较慢,并且会波动,导致花的时间长。进行特征缩放之后,可以使得cost function的等值线从细长的椭圆形变成近似圆形,收敛起来原创 2020-07-27 14:17:29 · 605 阅读 · 0 评论 -
关于rosdep init 失败问题的研究
关于这个问题知乎上有一篇非常深入的帖子。解决方法1:0. 研究背景之前博主是在Debian 10.3系统上安装,我是在ubuntu18.4 的版本上安装:http://wiki.ros.org/cn/melodic/Installation/Ubuntu进行到1.5步,初始化 rosdep时出现以下问题。根据官方指引,在进行到“1.2 初始化rosdep“时,执...原创 2020-04-27 15:13:10 · 1710 阅读 · 1 评论 -
吴恩达machine learning yearning笔记3-什么时候改变开发和测试集及度量
这节里首先提到了,如何去做一个项目的方法论:When starting out on a new project, I try to quickly choose dev/test sets, since this gives theteam a well-defined target to aim for.当开始做一个新项目的时候,首先快速的选择开发和测试集,这样会给项目找到一个定义好...原创 2019-12-04 10:49:24 · 128 阅读 · 0 评论 -
吴恩达machine learning yearning读书笔记1
在《setting up development set and test set》这一章中,作者提到了一个很重要的问题。训练集和测试集分布不一致导致的机器学习模型泛化能力有限:在训练集上表现比较好,但是在不同分布的测试集上表现很糟糕这个话题。比如作者提到一个例子,猫咪探测器,训练的时候用的从website download的猫咪图片,但是测试的时候用的是通过手机拍照得到的猫咪图片,由于分...原创 2019-12-03 23:03:23 · 123 阅读 · 0 评论 -
Matlab 官网的机器学习资源
Mastering Machine Learning: A Step-by-Step Guide with MATLAB:https://www.mathworks.com/campaigns/offers/mastering-machine-learning-with-matlab.html?s_iid=doc_eb2_ST_footer一组视频教程:Learn more ab...原创 2019-09-06 11:23:38 · 382 阅读 · 0 评论 -
朴素贝叶斯分类算法
算法输入:训练样本,及未知标签样本X。算法输出:样本X所属的类。朴素贝叶斯算法的流程:1,计算先验概率及类条件概率密度。2,计算后验概率。3,选取后验概率的最大值所对应的类,作为X的分类结果。...原创 2019-08-22 09:08:26 · 134 阅读 · 0 评论 -
K-means 算法与高斯混合模型的异同
Like thek-means clustering algorithm, EM is sensitive to initial conditions and might converge to a local optimum.原创 2019-08-16 14:38:02 · 1096 阅读 · 0 评论 -
联合概率分布与统计学习方法
监督学习假设输入的随机变量X与输出的随机变量Y遵循联合概率分布P(X,Y),P(X,Y)表示分布函数,或者分布密度函数。注意在学习过程中假定这一联合概率分布存在,但对学习系统来说,联合概率分布的具体定义是未知的,训练数据和测试数据被看作是依联合概率分布P(X,Y) 独立同分布产生的。统计学习假设数据存在一定的统计规律,X和Y具有联合概率分布的假设就是监督学习关于数据的基本假设。...原创 2019-08-21 14:38:56 · 1299 阅读 · 0 评论 -
生成模型与判别模型
生成模型与判别模型 监督学习的任务就是学习一个模型,然后应用这个模型对给定的输入预测相应的输出,这个模型的一般形式为决策函数:Y=f(X),或者条件概率分布P(Y|X). 监督学习又可分为生成方法和判别方法,所学到的模型分别称为生成模型和判别模型。生成方法由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|...原创 2019-08-21 14:29:00 · 103 阅读 · 0 评论 -
迭代优化的模式
for t = 0,1w(t+1) = w(t) + v其中为学习率,v表示方向,由于v表示方向,所以v的长度可以为单位长度。 对于感知器算法来说,v 就是发生错误时对逻辑回归算法来说,由于逻辑回归的Error 是一个convex函数,所以这个方向选择梯度方向就可以了。 ...原创 2018-11-28 09:00:31 · 1217 阅读 · 1 评论 -
pycharm 常用快捷键收集
注释: 选中 + Ctrl + /原创 2018-12-02 21:52:51 · 119 阅读 · 0 评论 -
SVM中的支持向量
什么是support vector:suport vector 就是离分割超平面最近的那些点原创 2018-11-29 17:24:19 · 369 阅读 · 0 评论 -
ML术语
泛化(generalization)能力:学得的模型适用于新样本的能力。具有强泛化能力的模型能够很好的适用于整个样本空间。原创 2018-11-23 15:06:49 · 253 阅读 · 0 评论 -
线性回归
线性回归的算法最后总结成三个步骤:1,根据训练样本构造输入矩阵X,输出向量y。2,计算矩阵X的伪逆3,w = X的伪逆*yw 是一个(d+1)*1 维的向量,其中d为样本的维度,也就是属性个数。预测新的样本:新样本的取值 = w的转置 * x;...原创 2018-11-23 22:35:59 · 97 阅读 · 0 评论