![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 77
Frank_Underwood_
这个作者很懒,什么都没留下…
展开
-
机器学习中的线性回归算法
机器学习中的线性回归算法和其MATLAB代码算法简介在监督学习中有一种问题为回归,在线性回归表现为给定一堆散点数据(x,y)(x,y),然后求出回归直线方程θ\theta,在这里我们直接以更为通用的多变量线性回归为例。理论计算求出这样的直线方程有两种方法,一种是求出代价函数J(θ)J(\theta),然后利用梯度下降或者其他最优化方法来求出最小代价函数下的θ\theta。另外一种则是直接利用正规方程原创 2017-07-15 00:48:49 · 512 阅读 · 0 评论 -
机器学习中的Logistic回归算法(LR)
Logistic回归算法(LR)算法简介LR名为回归,实际是一种分类算法。其针对输入样本集xx,假设的输出结果 y=hθ(x)y=h_{\theta}(x) 的取值范围为 y=[0,1]y=[0,1] 。在线性回归中,hθ(x)=θTXh_{\theta}(x)=\theta^{T} X,在此引入Logistic函数,也被称为Sigmoid函数g(z)=11+e−zg(z)=\dfrac{1}{1+原创 2017-07-15 23:12:01 · 6223 阅读 · 0 评论 -
机器学习中的正则化处理
归一化处理在之前的文章中介绍了线性回归和Logistic回归两种机器学习模型,对于回归模型而言(虽然Logistic是一种分类模型,但是其中的决策边界函数z=θTXz=\theta^{T} X是一个回归函数),经常会出现过拟合的问题,对于过拟合的问题,通常有两种处理方法,一种是减少特征的个数,也就是选取其中更加重要的特征。另外一种方法则是采取归一化处理,也就是将(θ1,θ2,θ3...)(\thet原创 2017-07-16 18:55:43 · 741 阅读 · 0 评论 -
机器学习中对假设的评价
在机器学习中,按照Ng的说法,常见的做法是先使用一个简单的模型来进行计算,然后找到其中容易出现的问题和样本的一些特征,解决之后再使用较为复杂的模型,这样会比较节省时间,下面介绍一些常见对假设进行评价的方法。首先在机器学习中常见的对样本的分类方式是60%的训练集(Training Set),20%的交叉验证集(Cross Validation Set),20%的测试集(Testing Set)。其中的原创 2017-07-21 22:49:21 · 667 阅读 · 0 评论