机器学习
greatHongchao
这个作者很懒,什么都没留下…
展开
-
机器学习:多变量线性回归(Linear Regression with Multiple Variables)
支持多变量的假设 梯度下降 对J求导后: 求出最优theta,带入到h(x)。为了保证特征值(x)的范围在(-1<=x<=1)之间,引入特征缩放 Sn为标准差,std()可计算 【注】特征值的缩放不需要太精确,只是为了让梯度下降运行的快一点。正规方程 使用该公式一次性可计算出theta值 一般来说特征数量小于10000,可以使用正规方程。原创 2017-07-12 21:08:43 · 541 阅读 · 0 评论 -
机器学习:线性回归和逻辑回归的区别
线性回归:根据几组已知数据(x(1),y(1)),(x(2),y(2)),...,(x(i),y(i)),...,(x(n),y(n))和拟合函数hθ(x)=θTx训练其中未知参数θ=[θ1,θ2,...,θi,...,θn],使得拟合损失ℓ(θ)=1/2∑i=1m(hθ(x(i))−y(i))2=1/2∑i=1m(θTx(i)−y(i))2达到最小。然后用所得的拟合函数进行预测。转载 2017-07-13 15:22:01 · 2389 阅读 · 0 评论 -
机器学习:逻辑回归
什么是逻辑回归?Logistic回归与多重线性回归实际上有很多相同之处,最大的区别就在于它们的因变量不同,其他的基本都差不多。正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalizedlinear model)。这一家族中的模型形式基本上都差不多,不同的就是因变量不同。如果是连续的,就是多重线性回归;如果是二项分布,就是Logistic回归;转载 2017-07-13 15:55:16 · 413 阅读 · 0 评论 -
机器学习:诊断偏差和方差
如果一个机器学习算法表现不理想,要么是欠拟合,要么是过拟合。越高次方越能代表我们的训练集,但能适应训练集并不代表能推广至一般情况。高偏差:训练误差很大,训练误差与测试误差很小,随着样本增多,训练误差增大。高方差:训练误差很小,训练误差与测试误差差距很大,随着样本增多,测试误差会减小。训练集误差和交叉验证集误差近似时:高偏差。交叉验证集误差远大于训练集误差时:高方差。原创 2017-07-14 17:58:08 · 967 阅读 · 0 评论 -
机器学习:误差分析
研究机器学习的问题时,最多只会花一天的时间,就是字面意义上的 24 小时,来试图很快的把结果搞出来,即便效果不好。坦白的说,就是根本没有用复杂的系统,但是只是很快的得到的结果。即便运行得不完美,但是也把它运行一遍,最后通过交叉验证来检验数据。一旦做完,你可以画出学习曲线,通过画出学习曲线,以及检验误差,来找出你的算法是否有高偏差和高方差的问题,或者别的问题。在这样分析之后,再来决定用更多的转载 2017-07-14 18:02:14 · 2381 阅读 · 0 评论 -
机器学习:查准率(Precision)和查全率(Recall)
类偏斜(skewed classes)情况表现为我们的训练集中有非常多的同一种类的实例,只有很少或没有其他类的实例。 例如我们希望用算法来预测癌症是否是恶性的,在我们的训练集中,只有 0.5%的实例是恶性肿瘤。假设我们编写一个非学习而来的算法,在所有情况下都预测肿瘤是良性的,那么误差只有 0.5%。然而我们通过训练而得到的神经网络算法却有 1%的误差。这时,误差的大小是不能视为评判算法效果的依...原创 2017-07-14 18:08:16 · 23265 阅读 · 1 评论