机器学习
南方的孩子
与有肝胆者共事,从无字句处读书
展开
-
偏度与峰度
偏度(skewness),是统计数据分布偏斜方向和程度的度量,是统计数据分布非对称程度的数字特征。定义上偏度是样本的三阶标准化矩。 偏度定义中包括正态分布(偏度=0),右偏分布(也叫正偏分布,其偏度>0),左偏分布(也叫负偏分布,其偏度<0)。 Python代码实现方法: pandas的Series 数据结构可以直接调用skew()方法来查看 df.iloc[:,1].skew(...转载 2019-11-26 11:05:11 · 792 阅读 · 0 评论 -
线性回归
优点:具有很强的解释性 一元线性回归 一个自变量和一个因变量,两个变量之前的关系用一条直线来模拟 hθ(x)=θ0+θ1x,其中θ1=∑i=1m(x(i)−x‾)(y(i)−y‾)∑i=1m(x(i)−x‾)2,θ0=y‾−θ1x‾ h_\theta(x) = \theta_0+\theta_1x,其中 \theta_1 = \frac{\sum_{i=1}^{m}(x^{(i)} -...原创 2019-10-07 01:33:35 · 454 阅读 · 0 评论 -
模型评估指标
回归模型评估指标 均方误差(MSE) MSE=1m∑i=1m(ytest(i)−y^test(i))2 MSE = \frac{1}{m}\sum_{i=1}^{m}(y_{test}^{(i)} - \hat{y}_{test}^{(i)})^2 MSE=m1i=1∑m(ytest(i)−y^test(i))2 from sklearn.metrics import mean_squa...原创 2019-10-07 01:46:54 · 632 阅读 · 0 评论 -
逻辑回归
文章目录逻辑函数(sigmoid函数)二分类损失函数梯度下降代码实现解决多分类OvROvO逻辑回归中的模型正则化 逻辑回归既可以看做时回归算法,也可以看做是分类算法 通常作为分类算法用,理论上只能解决二分类问题 逻辑函数(sigmoid函数) σ(t)=11+e−t \sigma(t) = \frac{1}{1+e^{-t}} σ(t)=1+e−t1 二分类 p(y=1∣x,w)=11+e−...原创 2019-10-07 02:10:34 · 694 阅读 · 0 评论 -
梯度下降法
不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 使用梯度下降法前,最好进行数据归一化,提高效率 代价函数 损失函数:计算的是一个样本的误差 代价函数:是整个训练集上所有样本误差的平均 最小二乘法 真实值y,预测是hθ(x),则误差平方为(y−hθ(x))2 真实值y,预测是h_\theta(x),则误差平方为(y-h_\t...原创 2019-10-09 00:49:20 · 462 阅读 · 0 评论