![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
机器学习算法及原理
转行的炼丹师
这个作者很懒,什么都没留下…
展开
-
ROC, AUC 以及 Python实现AUC计算
本文主要对ROC,AUC概念进行介绍,并且用Python手动实现AUC的计算对于一个二分类分类器来说,对于任意样本,我们都可以得到该样本属于正例的概率。我们可以根据这个概率对所有样本进行排序,“最可能”是正例的排在最前面,“最不可能”是正例的排在最后面,分类过程就相当于选择某个“截断点”将所有样本分成两类。只是我们一般选取0.5为这个截断点,属于正例的概率大于0.5的就认为该样本为正例,属于...原创 2020-04-17 21:32:41 · 2533 阅读 · 0 评论 -
机器学习 - 损失函数和支持向量机SVM
本文主要对机器学习的损失函数进行介绍回归一般来说,回归问题的 loss function 取决于 residual y−y^y-\hat yy−y^,说明我们比较关心预测值y^\hat yy^与实际值yyy之间的绝对差距。但是如果我们比较关心预测值y^\hat yy^是实际值yyy的几倍的时候,可以将yyy做 log transform,然后就可以回到我们熟悉的残差版本。...原创 2020-05-14 21:02:43 · 847 阅读 · 0 评论 -
机器学习-线性回归原理
本文主要介绍用梯度下降求线性回归最优解的数学细节线性回归令Y=[y1y2⋮ym]Y = \left[\begin{matrix} y_1 \\ y_2 \\ \vdots \\y_m \end{matrix}\right]Y=⎣⎢⎢⎢⎡y1y2⋮ym⎦⎥⎥⎥⎤,X=[x11x21⋮xm1]X = \left[\begin{matrix}x_1&1\\x_2&...原创 2020-04-30 12:53:29 · 178 阅读 · 0 评论 -
机器学习 - regularization
本文主要对机器学习中常用的两种正则化技术 L1/L2 regularization 进行介绍正则化技术可以说是一种对模型复杂度进行限制的方法,假设我们的hypothesis space为F\mathcal FF,模型为fff,模型复杂度为Ω(f)\Omega(f)Ω(f),Ω\OmegaΩ是一个从F\mathcal FF到R≥0R^{\geq 0}R≥0(指大于等于0的实数)的映射。所以在...原创 2020-04-29 20:26:46 · 311 阅读 · 0 评论 -
机器学习降维方法 t-SNE 详解(一)
本文主要介绍一种用于降维和可视化的算法t-SNE,并且对其原理与使用进行讲解,本篇为第一部分t-SNE与SNESNEt-SNE的全称是t-Distributed Stochastic Neighbor Embedding,SNE就是 Stochastic Neighbor Embedding,所以要想了解t-SNE势必要先对SNE有所了解SNE algorithm:在高维...原创 2020-04-21 15:52:35 · 2330 阅读 · 1 评论 -
统计与机器学习的比较
本文主要是根据上交的《统计计算与机器学习》课程的内容记录的课程笔记统计与机器学习的区别统计是有带模型的假设,假设数据满足某一种模型或者某一种分布,计算得到参数(model-based)机器学习是不管数据是什么样子,在函数空间内去拟合参数(model-free)以线性回归为例数据集S={(xi,yi)}i=1i=nS = \{ (x_i, y_i) \}^{i=n}_{i=1}...原创 2020-04-16 14:20:52 · 225 阅读 · 0 评论