![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学
文章平均质量分 85
小王同学2024
这个作者很懒,什么都没留下…
展开
-
降维 (Dimensionality Reduction)
文章目录1. 目标一:数据压缩2. 目标二:数据可视化1. 目标一:数据压缩第二种类型的无监督学习问题,称为降维。有几个不同的的原因可能想要做降维。一是数据压缩,数据压缩不仅允许压缩数据,它也加快学习算法。作为一种生动的例子,收集的数据集有许多特征:假设未知两个的特征:x1x_1x1:长度:用厘米表示;x2x_2x2:是用英寸表示同一物体的长度。所以,这给了高度冗余表示,也许不是两个分开的特征x1x_1x1和x2x_2x2,这两个基本的长度度量,也许想要做的是减少数据到一维,只有一个数测原创 2021-09-30 12:36:25 · 651 阅读 · 0 评论 -
机器学习 - 聚类 (Clustering)
**K-均值**是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据聚类成不同的组。**K-均值**是一个迭代算法,假设想要将数据聚类成n个组,其方法为:1. 首先选择$K$个随机的点,称为**聚类中心**(**cluster centroids**);2. 对于数据集中的每一个数据,按照距离$K$个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类。3. 计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置。重复步骤2、3直至中心点不再变化。原创 2021-09-21 18:51:27 · 974 阅读 · 0 评论 -
机器学习 - 支持向量机 (Support Vector Machines)
文章目录1. 优化目标2. 大边界的直观理解 (Large Margin Intuition)1. 优化目标这里的假设函数是缘自逻辑回归(Logistic),它也就是用到了 sigmoidsigmoidsigmoid 函数图像如上。其中, zzz 表示θTx\theta^TxθTx。在逻辑回归中:如果有一个 y=1y=1y=1的样本,希望hθ(x){{h}_{\theta }}\left( x \right)hθ(x) 趋近1,这样代价函数 JJJ 才会最小, 从而正确地将此样本分类。在 sigm原创 2021-09-17 09:07:02 · 217 阅读 · 0 评论 -
偏差与方差 (Bias and variance)
当运行一个学习算法时,如果这个算法的表现不理想,那么多半是出现两种情况:要么是偏差比较大,要么是方差比较大。换句话说,出现的情况要么是欠拟合,要么是过拟合问题。训练集误差和交叉验证集误差近似时:偏差/欠拟合交叉验证集误差远大于训练集误差时:方差/过拟合原创 2021-09-16 10:32:02 · 229 阅读 · 0 评论 -
机器学习 - 逻辑回归 (Logistic Regression)
1. 逻辑回归(Logistic Regression)1.1 分类问题在这个以及接下来的几个视频中,开始介绍分类问题。在分类问题中,你要预测的变量 yyy 是离散的值,我原创 2021-09-05 15:31:54 · 169 阅读 · 0 评论