![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 93
有位剑仙学量化
这个作者很懒,什么都没留下…
展开
-
主成分分析法
主成分分析法非监督的机器学习法主要用于数据的降维通过降维,可以发现便于理解的特征去噪主成分分析法的目标是求www,使得Var(Xproject)=1m∑i=1m(∑j=1mXj(i)wj)2Var(X_{project})=\frac{1}{m}\sum^m_{i=1}(\sum^m_{j=1}X_j^{(i)}w_j)^2Var(Xproject)=m1∑i=1m(∑j=1mXj(i)wj)2,相当于把m维的点,映射到www坐标系上面,使得这些点在www坐标系上的方差最大(最稀疏原创 2021-07-01 22:32:01 · 342 阅读 · 0 评论 -
梯度下降算法
梯度下降算法文章目录梯度下降算法1. 二次函数下的梯度下降1.1 对梯度下降法的模拟2. 线性回归中的梯度函数1. 二次函数下的梯度下降梯度下降算法不是一个机器学习算法,是一种基于搜索的最优化算法。目的是为了最小化损失函数。也有梯度上升法,目的是最大化一个效用函数。从起始点出发,每次都向导数减小的方向移动,最终当导数减小到0时,我们就得到了极值点。其中η\etaη 被称为学习率,决定每一次学习的“步伐的大小”有时候函数不止有一个极致点,因此初始点也是一个比较重要的参数。1.1 对梯度下降法的原创 2021-06-24 12:12:10 · 655 阅读 · 0 评论 -
机器学习之线性回归
简单线性回归算法目标是找到a和b,使得∑i=1m(yi−axi−b)2\sum_{i=1}^m(y_i-ax_i-b)^2∑i=1m(yi−axi−b)2尽可能的小。a=∑i=1m(xi−x‾)(yi−y‾)∑i=1m(xi−x‾)2a = \frac{\sum_{i=1}^m(x_i-\overline{x})(y_i-\overline{y})}{\sum_{i=1}^m(x_i-\overline{x})^2}a=∑i=1m(xi−x)2∑i=1m(xi−x)(yi−y)b=原创 2021-06-16 23:13:05 · 155 阅读 · 1 评论 -
KNN,K-means算法
KNN算法文章目录KNN算法概述scikit-learn中对KNN的封装手写数字的判断概述k临近算法可以解释为:近朱者赤近墨者黑。以下图为例,当K=3时,意味着距离绿点最近的3个点具有投票权,他们将会决定绿点的属性。决定投票权的是点于点之间的距离,基础距离公式为欧拉距离:distance=∑i=1n(Xia−Xib)2distance=\sqrt {\sum_{i=1}^n(X_i^a-X_i^b )^2}distance=i=1∑n(Xia−Xib)2通过python代码,实现K原创 2021-06-11 18:32:08 · 253 阅读 · 3 评论