![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数据处理
文章平均质量分 85
qq_43133135
这个作者很懒,什么都没留下…
展开
-
DCT变换公式
一维DCTF(u)=c(u)∑i=0N−1f(i)cos((i+0.5)πNu)F(u)=c(u)\sum_{i=0}^{N-1}{f(i)cos(\frac{(i+0.5)\pi}{N}u)}F(u)=c(u)∑i=0N−1f(i)cos(N(i+0.5)πu)c(u)={1Nu=02Nu≠0 c(u)=\left\{\begin{aligned}\sqrt{\frac{1}{N} } && u=0\\\sqrt{\frac{2}{N} } && u\neq原创 2022-03-28 10:53:38 · 1656 阅读 · 0 评论 -
SVM原理入门
支持向量机我们对支持向量机的理解,可以用二维来说明,比如需要找一条最优的直线(超平面)将两类点分开:不过这里需要定义一下说明是最优,那就是:使得离直线较近的点具有最大间距如下有5个蓝色样本,标记为y =1,紫色有5个样本,标记为 y=-1,共10个样本:{(x₁,y₁),(x₂,y₂).........(x10,y10)}\{(x₁ ,y₁) , (x₂,y₂) .........(x_{10},y_{10}) \}{(x₁,y₁),(x₂,y₂).........(x10,y10)} 。原创 2022-03-15 05:45:31 · 293 阅读 · 0 评论 -
无监督算法
无监督算法简介就是依靠数据之间的相似度,形成数据的类别。层次聚类比如有7个数据点,A,B,C,D,E,F,G。我们采用数据的欧式距离作为相似度(距离越小越相似):将数据分别两两计算相似度:得到BC的距离最小,这样我们就得到一个新的集合或者说是类:(B,C)。这样我们下一次计算相似度时,只有6个元素了:A,(B,C),D,E,F,G。然后两两计算相似度,得到:当然,要提到的一点是,对于任意元素(如A)和集合(B,C)之间的距离度量,则取A分别和B,C的距离的均值(下面是几何均值):当然若原创 2022-03-01 06:08:05 · 1493 阅读 · 0 评论 -
线性回归:最小二乘、泰尔森估计、RANSAC
最小二乘法(LSM)x=[ 0,1,2,3…]y=[ 2,4,6,8…]矩阵法公式:for (int i = 0; i < num; i++){ sum_x += x[i], sum_xx += x[i] * x[i], sum_y += y[i], sum_xy += x[i] * y[i];} a0 = (sum_x * sum_xx - sum_xy * sum_x) / (sum_xx * area - sum_x * sum_x); a1 = (sum原创 2020-12-17 12:34:50 · 2728 阅读 · 0 评论 -
Adaboost
基本原理基本原理就是将多个弱分类器结合,形成一个强分类器。Adaboost采用迭代的思想,每次迭代只训练一个弱分类器,训练好的弱分类器将参与下一次迭代的使用。也就是说,在第N次迭代中,一共就有N个弱分类器,其中N-1个是以前训练好的,其各种参数都不再改变,本次训练第N个分类器。其中弱分类器的关系是第N个弱分类器更可能分对前N-1个弱分类器没分对的数据,最终分类输出要看这N个分类器的综合效果。弱分类器(单层决策树)Adaboost一般使用单层决策树作为其弱分类器,且其输出只有二值(1,-1)。单原创 2020-12-14 14:05:34 · 2008 阅读 · 0 评论