自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Reinforcement Learning 强化学习 On Policy Approximation

On-policy 算法的一个小记录总结,强化学习的基础概念理解

2022-11-22 13:44:57 115 1

原创 压缩感知、一阶范数、Lasso

压缩感知什么是可压缩信号:x=Ψs\mathbf{x}=\mathbf{\Psi s}x=Ψs信号x\mathbf{x}x代表原始信号信号(时域空间),Ψ\PsiΨ是转换基,s\mathbf{s}s是k−稀疏k-\text{稀疏}k−稀疏信号,代表有KKK 个非零值。这个式子表明,只要是能够在另一个空间表示的信号基本都可以被压缩,比如在时域中的信号在傅里叶空间中可以表示,所以时域信号就可以压缩。假设有信号y=x(t)+Noisex(t)=sin(at)+cos(bt)\mathbf{y =

2021-05-18 19:48:56 1774

原创 利用相关性进行SVD计算

利用相关性进行SVD计算首先在说SVD之前回忆一波特征值分解:特征值分解特征值分解简单来说就是把矩阵A\mathbf{A}A分解成特征向量矩阵×\times×特征值形成的对角矩阵×\times×特征向量矩阵的逆的形式,即A=VΛV−1(1)\tag{1}\mathbf{A = V\Lambda V^{-1}}A=VΛV−1(1)其中 V\mathbf{V}V 是 A\mathbf{A}A 的特征向量上式还可以写成这样,即原矩阵 ×\times× 特征向量矩阵 = 特征向量矩阵 ×\tim

2021-05-15 11:07:56 560

原创 Random Projection 随机投影法

Random Projection 随机投影法Hercht-Neilseon:简单的说就是当一个随机矩阵维数到达一定程度的时候,其转置和自身正交。J-L引理:在高维空间中的点可以被线性地嵌入到低维空间中,而且这些点在低维空间里两点之间距离会基本保留。可以根据数据集的大小nnn 和可容忍的错误率来设计低维的维数,上述举例为:log⁡(n)/ε2=log⁡1000/0.001=6.9078×1000≃690\log(n)/\varepsilon ^2 = \log{1000}/0.00

2021-05-10 23:26:01 5098 2

原创 卡尔曼滤波介绍

卡尔曼滤波介绍卡尔曼滤波顾名思义是一种滤波方法,可以用于线性滤波和非线性滤波。卡尔曼滤波分为很多类,主要应用于线性滤波的是一般卡尔曼滤波,应用于非线性的有延申卡尔曼滤波(Extended Kalman Filter) 、无损卡尔曼滤波(Unscented Kalman Filter) 、以及粒子滤波器(Particle Kalman Filter)。这篇主要说一说啥是一般卡尔曼滤波。卡尔曼滤波的基本模型基本假设假设现在又线性的离散时间系统:xk=Fk−1xk−1+Gk−1uk−1+wk−1yk=

2021-05-08 11:26:07 3016

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除