- 博客(5)
- 收藏
- 关注
原创 Reinforcement Learning 强化学习 On Policy Approximation
On-policy 算法的一个小记录总结,强化学习的基础概念理解
2022-11-22 13:44:57 149 1
原创 压缩感知、一阶范数、Lasso
压缩感知什么是可压缩信号:x=Ψs\mathbf{x}=\mathbf{\Psi s}x=Ψs信号x\mathbf{x}x代表原始信号信号(时域空间),Ψ\PsiΨ是转换基,s\mathbf{s}s是k−稀疏k-\text{稀疏}k−稀疏信号,代表有KKK 个非零值。这个式子表明,只要是能够在另一个空间表示的信号基本都可以被压缩,比如在时域中的信号在傅里叶空间中可以表示,所以时域信号就可以压缩。假设有信号y=x(t)+Noisex(t)=sin(at)+cos(bt)\mathbf{y =
2021-05-18 19:48:56 2002
原创 利用相关性进行SVD计算
利用相关性进行SVD计算首先在说SVD之前回忆一波特征值分解:特征值分解特征值分解简单来说就是把矩阵A\mathbf{A}A分解成特征向量矩阵×\times×特征值形成的对角矩阵×\times×特征向量矩阵的逆的形式,即A=VΛV−1(1)\tag{1}\mathbf{A = V\Lambda V^{-1}}A=VΛV−1(1)其中 V\mathbf{V}V 是 A\mathbf{A}A 的特征向量上式还可以写成这样,即原矩阵 ×\times× 特征向量矩阵 = 特征向量矩阵 ×\tim
2021-05-15 11:07:56 641
原创 Random Projection 随机投影法
Random Projection 随机投影法Hercht-Neilseon:简单的说就是当一个随机矩阵维数到达一定程度的时候,其转置和自身正交。J-L引理:在高维空间中的点可以被线性地嵌入到低维空间中,而且这些点在低维空间里两点之间距离会基本保留。可以根据数据集的大小nnn 和可容忍的错误率来设计低维的维数,上述举例为:log(n)/ε2=log1000/0.001=6.9078×1000≃690\log(n)/\varepsilon ^2 = \log{1000}/0.00
2021-05-10 23:26:01 5513 2
原创 卡尔曼滤波介绍
卡尔曼滤波介绍卡尔曼滤波顾名思义是一种滤波方法,可以用于线性滤波和非线性滤波。卡尔曼滤波分为很多类,主要应用于线性滤波的是一般卡尔曼滤波,应用于非线性的有延申卡尔曼滤波(Extended Kalman Filter) 、无损卡尔曼滤波(Unscented Kalman Filter) 、以及粒子滤波器(Particle Kalman Filter)。这篇主要说一说啥是一般卡尔曼滤波。卡尔曼滤波的基本模型基本假设假设现在又线性的离散时间系统:xk=Fk−1xk−1+Gk−1uk−1+wk−1yk=
2021-05-08 11:26:07 3258
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人