- 博客(36)
- 收藏
- 关注
原创 论 Visual SLAM
SLAM(Simultaneous Location And Mapping),解决的就是求解自身pose的问题,副产品是reference point的position。这些reference point的选取、删除、约束关系,成了至关重要的事情。
2024-01-06 20:49:45 428
原创 5G RAN
entity内部的流水线岗位:L3/L2/L1。两个entity:NodeB、UE。entity之间传输数据的东东。岗位之间是消息交互/信令交互。
2024-06-27 09:28:56 222
原创 从傅里叶级数推导离散时间傅里叶变换的逆变换
傅里叶级数gtk−∞∑∞fkej2πTktfkT1∫−2T2Tgte−j2πTktdt令ω≜2πT1t,重写傅里叶级数正变换:fk2π1∫02πg2πT1ωe−jωkdω记Xω≜g2πT1ω,于是:fk2π1∫02πXωe−jωkdωXωk。
2024-06-25 11:23:23 820
原创 离散傅里叶变换(Discrete Fourier Transform)
commentsgtg(t)gt被采样的函数,time-limited,0T[0, T)0TGfG(f)Gf−BB[-B, B]−BBTsT_sTs采样周期,1Ts≥2BTs1≥2Bgng[n]gn采样点gnTsg(nT_s)gnTsn01⋯N−1n01⋯N−1GkG[k]GkHf1Ts⋅∑n−∞∞Gf−kTsHfTs1。
2024-04-16 20:39:15 673
原创 傅里叶变换(Fourier Transform)
g(t)g(t)g(t) ~ G(f)G(f)G(f):g(t)=∫−∞+∞G(f)ej2πftdfg(t) = \int_{-\infty}^{+\infty} G(f) e^{{\rm j}2 \pi f t} {\rm d}fg(t)=∫−∞+∞G(f)ej2πftdfG(f)=∫−∞+∞g(t)e−j2πftdtG(f) = \int_{-\infty}^{+\infty} g(t) e^{-{\rm j}2 \pi f t} {\rm d}tG(f)=∫−∞+∞g(t)e−j2πftdtsgn
2024-04-16 19:49:54 1028
原创 傅里叶级数(Fourier Series)
实周期函数gt,周期为Tgta0k1∑∞ak⋅cos2πTktbk⋅sin2πTkta0T1∫−2T2TgtdtakT2∫−2T2Tgtcos2πTktdtbkT2∫−2T2Tgtsin2πTktdt。
2024-04-16 19:15:41 1164
原创 矩阵乘法的硬件结构的浅想
向量aa1a2⋯an,和向量bb1b2⋯bna⋅bi1∑nai×bi它的硬件结构如下所示:MAC(Multiply-ACcumulator )就是乘累加单元,可见实现长度为n的内积运算需要n个MAC单元。
2024-01-25 16:52:13 801
原创 论 大模型量化
模型部署有一个永恒的目标,让模型的memory usage更少,运行更快。量化(Quantize)既可以减少模型的memory usage(比如,weight的type由FP32转成Int8,可以让memory usage减少到原来的四分之一),又可以使模型运行的更快(比如,整型运算要比浮点型运算快的多),如此优秀。但是,对量化的约束就是,要保证量化后的性能不变(或者性能损失可以忽略)。
2024-01-16 19:31:31 1239
原创 BoW与LoopClosing
要解决的问题是如何去描述一幅数字图像,当然一幅数字图像会有不定个数的ORB特征点,但这个描述方式太复杂;通过BoW可以实现用一个向量去描述,这种方式相比就简单多了,其实就是将ORB特征点借助BoW转换成向量。
2023-10-22 20:31:48 89
原创 ORB-SLAM的基本介绍
相机(Camera)将客观 3D 场景投影到 2D 成像平面上,这投影的公式自然是已知的,2D 成像平面经过采样得到数字图像(离散的空间点阵,离散的RGB取值)。相机是运动的,并在运动的过程中以一定的FPS(Frame Per Second)摄像,利用这个数字图像序列来估计(estimate)自身位姿(pose),理想情况下一幅数字图像(one frame)对应一个位姿。这个问题解决的难点在于各个环节的误差/噪声,肯定会出现误差扩散,最后积累起来的误差肯定对性能有影响;
2023-10-22 14:45:34 699
原创 神经网络模型
神经网络模型实际上是以深度学习为代表的方法论,是机器学习的最有前途的发展方向,目前表现出了卓越的、惊人的 AI(Artificial Intelligence)。Forward-Backward Propagation 算法使得神经网络模型的训练成为可能,感觉这地位如同FFT之于DFT,不管是谁发明的。AI 是人类的终极技术梦想,剩下的就是对宇宙和科学边缘的无尽的探索,生而为人还是挺有力量的。高质量的数据集、永远也满足不了的算力需求,这两样都是烧钱的。
2023-10-21 15:06:04 61
原创 学习和复习知识的价值
价值在哪继承,社会的很多地方都需要这些知识来创造东西,不只是大地方、还有小地方,这就是你赚钱的机会,体现你的价值传播,不只你所处的时代需要这些知识,在你以后的时代也需要,这就是你赚钱的机会,体现你的价值创新,温故而知新,但不可执着,毕竟发明创造是极少数人的运气
2023-10-21 14:12:07 37
原创 模型部署的理解
起初,一帮科学家用Python实现神经网络模型,为了方便开发了Python库:caffe(这些个库是Python Wrapper + C/C++ Code,跑在CPU上很慢,借助CUDA能用上NVIDIA GPU加速(就是贵)。这些个库,被称作深度学习框架,可能会有各自的 primitive operator set(元算子集),模型最后都可以表达成。CUDA提供把这些元算子转换成适合在NVIDIA GPU上运行的函数形式,NVIDIA很下功夫,从底层支持。
2023-10-20 14:58:33 61 1
原创 为什么负梯度方向是函数下降最快的方向
推导f(x⃗)f (\vec {x})f(x)是target function,x⃗0\vec {x}_0x0是start point。在x⃗0\vec {x}_0x0处做写出一阶泰勒展式:f(x⃗)=f(x⃗0)+∇f(x⃗0)⋅(x⃗−x⃗0)+O(∥x⃗−x⃗0∥2)f (\vec {x})=f (\vec {x}_0)+\nabla f (\vec {x}_0) \cdot (\...
2018-10-05 10:17:38 2386
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人