![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
其他
文章平均质量分 86
此心安处是吾乡_
人生是一场长跑
展开
-
YOLO X, v7, v8 + 各种跟踪器(SORT, DeepSORT, ByteTrack, BoT-SORT)实现多目标跟踪
支持三种检测器(YOLOX,v7,v8)和7种跟踪器(SORT, DeepSORT, ByteTrack, BoT-SORT, etc.)实现任意数据集的多目标跟踪!模块化解耦设计,便于集成和修改!原创 2022-08-18 10:06:19 · 27204 阅读 · 198 评论 -
[InternLM训练营第二期笔记]7. OpenCompass 大模型评测实战
该系列是上海AI Lab举行的书生 浦语大模型训练营的相关笔记部分。该笔记是第七节课,学习大语言模型评测的基本概念,以及评测系统OpenCompass的使用。原创 2024-04-25 17:18:49 · 338 阅读 · 0 评论 -
[InternLM训练营第二期笔记]6.Lagent & AgentLego 智能体应用搭建
继承 BaseTool 类修改 default_desc 属性(工具功能描述)如有需要,重载 setup 方法(重型模块延迟加载)重载 apply 方法(工具功能实现)下面我们实现一个调用 MagicMaker 的 API 以实现图像生成的工具。class MagicMakerImageGeneration(BaseTool): # 第一步 继承BaseTool类。原创 2024-04-25 14:10:35 · 795 阅读 · 0 评论 -
[InternLM训练营第二期笔记]5. LMDeploy 量化部署 LLM 实践
KV Cache是一种缓存技术,通过存储键值对的形式来复用计算结果,以达到提高性能和降低内存消耗的目的。在大规模训练和推理中,KV Cache可以显著减少重复计算量,从而提升模型的推理速度。理想情况下,KV Cache全部存储于显存,以加快访存速度。当显存空间不足时,也可以将KV Cache放在内存,通过缓存管理器控制将当前需要使用的数据放入显存。模型在运行时,占用的显存可大致分为三部分:模型参数本身占用的显存、KV Cache占用的显存,以及中间运算结果占用的显存。原创 2024-04-24 23:31:24 · 944 阅读 · 0 评论 -
[InternLM训练营第二期笔记]4. XTuner 微调 LLM:1.8B、多模态、Agent
微调的目的是为了让foundation模型在特定的领域更好地发挥作用。增量预训练与指令跟随。其中,增量预训练的意思是继续训练,加入领域内的一些特定的知识。这个过程是无监督的,不需要人为制造高质量对话。而指令跟随微调,是让模型学会对话模板,因此是有监督的,数据是高质量的问答数据。原创 2024-04-20 15:42:30 · 908 阅读 · 0 评论 -
[InternLM训练营第二期笔记]3. “茴香豆“:零代码搭建你的 RAG 智能助理
该系列是上海AI Lab举行的书生 浦语大模型训练营的相关笔记部分。该笔记是第三节课,学习RAG的基本概念,以及对于开源RAG应用“茴香豆”进行部署。原创 2024-04-10 21:48:39 · 1121 阅读 · 0 评论 -
[杂记]mmdetection3.x中的数据流与基本流程详解(数据集读取, 数据增强, 训练)
之前跑了一下mmdetection 3.x自带的一些算法, 但是具体的代码细节总是看了就忘, 所以想做一些笔记, 方便初学者参考. 其实比较不能忍的是, 官网的文档还是空的…这次想写其中的数据流是如何运作的, 包括从读取数据集的样本与真值, 到数据增强, 再到模型的forward当中.原创 2024-02-19 22:21:02 · 1290 阅读 · 0 评论 -
[论文阅读笔记26]Tracking Everything Everywhere All at Once
传统的光流或者粒子视频跟踪方法都是用有限的时间窗口去解决的, 所以他们并不能很好的应对长时遮挡, 也不能保持估计的轨迹的全局连续性. 为此, 我们提出了一个完整的, 全局的。原创 2023-08-26 17:36:16 · 3666 阅读 · 2 评论 -
[论文阅读笔记25]A Comprehensive Survey on Graph Neural Networks
对于图像数据来说, CNN具有平移不变性和局部连接性, 因此可以在欧氏空间上良好地学习. 然而, 对于具有图结构的数据(例如社交网络 化学分子等)就需要用GNN来学习.最早期的GNN网络是遵循类似RNN的循环迭代式的(RecGNN), 主要的对象是DAG(有向无环图). 这个方式停止的条件是节点的表示趋于稳定.原创 2023-08-26 09:23:49 · 1248 阅读 · 0 评论 -
用TrackEval评测自己的数据集
跑通代码最重要的就是路径问题, 为此我写了两个config模板, 让配置路径更简单.原创 2023-04-13 11:19:36 · 2406 阅读 · 20 评论 -
[杂记]算法:前缀和与差分数组
这样, 如果我们要计算。原创 2023-01-16 17:52:46 · 749 阅读 · 0 评论 -
[杂记]算法: 并查集
我们考虑如何计算一个图连通分量的个数. 假定简单无向图G有两个连通分量(子图)G1G2, 如下图所示:一个很自然的想法是, 要想求连通分量个数, 我们可以使用Full-DFS算法, 也就是我们从某个点开始深度优先搜索, 并标记访问过的元素. 随后挨个顶点判断, 如果某个点没有被访问过, 则接着从该点进行深度优先搜索,除此之外, 我们还可以用并查集来求图中连通分量的个数. 并查集, 顾名思义, 有并与查两部分.原创 2023-01-13 10:23:56 · 587 阅读 · 0 评论 -
踩坑记录2——RK3588跑通YOLO v5+DeepSORT
上篇说到RK3588编译OpenCV, 这篇记录一下跑通YOLO v5+DeepSORT的愉(chi)快(shi)历程.原创 2022-12-29 09:53:50 · 5189 阅读 · 23 评论 -
[翻译+笔记]变分自编码器:从AutoEncoder到Beta-VAE
自编码器是用来重构高维数据的,它利用一个有bottleneck层的神经网络。bottleneck层获取压缩的潜在编码,这样将嵌入向量以低维表示可以应用在许多地方,例如搜索,数据压缩,或揭示数据潜在的生成因素。记号意义DD数据集 大小为nx(i)x^{(i)}x(i)数据集中的样本,维数为dxxx数据集中的样本x′x'x′xxx的重建版本x~\tilde{x}x~xxx经噪声腐蚀的版本zzzbottleneck学习到的压缩编码aj(l)a_j^{(l)}a。原创 2022-12-24 11:02:34 · 1159 阅读 · 0 评论 -
[翻译+笔记]生成对抗网络: 从GAN到WGAN
最近读了一篇社会力模型的论文, 里面用到了GAN, 发现自己不是很懂. 想翻译一下一个大神的博客, 做一下笔记. 并不是全文翻译, 只翻译一部分.原文地址: from GAN to WGAN在介绍GAN之前, 首先复习一下衡量两个概率分布相似度的两种指标.(1) K-L散度: KL散度衡量了某个概率分布ppp是取自(发散自, 来自)另一个期望的(理论的)概率分布qqq的程度:DKL(p∣∣q)=∫xp(x)logp(x)q(x)dxD_{KL}(p||q)=\int_xp(x)\log{\frac{p(x原创 2022-12-21 16:50:44 · 635 阅读 · 0 评论 -
[杂记]算法: 单调栈
单调栈, 顾名思义就是从栈底到栈顶元素单调递增或者单调递减的栈. 往往, 我们在解决的时候可以用到单调栈.也是用两道算法题作为例子. 在这之前, 先简单写一下构造单调栈的模板.原创 2022-11-20 21:41:19 · 476 阅读 · 0 评论 -
[杂记]算法: 快慢指针
打算以后记录一些比较有代表性的算法. 仅从初学者角度对算法进行简单解读, 以力扣题为例.原创 2022-11-08 21:02:27 · 388 阅读 · 0 评论 -
[杂记]C++中的lambda函数、可变参数模板
这两个内容没有什么联系, 只是放到一起做一下笔记.原创 2022-09-19 16:52:09 · 899 阅读 · 0 评论 -
[杂记]C++中移动语义与完美转发的一些理解
这一块比较难 初步做一个笔记 希望将来能有更深的理解。原创 2022-09-18 15:51:48 · 642 阅读 · 0 评论 -
[杂记]关于C++中友元的一些理解
友元旨在让函数或类访问另一个类中的成员, 下面根据友元的类型简单做一下整理.原创 2022-09-16 12:19:31 · 407 阅读 · 0 评论 -
[杂记]关于C++中类继承的一些理解
这篇主要对继承类型和菱形继承问题做一个笔记。原创 2022-09-15 11:17:01 · 612 阅读 · 0 评论 -
[杂记]C++中关于虚函数的一些理解
如果派生类定义了新的虚函数,则该函数的地址也将被添加到vtbl中。注意,无论类中包含的虚函数是1个还是10个,都只一需要在对象中添加1个地址成员,只是表的大小不同而已。原创 2022-09-13 21:26:08 · 547 阅读 · 0 评论 -
[杂记]深度学习基本优化算法小结
0.在深度学习的训练过程中,容易遇到的三个主要问题是局部最小值、鞍点和梯度消失。局部最小值: 如果训练过程中落入的局部最小值点,则很有可能最终结果就是局部最优而不是全局最优。当然,如果有一定程度的噪声,就可能可以跳出这个局部最小值。这也是小批量随机梯度下降的优点,即它可以通过小批量梯度上的变化将参数从局部最小值移出。梯度消失:缓解梯度消失的方法有很多,例如采用ReLU激活函数、BatchNorm等。 \space 1. 梯度下降、随机梯度下降、小批量梯度随机下降首先要说明的是原创 2021-12-31 11:22:18 · 242 阅读 · 0 评论 -
[杂记] 排序Python与C++实现(冒泡、选择、插入、快速、归并、堆排序)
【代码】[杂记] 排序Python与C++实现(冒泡、选择、插入、快速、归并、堆排序)原创 2021-12-24 21:06:28 · 808 阅读 · 0 评论 -
[杂记]NMS方法, 以及R-CNN系列,SSD,Yolo系列大概思想
还是要学习一些基本的目标检测方法。1.非极大值抑制(NMS)基于锚的目标检测方法,通常是通过某种方式产生锚框(比如选择性搜索等,或者用一种更简单的方式:一种简单方式:我们预先设置一些缩放比(scale,si∈(0,1],m个s_i\in(0,1],m个si∈(0,1],m个)和一些宽高比(aspect ratio,ri>0,n个r_i>0,n个ri>0,n个).为了避免过高的计算复杂度,我们只考虑同一缩放比下所有不同宽高比组合,和同一宽高比下所有不同缩放比组合,例如:(s.原创 2021-12-13 20:46:33 · 2942 阅读 · 0 评论 -
【杂记】对2D卷积层输出维度的理解
2D卷积本质上就是相关运算,二者只差一个转置的关系。今天记一下2D卷积层输出维度和参数(input shape,kernel size,padding,stride)之间的关系,虽然是小学数学,但还是怕以后忘了。查阅pytorch的官方文档torch.nn.Conv2d,参数和输出维度如下:解释几个重要的参数:dilation:对kernel进行膨胀(在核的元素中间加空格)操作,默认为1,即不膨胀out_channels:输出维度,没记错应是kernel的数目.因此暂先不考虑out ch.原创 2021-12-04 14:18:59 · 2102 阅读 · 0 评论 -
【杂记】小波变换
小波变换的本质是将信号(函数)分解成在不同空间上的投影,这些空间都是正交的,它们的直和就是可积函数空间L2(R)L^2(\textbf{R})L2(R).而近似系数和细节系数就是在相应空间上的投影值,反映了函数(信号)在这个尺度上的特征。...原创 2021-12-03 10:23:09 · 2264 阅读 · 0 评论 -
【学习杂记】Xavier初始化
前言:有时由于数据的稳定性不高,会带来梯度爆炸和梯度消失的问题。解决这样的问题有很多方式,例如让乘法变加(ResNet和LSTM的方式),归一化(比如梯度归一化),再者就是合理地初始化权重和选择激活函数。今天学了一下Xavier初始化,记录一下.1.缘起我们将梯度和每一层的输出都看做随机变量。为了让模型稳定,假如我们期望的事情是让每一层的输出的期望和方差一直保持一致,也就是:∀i,t:正向时:E[hit]=0,Var[hit]=a反向时:E[∂l∂hit]=0,Var[∂l∂hit]=b\fo.原创 2021-12-01 15:56:11 · 630 阅读 · 0 评论 -
python手写实现2维FFT与DCT
题外话好久没更新了,这段时间实在是摸鱼,人快闲出毛病来了。这是一个选修课的大作业的一部分,2D-FFT的思路是借鉴了一个博客的,但做了少许改进。DCT是自己写的,都不难。这门课咋只得了81分,破防了。一、2维FFT简述就不放公式了,2维FFT就是两次一维FFT。一个2维信号可以看作一个矩阵,先行再列或者先列再行都可以。示意图如下图所示:如前所述,2维FFT编写的关键仍在1维FFT。按照蝶形流图的方式编程是比较直观的,采用按时间抽取算法,第一层是2点FFT,第二层是4点FFT,以此类推。具体的细节之原创 2021-07-02 22:40:49 · 3499 阅读 · 0 评论 -
利用Qt设计的FTP文件传输系统(C/C++)
本题目是我们课程设计的一个题目,我与队友胡亘宇共同完成了此项目。近期在家闲来无事,故来分享一下。我们的设计时间只有不到五天,因此缺漏之处,还望海涵。一、FTP原理从FTP组成部分来看,FTP由客户端(client)和服务器(sever)组成。其中服务器用于储存文件,其上面的资源可以被客户端访问。FTP包括了两个通道,一是数据通道,二是命令通道。顾名思义,命令通道负责传输命令,命令从客户端发出,服务器接收。数据通道用于传送文件,或服务器向客户端发送的文件列表。从工作方式来看,FTP分为主动方式(Acti原创 2021-02-09 22:26:53 · 2035 阅读 · 1 评论