- 博客(137)
- 收藏
- 关注
原创 UKF和EKF基础知识学习
UKF(Unscented Kalman Filter)和EKF(Extended Kalman Filter)是两种常用的非线性滤波算法,用于状态估计问题。下面是一个Python的模板类,有助于理解。
2024-12-17 09:54:14
303
原创 IShuffleLayer with zeroIsPlaceHolder=true has reshape dimension at position 1 that might or might no
错误的原因是因为:pth转onnx的时候没有进行 simplify 操作。
2024-11-15 14:42:27
379
原创 当出现onnx head和转出的tensorrt head output数量不一致时
中的选项,用于执行模型推理时的特定配置。是 NVIDIA TensorRT 的命令行工具(如。
2024-11-14 14:06:11
324
原创 OutputLayer: IIfConditionalOutputLayer inputs must have the same shape. Shapes are xxx and xxx
出现上述转模型错误解决方案:在转模型onnx的python代码里加上torch.cuda.amp.autocast()是 PyTorch 中用于自动混合精度(Automatic Mixed Precision,AMP)运算的上下文管理器。自动混合精度是一种优化技术,特别适用于利用 GPU 进行深度学习训练,以提高训练速度和 GPU memory 使用效率的同时,仍然保持可接受的精度。
2024-11-13 16:35:47
330
原创 转TRT Exporting the operator ‘aten::affine_grid_generator‘ to ONNX opset version xx is not supported.
原因:这类错误由于 PyTorch 中多头注意力(Multi-Head Attention, MHA)机制的某些优化路径(可能是特定的加速实现)是开启了,但TensorRT算子不支持此类优化。解决方案:只需要在转模型时,在pytorch代码里加上torch.backends.mha.set_fastpath_enabled(False)即可。
2024-11-07 15:48:25
472
原创 当你的代码中使用了已经被标记为“弃用”的拷贝构造函数时,编译器不会再发出警告信息
可以试试在CMakelist.txt里加上add_definitions(-Wno-deprecated-copy)
2024-09-24 10:42:02
227
原创 视觉语言大模型llava学习
ViLBERT(Vision-and-Language BERT)是一个专为处理视觉和语言信息而设计的模型,通过双流结构分别处理图像和文本输入,然后在顶层通过共注意力机制(Co-Attention)将两种信息结合起来。与ViLBERT类似,它使用单一的Transformer模型来同时处理视觉和语言信息,通过将图像的区域特征与相应的文字描述一起编码,实现了对图像和文本的联合理解。视觉语言模型的不断发展正在推动人工智能领域向更高层次的理解和创造能力迈进,为创建更智能、更互动的系统打开新的可能性。
2024-05-31 14:51:24
758
原创 vscode 如何debug python torchrun deepspeed
详情请参照:GitHub - yuanzhoulvpi2017/vscode_debug_transformers
2024-04-23 12:55:41
512
原创 fatal error: THC/THC.h: No such file or directory
如果编译出现fatal error: THC/THC.h: No such file or directory错误。方法一:老老实实运行储存库提供的。方法二:全局搜索并删除每一行。然后再编译就能通过了。之后的某个版本删除了。
2024-02-04 17:18:45
3061
原创 pypcd版本问题:No module named ‘pypcd‘ 或者ModuleNotFoundError: No module named ‘cStringIO‘
安装pypcd报错为No module named 'pypcd' 或者No module named 'pypcd'前者是因为未安装pypcd,后者是因为安装的pypcd可能与python3并不兼容。
2024-02-04 16:54:00
1588
转载 为什么现在的LLM都是Decoder-only的架构?
LLM是“Large Language Model”的简写,目前一般指百亿参数以上的语言模型,主要面向文本生成任务。跟小尺度模型(10亿或以内量级)的“百花齐放”不同,目前LLM的一个现状是Decoder-only架构的研究居多,像OpenAI一直坚持Decoder-only的GPT系列就不说了,即便是Google这样的并非全部押注在Decoder-only的公司,也确实投入了不少的精力去研究Decoder-only的模型,如PaLM就是其中之一。
2023-12-28 15:57:17
178
原创 Ubuntu 20.04降级clang-format
2. 安装clang-format-6.0。1. 卸载clang-format。3. 软链接clang-format。
2023-09-15 19:31:01
863
原创 MMCV/MMDet/MMDet3D 的版本对应
MMDetection3D version MMDetection version MMSegmentation version MMCV、 version master mmdet>=2.24.0, <=3.0.0 mmseg>=0.20.0, <=1.0.0 mmcv-full>=1.5.2, <=1.7.0 v1.0.0rc4 mmdet>=2.24.0, <=3.0.0 mmseg>=0.2
2023-06-01 11:19:08
13473
1
原创 出现未满足的依赖关系:“依赖:libpng12-0”
解决方法如下:在终端输入以下命令:sudo add-apt-repository ppa:linuxuprising/libpng12sudo apt-get updatesudo apt-get install libpng12-0
2021-06-29 09:39:34
1443
原创 ffmpeg 抽帧处理
ffmpeg -i 前视_30.mp4 -r 1 -q:v 2 -f image2 front30/second_%08d.jpg
2021-05-13 11:58:04
1717
原创 pytorch训练使用tensorBoard查看loss
ssh -L 16006:127.0.0.1:6006 account@server.addressrun tensorboard --logdir=*** --port=6006 at server and then refer to http://127.0.0.1:16006/ in a local browser.
2021-03-10 20:05:05
1148
原创 自动驾驶多任务模型设计思路的简介
1、在自动驾驶领域如何设计一个多任务算法的框架,推动对整体功能上线很重要。2、一个batch里a任务跑完求解loss_a,再 b任务跑完求解loss_b,接着c任务跑完求解loss_c,。。。。,3、每个任务的neck和head单独更新梯度和权重,backbone一次batch只更新一次梯度和权重。4、每个任务单独构建自己的计算图,模型forward backward多次,5、每次forward backward只处理一个任务,然后做梯度累加,最后统一更新参数。...
2021-03-08 19:26:01
486
原创 linux中计算文件个数
linux中计算文件个数查看当前目录下的文件数量ls -l |grep "^-"|wc -l或find ./folder_name -type f | wc -l 查看文件夹数目:ls -l ./|grep "^d"|wc -l注:folder_name 指的是:当前目录下的你要查询的文件夹名查看某文件夹下文件的个数,包括子文件夹里的ls -lR|grep "^-"|wc -lls -l长列表输出该目录下文件信息(注意这里的文件,不同于一般的文
2021-03-01 19:50:48
479
原创 docker及nvidia-docker安装(离线)
硬件及系统硬件,一台64C256G2000G(64核心256G内存2T存储4×V100机器) 挂载硬盘, 格式化分区(mkfs.ext4),想要挂载的硬盘名为/dev/vdb,则执行mkfs.ext4 /dev/vdb 加载分区 a、创建分区挂接目录,例:mkdir xxb、编辑 /etc/fstab 配置文件,将分区信息写进去。/dev/vdb /xx ext4 defaults 0 0c、加载新建分区:mount -a修改文件权限,所有用户可用chmod
2021-02-26 09:33:52
2725
原创 nvidia-smi卡顿详解
如果显卡数量在4张以上,在nvidia-smi信息后会非常的慢,非常的卡。尤其在只在乎计算量服务器的时候。我试过把8张卡 tesla K80 显卡一个个拆下来 8张、7张 6/5/4/3/2/1试试nvidia-smi 结果速度都一样。需要4到5分钟时间,甚至都不出直接死机。解决方法 开始的时候以为是driver没有安装好,但是使用nvidia-smi之后可以显示GPU信息,只是疑惑Persistence-M为什么是off呢。。。然后就将其状态改为ON试试,就可以了。nvidia-..
2021-02-25 17:04:56
9803
2
原创 自动驾驶词汇概念介绍
自动驾驶中常用的词汇介绍ACC:自适应巡航adaptive Cruise Control (控制辅助类术语)实时监测车辆前方行驶环境,在设定的速度范围内自动调整行驶速度,以适应前方车辆和/或道路条件等引起的驾驶环境变化。ADAS:先进驾驶辅助系统advanced driver assistance systems利用安装在车辆上的传感、通信、决策及执行等装置,实时监测驾驶员、车辆及其行驶环境,并通过信息和 / 或运动控制等方式辅助驾驶员执行驾驶任务或主动避免 / 减轻碰撞危害..
2021-02-20 20:22:09
7869
原创 Could not install packages due to an EnvironmentError: [Errno 28] No space left on device
在服务器上用pip安装torch时出现了如下的问题Could not install packages due to an EnvironmentError: [Errno 28] No space left on device调试发现了是服务器上的/tmp空间不足,由于是非Root用户,解决的方法是先在自己的根目录建一个tmp目录具体进行如下操作$ cd ~$ mkdir tmp$ export TMPDIR=$HOME/tmp原因还是根目录/tmp已经快用尽了...
2021-02-18 11:24:38
736
原创 git 代码合入和提交技巧
git commit -m "[fix/xx] fix xx"git push origin zqh/feature/xxgit rebase -i HEAD~4git push origin zqh/feature/xx:zqh/feature/xx -fgit cherry-pick 728xxgit push origin rebase:zqh/feature/xx -fgit cherry-pick --continuehttps://blog.csdn.net...
2021-01-15 15:24:30
1001
转载 FCOS 计算loss源码解读
最近在看FCOS论文总觉得不够具体,特此调试了源代码解读源代码以供自己以后查看。其中有很多技巧如果不是读作者源码是很难想到的。包含一下内容:如何根据原始数据的box坐标生成loss函数需要的box样式 如何根据大小不同box的分配不同level的特征图 """This file contains specific functions for computing losses of FCOSfile"""import torchfrom torch.nn import function
2021-01-08 16:08:05
789
原创 python 去除不可见字符 \x00\x00\x00\x00\x00
n_str = "abdce\x00\x00\x00\x00\x00"n_str = n_str.strip(b'\x00'.decode())
2020-12-24 15:57:05
5428
1
原创 使用ssh命令出现:packet_write_wait: Connection to **** port 22: Broken pipe 解决!
使用ssh命令出现:packet_write_wait: Connection to **** port 22: Broken pipe 解决!在github找到了完美的解决方案!感谢~https://github.com/vmware/open-vm-tools/issues/287解决方案:在~/.ssh目录新建文件config在github找到了完美的解决方案!感谢~https://github.com/vmware/open-vm-tools/issues/287.
2020-12-08 13:56:51
6074
2
转载 移动端机器学习框架SNPE的使用
NPE SDK能够帮助开发者做什么事情?Qualcomm骁龙神经处理引擎(Neural Processing Engine, NPE)SDK 能够帮助有意创建人工智能(AI)解决方案的开发者,在骁龙移动平台上(无论是CPU、GPU还是DSP)运行通过Caffe/Caffe2或TensorFlow训练一个或多个神经网络模型,且无需连接到云端,实现边缘计算。NPE SDK能帮助开发者在骁龙设备上运行受过训练的神经网络并优化其性能。NPE SDK提供了模型转换和执行工具,以及针对核的API,利用功率和性能
2020-12-01 11:30:33
4344
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人