- 博客(429)
- 资源 (2)
- 收藏
- 关注
原创 80、昇腾系列服务器/昇腾系列推理卡/昇腾系列嵌入式开发板+FastGPT+one api部署DeepSeek-R1-Distill-Qwen-32BW8A8+RAG本地模型知识库和负载均衡双实例
基本思想:承接上一篇博客,适配fastgpt,假设你已经配置了docker和docker-compose包,目标设备仍然是昇腾服务器,且mindie服务和分词服务也已经启动,开始构建FastGPT环境吧。先拉取arm64的镜像,进行x86镜像替换。第一步:one-api部署。
2025-03-06 21:16:16
399
原创 79、昇腾系列服务器/昇腾系列推理卡/昇腾系列嵌入式开发板+Dify+one api部署DeepSeek-R1-Distill-Qwen-32BW8A8+RAG本地模型知识库和负载均衡双实例
阶段,安装过程缺什么,,在docker外面git下源码,进入容器内部进行量化,这里的容器建议在创建个8卡的容器,双卡容器量化会显示npu显存不够,除非你用cpu转模型,我就懒得创建容器了,使用cpu量化吧,巨慢;创建容器,进入容器,计划使用两张昇腾NPU卡推理DeepSeek-R1-Distill-Qwen-32B的W8A8模型,所以构建的容器用两张卡,选6、7卡吧,0-6号卡可以跑文本嵌入模型、重排序模型;直接进入量化阶段,在容器外面操作即可,环境不用管,因为系统已经默认配置了环境,直接跳到。
2025-02-23 19:28:03
4374
原创 70、训练yolov11-pose关键点训练、部署TensorRT&NCNN部署&&昇腾310I Duo卡&昇腾Atlas 200DK
在/home/ubuntu/ultralytics/ultralytics/cfg/datasets创建fish.yaml文件。基本思想:进行yolov11-pose关键点训练,进行简单记录,纯粹为了方便年使用查找。二、下载 代码,修改配置文件和类别和数据配置文件关键点个数。文件结构,train里面是图片和转换的txt 依次类推。一、使用labelme 标注关键点进行数据集转换。
2025-01-28 20:10:46
296
原创 78、使用爱芯派2_AX630C开发板 3.2T高有效算力 低功耗 支持AI-ISP真黑光实验
五、将模型改名成yolov5s.axmodel,替换/home/ubuntu/ax620e_bsp_sdk/msp/sample/vin_ivps_engine_venc_rtsp/models里面的模型替换转换的模型,拷贝编译好的代码到开发板推理之前,先丢个模型和图片到这个文件夹×/bin,一个为了测试一下模型是否可以用,一个为了推流并进行推理测试,推流文件名可以和原来的保持一致。这个也改了一起测,改成两类,可以先用这个例子单独测试一下,在测推流代码。第一步需要连接屏幕,将wifi连接上网,进行开发。
2025-01-02 10:46:51
603
原创 77、将adaface的mtcnn模型npy文件转成atlas310p模型,并进行推理
新建立一个export_onnx.py文件文件路径 /home/ubuntu/AdaFace/face_alignment/mtcnn_pytorch/src/export_onnx.py。一、按照readme进行测试mtcnn模型,将main.py代码添加到/home/ubuntu/AdaFace/face_alignment/mtcnn_pytorch/目录下。可以看出非常接近,优化一下代码,完全独立官方的逻辑代码,使用但文件推理,方便在atlas设备上推理。
2024-12-26 16:36:11
234
原创 74、docker镜像制作上传/下载到阿里云
基本思想:简单学习一下如何制作镜像和上传下载到私有阿里云,然后构建一个gpu的训练/推理环境,以备后续使用。
2024-12-05 21:34:16
521
原创 16、斑马设备的ppocer-4支持文字旋转识别和opencv-mobile中文显示mnn/ncnn双版本
基本思想:手上有个斑马设备,是客户的,简单记录一下开发过程和工程项目,同时记录跟着android小哥学习了很多anroid的知识,转ppocr-4参考之前的ppocr-3转换即可,整个框架仍然使用c++ ncnn jni框架推理和现实,图像库使用opencv-mobile。一、首先转paddle-cor-4 到ncnn的框架上,进行推理,这里使用ncnn+mingw+paddle-ocr进行推理,转换模型参考paddle-ocr3即可。二、android的工程项目。
2024-09-23 21:23:28
372
原创 73、结合无人机进行rk3588oak-lite跟踪目标物体进行识别、跟踪
搭建仿真转换模型环境,主要python版本和我下载的rknn2的版本。截取shape节点,输出模型。so库也要对应转模型的whl。其中安装的whl版本。
2024-09-17 17:59:57
956
原创 71、哪吒开发板试用&结合oak深度相机进行评测
一、 我们先刷个刷成linux系统,测试比较方便,虽然window+python代码也可以开发,但是这不是为了获奖吗,搞点难度的ubuntu+c++推理,同时还为了测试灰仔的ncnn吗,勉为其难,把正版window 系统刷掉吧,哈哈哈。基本思想:收到intel的开发板-小挪吒,正好手中也有oak相机,反正都是openvino一套玩意,进行评测一下,竟然默认是个window系统,哈哈。首先在自己的宿主机器上ubuntu20.04配置环境,转一下oak所需要的模型,设备的系统openvino版本太高。
2024-09-15 17:15:36
237
原创 69、ncnn学习onnx2ncnn不支持带三维算子相乘gemm/repeat转换方法学习
测试结果,因为设置的随机生成数,只要torch onnx ncnn对应上即可。基本思想:学习不支持带channel维度的Mat相乘。二、repeat不支持onnx2ncnn使用。转一下onnx2ncnn。然后修改param结构。转换onnx显示不支持。参看ncnn的算子支持。其中的param结果。转的错误的param。
2024-07-19 15:27:00
1132
原创 68、ncnn学习onnx2ncnn不支持五维算子squeeze/gather转换方法学习
有了上一篇博客的学习,ncnn的squeeze不支持4d操作, 将squeeze 改为reshape 我们看一下ncnn的operator 的reshape。修改的param,修改了reshape维度、crop维度提取步长、以及添加reshape对齐了onnx 输入。基本思想:继续构建小模型,学习ncnn的onnx2ncnn的不支持算子学习。转ncnn没有错误,但是推理结果是不正确的,请see。一、四、五维度转换squeeze不支持。查看一下param的内部结构。进行onnx进行简化。
2024-07-12 17:56:07
330
原创 67、ncnn学习onnx2ncnn不支持五维算子reshape/transpose转换方法学习
一点点剖析ncnn的不支持,这里先不考虑batch>1的情况 输入维度是 1x3x6x6 使用reshape转成1x6x2x3x3 对应ncnn的内存布局是cdhw 所以修改param结果为。一、例子一,先造个五维度的reshape转换,ncnn的onnx2ncnn不支持转换,参考ppocr_4算子。基本思想:学习ncnn转模型集锦,仅在onnx2ncnn使用, 先不谈pnnx。执行生成pt使用onnx转一下,我用mingw+window转一下。测试结果,ncnn不支持五维度输出,直接崩溃。
2024-07-11 10:47:20
399
原创 72、记录一下jetson nano 部署CSI摄像头+关键点识别代码
基本思想:使用csi摄像头进行画面取帧,使用v7进行目标检测,使用rtmpose进行关键点检测。刷机手册参考官网、搜素ip方法。三、测试csi摄像头。
2024-06-08 18:56:22
554
原创 71、评测OrangePi AIpro开发板和USB CAMERA&OAK视频解码+推理+编码+推流测试
第一步:系统刷机,参考官方吧,懒得刷机了,参考官方手册即可链接:https://pan.baidu.com/s/1umXM3ir-5adfjC3ZyjjJ4A?三、先测试一下环境,是否可用,ide使用clion,需要添加环境变量在clion中,测试我上一篇对应博客和模型,模型我共享在百度云盘了。二、因为我习惯了华为官方的aclite库,我发现官方给我刷的系统没有,那我自己编译一下吧。连接账号 root 密码:Mind@123。然后就参考我这篇博客修改和编译即可。使用python搜索同一网段的ip。
2024-05-26 23:13:04
639
原创 70、测试CPE+POE+OAK设备
二、然后测试python的oak代码,c++我就不测试了,这里附录一个python搜索本地ip的地址,可以用于c++ 的oak设置开发。一、首先购买双CPE设备,简称网桥,进行设置,设置方式采用网线直连的方式进行ip设置,保证其主网桥和子网桥位于局域网属于同一网段内。基本思想:需要部署测试CPE+POE+OAK设备,仅此而已。三、测试python的oak代码。
2024-05-17 21:55:11
222
原创 69、oak和华为atlas 200dk A2进行编解码测试
基本思想:将oak深度相机与atlas 200dk A2进行结合,测试其dvpp的编解码能力。
2024-05-06 19:49:18
570
原创 68、ubunut/window使用海康彩色工业相机
基本思想:刚买了一块海康工业相机,需要在jetson上调用使用,所以记录一下配置方法,然后结合开发使用。一、先使用window软件调用一下,是否可用。
2024-03-30 12:43:31
778
原创 67、yolov8目标检测和旋转目标检测算法batchsize=1/6部署Atlas 200I DK A2/orangepi AI pro开发板上
基本思想:需求部署yolov8目标检测和旋转目标检测算法部署atlas 200dk 开发板上。配置pycharm professional。使用huawei板子进行转换模型。
2024-03-29 12:45:53
1132
原创 66、将同图片下的多个不同类别的xml标注文件合并成一个xml标注文件-labelImg格式
基本思想:手中有一套抽烟的数据集是labelimg格式,但是没有人物标注的数据集,因此使用自动化标注脚本将图片过滤一边,进行生成labelimg文件,只含有80类别的人物标注xml,然后使用脚本将生成标注的人物xml和手中有的抽烟xml进行合并,生成一份xml文件。
2024-03-20 15:58:34
584
原创 65、将mmpose的RTmpose适配华为Atlas 200dk A2,同时控制GSM发送短信和拨打电话
基本思想:适配关键点模型到华为昇腾芯片上,同时对针对性的动作做出响应。
2024-03-14 21:45:45
412
原创 64、使用orangepi 5 plus进行目标识别,然后使用蜂鸣器进行播报
基本思想:获得一块新的rk3588芯片,使用rk3588芯片做个简单的目标检测,调用usb摄像头,然后进行gpio引脚调用,然后没了。一、首先进行刷机,参考手册,不做详细介绍,未使用emc刷机。刷机完成:orangepi/orangepi登陆。然后配置环境,安装必要的库。
2024-03-10 16:48:26
691
原创 18、ubutnu20.04使用RTX3060硬件进行视频编解码+推流
一、进行nv-codec-headers配置。二、进行video_codec_sdk配置。基本思想:先进行环境配置,系统环境如下。三、进行ffmpeg编译。
2024-02-26 09:23:40
1371
原创 64、ubuntu使用c++/python调用alliedvision工业相机
基本思想:需要使用linux系统调用alliedvisio工业相机完成业务,这里只做驱动相机调用,具体不涉及业务开发。一、先用软件调用一下。
2024-01-25 19:04:57
875
原创 66、ubutnu20.04上进行yolov8区域训练检测和条形码识别
基本思想:需要使用爬虫代码,预先爬虫一些数据和标注,这里只做简单记录,不做具体意图探讨。一、爬虫数据,然后进行部分筛选。
2023-12-16 15:51:19
733
原创 65、记录RTMpose转TensorRT过程,测试c++/python
不知道为啥,我转失败了,但是生成了end2end.onnx模型,无关紧要,然后使用TensorRT自带的工具转engine。基本思想:记录一下,官方的mmpose+custom_mmdeploy中的RTmpose转TensorRT过程,纯粹记录。一、下载mmpose官方代码,然后配置环境,参考官方配置即可。cuda和cudnn的版本,参考。转成功之后,然后找个代码测测,使用clion测试,改了CMakeLists.txt。main.cpp直接找了个图片,标注了一个人的位置,然后跑一下关键点检测。
2023-12-06 08:59:57
657
原创 1、cuda的学习记录Chapter01
基本思想:学习一下cuda编程,随手记录一下 如何使用grind block thread 线程块和编号的概念和应用方法。一、使用工具clion+ubuntu。
2023-11-23 15:33:29
234
原创 64、使用Python拉取RK3588视频流,然后进行batchsize=3的USB摄像头推理(暂没使用编解码mpp.so)/RTSP流,将推理结果的视频帧分三路推送到亚马逊云服务上
基本思想:一个基本需求是使用OAK三路相机,进行解码然后推理同时推送三路视频流到亚马逊云服务上,这里只是用usb摄像头做个验证,解码和编码使用自己已经编译编译好的mpp.so,使用python去掉用即可。
2023-11-12 13:43:25
1067
原创 63、python使用v4l2调用香橙派rk3588外接的USB摄像头测试
需要修正一下下载包中的[前提已经下载下来下面的编译包 pyhon-v4l2capture] orangepi@orangepi5b:~/python-v4l2capture$ sudo vim v4l2capture.c这个文件。基本思想:因为在香橙派上使用opencv方式无法调用usb的摄像头,所以我们使python版本的v4l2调用摄像头,这里做一下记录。第二步:使用官方代码进行python版本的v4l2安装,主要要是你遇到这个问题,第一步:安装必要的包,让其支持v4l2的调用方式。
2023-11-08 13:49:22
1723
原创 62、使用python进行rk3588开发板进行推流亚马逊云服务上,进行实时播放
基本思想:之前写了一套c++的推理和视频编解码,使用rk3588的mpp硬件进行编码和解码,然后使用RTSPServer进行推流,总是有问题,虽然可以使用ffplay和vlc进行拉取和播放,但是就是无法使用gstreamer推流到亚马逊云服务上,因为项目需求的紧急,所以先用python把流程跑同,后续在进行详细的探究和研究。2) 然后需要下载一下流媒体服务,因为rk3588s的开发板是armv8的架构,所以需要下载armv8架构的可执行文件。一、连接rk3588s的开发板。3)下载亚马逊的官方的推流代码。
2023-11-07 09:13:29
1148
原创 63、比特大陆算能盒子SE5开发初体验
一:需要将本机设置固定ip,主要是因为其板子的固定ip为192.168.150.1 我设置为本机固定的ip为。然后进行ssh连接,这里我的笔记本使用的wifi上网,并不影响笔记本上网。基本思想:需要适配算能盒子SE5开发,这里记录记录一下。
2023-11-02 19:56:37
559
原创 17、简单记录一下两个流媒体工具和推流测试,附录ubuntu下的RTX3060视频硬件编解码和自建服务推流
贴个gpu解码+gpu编码的推理代码(opencv已经和cuda重新编译)//工程基于cuda建立。基本思想:在开发流媒体服务过程中,使用了两个流媒体工具,这里做一下简单的记录,以后可以翻阅和查看。使用方法就是使用rtsp/rmtp进行推流测试即可。它支持rtsp/rtmp/hls推流测试。该工具也是流媒体服务的工具。
2023-10-27 13:40:22
619
2
原创 16、window11+visual studio 2022+cuda+ffmpeg进行拉流和解码(RTX3050)
上述框颜色 红色是两个框 一个是基于解码的gpu进行yuv转rgb 然后送给黑色框进行算法推理,然后经过解码进行另一个红色框进行rgb转yuv,然后给橙色框进行编码h264进行推流,整个数据传输使用共享内存进行数据交互,整个解码器和编码器使用。然后进行代码开发,这里并没有将opencv+cuda进行二次编译,当然也可以编译,但是本菜鸡没用cv::cuda::Mat的形式开发,还是依赖ffmpeg的方式进行开发,同时使用cuda进行了某些格式的转换。几乎0延迟的,使用笔记本的显卡。一:首先安装驱动,参考。
2023-10-25 09:33:05
1020
原创 14、ffmpeg中进进行硬件编码和解码的片段程序_cuda进行rgb2yuv和yuv2rgb
基本思想:为了加快ffmpeg进行编码和解码使用。一、进行RGB2YUV420(YU12)编码。二、进行YUV420(YU12)2RGB编码。测试环境为RTX3060台式机。
2023-10-16 14:25:13
521
原创 15、window10+opencv+cuda+ffmpeg编译和测试RTSP
3)将https://developer.nvidia.com/downloads/designworks/video-codec-sdk/secure/12.1/video_codec_sdk_12.1.14.zip解压之后,将Video_Codec_SDK_12.1.14/Interface/*拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\include中。二、编译opencv+cuda+nvidia_codec。
2023-10-04 18:45:25
483
原创 69、配置AWS服务,接收来自RTSP流的推送
基本思想:在上一篇的基础和视频教程之后,进行简单的aws服务,进行RTSP流的接收。第六步:填入json数据//来自前面cp的video stream信息。在build目录外层配置环境变量,在该目录环境路径下执行。第二步:配置video_stream,记得选择香港节点。第四步:策略设置,选中右上角的创建策略。同时记录这个信息,后面的策略需要填充。第八步:参考上一篇博客编译源码即可。第五步、进行json填充。然后创建policy成功。第七步:创建user账户。第三步:进行策略设置。
2023-09-05 14:11:06
715
原创 68、使用aws官方的demo和配置aws服务,进行视频流上传播放
2)先配置 Thing types & Thing,选择香港的节点,然后AWS ioT--->Manage---> Thing type。基本思想:参考官方视频,进行了配置aws,测试了视频推流,rtsp和mp4格式的视频貌似有问题,待调研和解决。完成之后,在上一步的next结束之后,在进行create policy。第一步:1) 进入aws的网站,然后进入ioT Core。然后输入名字,创建Thing type。2) 点击policy进行往下创建。下一步更新内容且选择custom。许可文件,先放在那里。
2023-08-24 19:03:54
1301
2017最全的vivado license
2017-03-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人