自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

sxj731533730

成功埋没过去,失败开拓未来。

  • 博客(429)
  • 资源 (2)
  • 收藏
  • 关注

原创 80、昇腾系列服务器/昇腾系列推理卡/昇腾系列嵌入式开发板+FastGPT+one api部署DeepSeek-R1-Distill-Qwen-32BW8A8+RAG本地模型知识库和负载均衡双实例

基本思想:承接上一篇博客,适配fastgpt,假设你已经配置了docker和docker-compose包,目标设备仍然是昇腾服务器,且mindie服务和分词服务也已经启动,开始构建FastGPT环境吧。先拉取arm64的镜像,进行x86镜像替换。第一步:one-api部署。

2025-03-06 21:16:16 399

原创 79、昇腾系列服务器/昇腾系列推理卡/昇腾系列嵌入式开发板+Dify+one api部署DeepSeek-R1-Distill-Qwen-32BW8A8+RAG本地模型知识库和负载均衡双实例

阶段,安装过程缺什么,,在docker外面git下源码,进入容器内部进行量化,这里的容器建议在创建个8卡的容器,双卡容器量化会显示npu显存不够,除非你用cpu转模型,我就懒得创建容器了,使用cpu量化吧,巨慢;创建容器,进入容器,计划使用两张昇腾NPU卡推理DeepSeek-R1-Distill-Qwen-32B的W8A8模型,所以构建的容器用两张卡,选6、7卡吧,0-6号卡可以跑文本嵌入模型、重排序模型;直接进入量化阶段,在容器外面操作即可,环境不用管,因为系统已经默认配置了环境,直接跳到。

2025-02-23 19:28:03 4374

原创 70、训练yolov11-pose关键点训练、部署TensorRT&NCNN部署&&昇腾310I Duo卡&昇腾Atlas 200DK

在/home/ubuntu/ultralytics/ultralytics/cfg/datasets创建fish.yaml文件。基本思想:进行yolov11-pose关键点训练,进行简单记录,纯粹为了方便年使用查找。二、下载 代码,修改配置文件和类别和数据配置文件关键点个数。文件结构,train里面是图片和转换的txt 依次类推。一、使用labelme 标注关键点进行数据集转换。

2025-01-28 20:10:46 296

原创 78、使用爱芯派2_AX630C开发板 3.2T高有效算力 低功耗 支持AI-ISP真黑光实验

五、将模型改名成yolov5s.axmodel,替换/home/ubuntu/ax620e_bsp_sdk/msp/sample/vin_ivps_engine_venc_rtsp/models里面的模型替换转换的模型,拷贝编译好的代码到开发板推理之前,先丢个模型和图片到这个文件夹×/bin,一个为了测试一下模型是否可以用,一个为了推流并进行推理测试,推流文件名可以和原来的保持一致。这个也改了一起测,改成两类,可以先用这个例子单独测试一下,在测推流代码。第一步需要连接屏幕,将wifi连接上网,进行开发。

2025-01-02 10:46:51 603

原创 77、将adaface的mtcnn模型npy文件转成atlas310p模型,并进行推理

新建立一个export_onnx.py文件文件路径 /home/ubuntu/AdaFace/face_alignment/mtcnn_pytorch/src/export_onnx.py。一、按照readme进行测试mtcnn模型,将main.py代码添加到/home/ubuntu/AdaFace/face_alignment/mtcnn_pytorch/目录下。可以看出非常接近,优化一下代码,完全独立官方的逻辑代码,使用但文件推理,方便在atlas设备上推理。

2024-12-26 16:36:11 234

原创 76、适配Adaface模型到昇腾310p设备上

基本思想:将Adaface适配上310p设备上。

2024-12-22 22:53:26 187

原创 75、适配yolov-face模型到昇腾310p设备上

基本思想:适配yolov11-face模型到昇腾设备上。

2024-12-18 15:36:20 507

原创 74、docker镜像制作上传/下载到阿里云

基本思想:简单学习一下如何制作镜像和上传下载到私有阿里云,然后构建一个gpu的训练/推理环境,以备后续使用。

2024-12-05 21:34:16 521

原创 16、斑马设备的ppocer-4支持文字旋转识别和opencv-mobile中文显示mnn/ncnn双版本

基本思想:手上有个斑马设备,是客户的,简单记录一下开发过程和工程项目,同时记录跟着android小哥学习了很多anroid的知识,转ppocr-4参考之前的ppocr-3转换即可,整个框架仍然使用c++ ncnn jni框架推理和现实,图像库使用opencv-mobile。一、首先转paddle-cor-4 到ncnn的框架上,进行推理,这里使用ncnn+mingw+paddle-ocr进行推理,转换模型参考paddle-ocr3即可。二、android的工程项目。

2024-09-23 21:23:28 372

原创 73、结合无人机进行rk3588oak-lite跟踪目标物体进行识别、跟踪

搭建仿真转换模型环境,主要python版本和我下载的rknn2的版本。截取shape节点,输出模型。so库也要对应转模型的whl。其中安装的whl版本。

2024-09-17 17:59:57 956

原创 71、哪吒开发板试用&结合oak深度相机进行评测

一、 我们先刷个刷成linux系统,测试比较方便,虽然window+python代码也可以开发,但是这不是为了获奖吗,搞点难度的ubuntu+c++推理,同时还为了测试灰仔的ncnn吗,勉为其难,把正版window 系统刷掉吧,哈哈哈。基本思想:收到intel的开发板-小挪吒,正好手中也有oak相机,反正都是openvino一套玩意,进行评测一下,竟然默认是个window系统,哈哈。首先在自己的宿主机器上ubuntu20.04配置环境,转一下oak所需要的模型,设备的系统openvino版本太高。

2024-09-15 17:15:36 237

原创 69、ncnn学习onnx2ncnn不支持带三维算子相乘gemm/repeat转换方法学习

测试结果,因为设置的随机生成数,只要torch onnx ncnn对应上即可。基本思想:学习不支持带channel维度的Mat相乘。二、repeat不支持onnx2ncnn使用。转一下onnx2ncnn。然后修改param结构。转换onnx显示不支持。参看ncnn的算子支持。其中的param结果。转的错误的param。

2024-07-19 15:27:00 1132

原创 68、ncnn学习onnx2ncnn不支持五维算子squeeze/gather转换方法学习

有了上一篇博客的学习,ncnn的squeeze不支持4d操作, 将squeeze 改为reshape 我们看一下ncnn的operator 的reshape。修改的param,修改了reshape维度、crop维度提取步长、以及添加reshape对齐了onnx 输入。基本思想:继续构建小模型,学习ncnn的onnx2ncnn的不支持算子学习。转ncnn没有错误,但是推理结果是不正确的,请see。一、四、五维度转换squeeze不支持。查看一下param的内部结构。进行onnx进行简化。

2024-07-12 17:56:07 330

原创 67、ncnn学习onnx2ncnn不支持五维算子reshape/transpose转换方法学习

一点点剖析ncnn的不支持,这里先不考虑batch>1的情况 输入维度是 1x3x6x6 使用reshape转成1x6x2x3x3 对应ncnn的内存布局是cdhw 所以修改param结果为。一、例子一,先造个五维度的reshape转换,ncnn的onnx2ncnn不支持转换,参考ppocr_4算子。基本思想:学习ncnn转模型集锦,仅在onnx2ncnn使用, 先不谈pnnx。执行生成pt使用onnx转一下,我用mingw+window转一下。测试结果,ncnn不支持五维度输出,直接崩溃。

2024-07-11 10:47:20 399

原创 72、记录一下jetson nano 部署CSI摄像头+关键点识别代码

基本思想:使用csi摄像头进行画面取帧,使用v7进行目标检测,使用rtmpose进行关键点检测。刷机手册参考官网、搜素ip方法。三、测试csi摄像头。

2024-06-08 18:56:22 554

原创 71、评测OrangePi AIpro开发板和USB CAMERA&OAK视频解码+推理+编码+推流测试

第一步:系统刷机,参考官方吧,懒得刷机了,参考官方手册即可链接:https://pan.baidu.com/s/1umXM3ir-5adfjC3ZyjjJ4A?三、先测试一下环境,是否可用,ide使用clion,需要添加环境变量在clion中,测试我上一篇对应博客和模型,模型我共享在百度云盘了。二、因为我习惯了华为官方的aclite库,我发现官方给我刷的系统没有,那我自己编译一下吧。连接账号 root 密码:Mind@123。然后就参考我这篇博客修改和编译即可。使用python搜索同一网段的ip。

2024-05-26 23:13:04 639

原创 70、测试CPE+POE+OAK设备

二、然后测试python的oak代码,c++我就不测试了,这里附录一个python搜索本地ip的地址,可以用于c++ 的oak设置开发。一、首先购买双CPE设备,简称网桥,进行设置,设置方式采用网线直连的方式进行ip设置,保证其主网桥和子网桥位于局域网属于同一网段内。基本思想:需要部署测试CPE+POE+OAK设备,仅此而已。三、测试python的oak代码。

2024-05-17 21:55:11 222

原创 69、oak和华为atlas 200dk A2进行编解码测试

基本思想:将oak深度相机与atlas 200dk A2进行结合,测试其dvpp的编解码能力。

2024-05-06 19:49:18 570

原创 68、ubunut/window使用海康彩色工业相机

基本思想:刚买了一块海康工业相机,需要在jetson上调用使用,所以记录一下配置方法,然后结合开发使用。一、先使用window软件调用一下,是否可用。

2024-03-30 12:43:31 778

原创 67、yolov8目标检测和旋转目标检测算法batchsize=1/6部署Atlas 200I DK A2/orangepi AI pro开发板上

基本思想:需求部署yolov8目标检测和旋转目标检测算法部署atlas 200dk 开发板上。配置pycharm professional。使用huawei板子进行转换模型。

2024-03-29 12:45:53 1132

原创 66、将同图片下的多个不同类别的xml标注文件合并成一个xml标注文件-labelImg格式

基本思想:手中有一套抽烟的数据集是labelimg格式,但是没有人物标注的数据集,因此使用自动化标注脚本将图片过滤一边,进行生成labelimg文件,只含有80类别的人物标注xml,然后使用脚本将生成标注的人物xml和手中有的抽烟xml进行合并,生成一份xml文件。

2024-03-20 15:58:34 584

原创 65、将mmpose的RTmpose适配华为Atlas 200dk A2,同时控制GSM发送短信和拨打电话

基本思想:适配关键点模型到华为昇腾芯片上,同时对针对性的动作做出响应。

2024-03-14 21:45:45 412

原创 64、使用orangepi 5 plus进行目标识别,然后使用蜂鸣器进行播报

基本思想:获得一块新的rk3588芯片,使用rk3588芯片做个简单的目标检测,调用usb摄像头,然后进行gpio引脚调用,然后没了。一、首先进行刷机,参考手册,不做详细介绍,未使用emc刷机。刷机完成:orangepi/orangepi登陆。然后配置环境,安装必要的库。

2024-03-10 16:48:26 691

原创 18、ubutnu20.04使用RTX3060硬件进行视频编解码+推流

一、进行nv-codec-headers配置。二、进行video_codec_sdk配置。基本思想:先进行环境配置,系统环境如下。三、进行ffmpeg编译。

2024-02-26 09:23:40 1371

原创 1、gstreamer基础教程-播放视频

基本思想:只是单纯记录一下官方的例子,具体信息看官方手册,本菜也是参考官方手册学习。

2024-01-28 17:13:47 694

原创 64、ubuntu使用c++/python调用alliedvision工业相机

基本思想:需要使用linux系统调用alliedvisio工业相机完成业务,这里只做驱动相机调用,具体不涉及业务开发。一、先用软件调用一下。

2024-01-25 19:04:57 875

原创 66、ubutnu20.04上进行yolov8区域训练检测和条形码识别

基本思想:需要使用爬虫代码,预先爬虫一些数据和标注,这里只做简单记录,不做具体意图探讨。一、爬虫数据,然后进行部分筛选。

2023-12-16 15:51:19 733

原创 65、记录RTMpose转TensorRT过程,测试c++/python

不知道为啥,我转失败了,但是生成了end2end.onnx模型,无关紧要,然后使用TensorRT自带的工具转engine。基本思想:记录一下,官方的mmpose+custom_mmdeploy中的RTmpose转TensorRT过程,纯粹记录。一、下载mmpose官方代码,然后配置环境,参考官方配置即可。cuda和cudnn的版本,参考。转成功之后,然后找个代码测测,使用clion测试,改了CMakeLists.txt。main.cpp直接找了个图片,标注了一个人的位置,然后跑一下关键点检测。

2023-12-06 08:59:57 657

原创 1、cuda的学习记录Chapter01

基本思想:学习一下cuda编程,随手记录一下 如何使用grind block thread 线程块和编号的概念和应用方法。一、使用工具clion+ubuntu。

2023-11-23 15:33:29 234

原创 64、使用Python拉取RK3588视频流,然后进行batchsize=3的USB摄像头推理(暂没使用编解码mpp.so)/RTSP流,将推理结果的视频帧分三路推送到亚马逊云服务上

基本思想:一个基本需求是使用OAK三路相机,进行解码然后推理同时推送三路视频流到亚马逊云服务上,这里只是用usb摄像头做个验证,解码和编码使用自己已经编译编译好的mpp.so,使用python去掉用即可。

2023-11-12 13:43:25 1067

原创 63、python使用v4l2调用香橙派rk3588外接的USB摄像头测试

需要修正一下下载包中的[前提已经下载下来下面的编译包 pyhon-v4l2capture] orangepi@orangepi5b:~/python-v4l2capture$ sudo vim v4l2capture.c这个文件。基本思想:因为在香橙派上使用opencv方式无法调用usb的摄像头,所以我们使python版本的v4l2调用摄像头,这里做一下记录。第二步:使用官方代码进行python版本的v4l2安装,主要要是你遇到这个问题,第一步:安装必要的包,让其支持v4l2的调用方式。

2023-11-08 13:49:22 1723

原创 62、使用python进行rk3588开发板进行推流亚马逊云服务上,进行实时播放

基本思想:之前写了一套c++的推理和视频编解码,使用rk3588的mpp硬件进行编码和解码,然后使用RTSPServer进行推流,总是有问题,虽然可以使用ffplay和vlc进行拉取和播放,但是就是无法使用gstreamer推流到亚马逊云服务上,因为项目需求的紧急,所以先用python把流程跑同,后续在进行详细的探究和研究。2) 然后需要下载一下流媒体服务,因为rk3588s的开发板是armv8的架构,所以需要下载armv8架构的可执行文件。一、连接rk3588s的开发板。3)下载亚马逊的官方的推流代码。

2023-11-07 09:13:29 1148

原创 63、比特大陆算能盒子SE5开发初体验

一:需要将本机设置固定ip,主要是因为其板子的固定ip为192.168.150.1 我设置为本机固定的ip为。然后进行ssh连接,这里我的笔记本使用的wifi上网,并不影响笔记本上网。基本思想:需要适配算能盒子SE5开发,这里记录记录一下。

2023-11-02 19:56:37 559

原创 17、简单记录一下两个流媒体工具和推流测试,附录ubuntu下的RTX3060视频硬件编解码和自建服务推流

贴个gpu解码+gpu编码的推理代码(opencv已经和cuda重新编译)//工程基于cuda建立。基本思想:在开发流媒体服务过程中,使用了两个流媒体工具,这里做一下简单的记录,以后可以翻阅和查看。使用方法就是使用rtsp/rmtp进行推流测试即可。它支持rtsp/rtmp/hls推流测试。该工具也是流媒体服务的工具。

2023-10-27 13:40:22 619 2

原创 16、window11+visual studio 2022+cuda+ffmpeg进行拉流和解码(RTX3050)

上述框颜色 红色是两个框 一个是基于解码的gpu进行yuv转rgb 然后送给黑色框进行算法推理,然后经过解码进行另一个红色框进行rgb转yuv,然后给橙色框进行编码h264进行推流,整个数据传输使用共享内存进行数据交互,整个解码器和编码器使用。然后进行代码开发,这里并没有将opencv+cuda进行二次编译,当然也可以编译,但是本菜鸡没用cv::cuda::Mat的形式开发,还是依赖ffmpeg的方式进行开发,同时使用cuda进行了某些格式的转换。几乎0延迟的,使用笔记本的显卡。一:首先安装驱动,参考。

2023-10-25 09:33:05 1020

原创 70、window11+visual studio2019+共享内存进行数据传输

基本思想:服务端和客户端。

2023-10-19 14:43:58 936

原创 14、ffmpeg中进进行硬件编码和解码的片段程序_cuda进行rgb2yuv和yuv2rgb

基本思想:为了加快ffmpeg进行编码和解码使用。一、进行RGB2YUV420(YU12)编码。二、进行YUV420(YU12)2RGB编码。测试环境为RTX3060台式机。

2023-10-16 14:25:13 521

原创 15、window10+opencv+cuda+ffmpeg编译和测试RTSP

3)将https://developer.nvidia.com/downloads/designworks/video-codec-sdk/secure/12.1/video_codec_sdk_12.1.14.zip解压之后,将Video_Codec_SDK_12.1.14/Interface/*拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\include中。二、编译opencv+cuda+nvidia_codec。

2023-10-04 18:45:25 483

原创 69、配置AWS服务,接收来自RTSP流的推送

基本思想:在上一篇的基础和视频教程之后,进行简单的aws服务,进行RTSP流的接收。第六步:填入json数据//来自前面cp的video stream信息。在build目录外层配置环境变量,在该目录环境路径下执行。第二步:配置video_stream,记得选择香港节点。第四步:策略设置,选中右上角的创建策略。同时记录这个信息,后面的策略需要填充。第八步:参考上一篇博客编译源码即可。第五步、进行json填充。然后创建policy成功。第七步:创建user账户。第三步:进行策略设置。

2023-09-05 14:11:06 715

原创 68、使用aws官方的demo和配置aws服务,进行视频流上传播放

2)先配置 Thing types & Thing,选择香港的节点,然后AWS ioT--->Manage---> Thing type。基本思想:参考官方视频,进行了配置aws,测试了视频推流,rtsp和mp4格式的视频貌似有问题,待调研和解决。完成之后,在上一步的next结束之后,在进行create policy。第一步:1) 进入aws的网站,然后进入ioT Core。然后输入名字,创建Thing type。2) 点击policy进行往下创建。下一步更新内容且选择custom。许可文件,先放在那里。

2023-08-24 19:03:54 1301

opencv (linux版本)

opencv 脚本安装

2017-04-07

2017最全的vivado license

历史最全的vivdo license,压缩包包含:(后期会定时更新) xilinx_ise_vivado.lic Vivado_license_2016.4.lic xilinx_ise.lic Vivado_2016.4_license_2037.lic xilinx.lic ise_vivado_2014_2.lic 2014Xilinx.lic 2016_Vivado_license.lic

2017-03-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除