自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(46)
  • 收藏
  • 关注

原创 Pytorch 2.0 Yolov5推理性能提升记录

测试环境Nvidia A30CUDA 11.7Python 3.9。

2023-05-08 13:48:34 484 1

原创 Kubernetes + Docker 部署一个yolov5检测服务(基于FastDeploy)

Kubernetes + Docker 部署一个yolov5检测服务(基于FastDeploy)

2023-02-11 20:18:14 2220 3

原创 PaddleOCR 尝试OpenCV-DNN/onnxruntime推理

PaddleOCR 尝试OpenCV-DNN/onnxruntime推理

2022-11-09 16:08:34 2289

原创 深度学习部署——vue webassembly ncnn demo 流程记录

vue webassembly ncnn nanodet

2022-09-26 13:45:14 1327

原创 深度学习模型加密(pytorch,onnx,darknet)

深度学习模型加密(pytorch,onnx,darknet,yolov3,yolov4,yolov7)

2022-09-05 19:26:23 6046 7

原创 地平线 旭日X3 PI (四) 板上运行流程(nanodet)

x3派 模型板上运行

2022-07-13 14:27:00 693

原创 地平线 旭日X3 PI (三) 模型转换

地平线 旭日X3 PI (三) 模型转换

2022-07-05 15:26:19 1233

原创 地平线 旭日X3 PI (二) 开发机WSL Docker配置

地平线 旭日X3 PI (二) 开发机WSL Docker配置

2022-06-29 20:54:52 680 2

原创 地平线 旭日X3 PI (一)首次开机细节

地平线旭日 X3 PI 体验流程记录

2022-06-29 16:36:16 603

原创 (pyecharts+flask) + (vue + ECharts.js)实现web表格Demo

基于(pyecharts+flask) + (vue + ECharts.js)实现web表格Demo

2022-04-24 20:36:16 1941

原创 Jetson Nano( 十一)Deepstream6.0 + yolov3/v5多路推理配置流程

Jetson Nano下Deepstream6.0 + yolov3/v5多路推理配置流程;并简单记录下deepstream的配置文件。文章目录一.环境二.大体流程三.配置文件说明四.参考Jetson Nano 系列文章:https://blog.csdn.net/djj199301111/category_11383635.html?spm=1001.2014.3001.5482Deepstream 6.0.1安装参考上篇文章:https://blog.csdn.net/djj19930111

2022-03-21 20:26:48 6308 27

原创 Jetson Nano( 十)Deepstream6.0.1 + python API安装

Jetson Nano 下安装Deepstream6.0.1文章目录环境安装依赖及Gstreamer官网下载对应安装包查看deepstearm安装情况参考JP 4.4.1 deepstream 5.0 参考之前的文章:https://blog.csdn.net/djj199301111/article/details/110186640环境JP 4.6.1deepstream 6.0.1安装依赖及Gstreamersudo apt-get install libssl1.0.0

2022-03-19 12:50:25 3572 13

原创 wsl2-Ubuntu CUDA Tensorrt Deepstream安装配置

一.背景一.准备首先wsl2下安装好ubuntu,cuda,cudnn下载tensorrt 地址:https://developer.nvidia.com/nvidia-tensorrt-downloaddeepstream下载地址二.环境安装trt tar -xzvf TensorRT-8.4.0.6.Linux.x86_64-gnu.cuda-11.6.cudnn8.3.tar.gzexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/mnt/e/Prog

2022-03-17 21:54:38 2752 3

原创 记录:那些封装成几行代码的OCR项目

- PaddleOCR - cnocr+cnstd - easyOCR - ddddocr - MuggleOCR

2022-02-24 19:28:42 3415

原创 OAK Detection

目录一.背景二.环境三.大体流程四.性能五.参考文档一.背景OAK-D-lite 本质上是3个相机+1个Inter VPU的组成。由于OAK demo库中目标检测目前只有yolox的案例,故学习了其他模型的适配。目前适配模型:yolov5_v6.0,nanodet_plus。二.环境pytorch >= 1.7.0 # export.py needopencv-python >= 4.5.5depthai 2.13.3.0opset 12OAK-l

2022-01-16 12:37:57 780 1

原创 yolov5 v6.0~6.1 opencv dnn/onnxruntime推理python 洁净版

yolov5 v6.0 opencv_dnn python版本推理代码本文原创首发于CSDN,如需转载请私信作者基于numpy改写ultralytics/yolov5 v6.0 opencv推理代码,无需依赖pytorch;前处理后处理使用numpy代替了pytroch。https://github.com/VITA-Alchemy/yolov5_6.0_opencvdnn_pythongit clone -b v6.0 https://github.com/ultralytics/yolov5

2021-12-07 09:02:30 3550 21

原创 keras h5—darknet weights模型相互转换

目录一.版本介绍二.保存方式三.转换过程四.参考一.版本介绍keras 2.1.5tensorflow 1.13.1这里以一个yolov3_tiny模型为案例。二.保存方式首先准备自己的h5模型;这里要注意h5模型的保存方式,不同保存方式,对应不同加载方式,如下:> 训练: model.save() > 加载: model.load_model()> 训练: model.save_weights() > 加载: > mo

2021-10-24 09:44:37 3822

原创 Nuitka Python 打包深度学习 PyTorch GPU

目录背景环境版本项目代码结构调整Nuitka打包依赖环境运行测试背景 本文介绍如何在Anaconda下使用Nuitka对python深度学习框架的打包;以Yolo-FastestV2 为案例,记录所有打包流程,并适配cuda部署到其他电脑上。 环境版本win10——x64CUDA——10.0Nuitka—— 0.6.16.4torch ——1.5.1torchvision—— 0.6.1tqdm——4.36.1opencv_python——4.4.0torchsummary——1

2021-09-29 19:20:48 2758 8

原创 Nuitka 打包常用命令

记录下Nuitka常用命令:--windows-disable-console 不显示控制台窗口--windows-icon=ICON_PATH 添加ico--nofollow-imports # 所有的import不编译,交给python3x.dll执行--follow-import-to=need # need为你需要编译成C/C++的py文件夹命名--mingw64 #默认为已经安装的vs2017去编译,否则就按指定的比如mingw(官方建议)--standalo

2021-09-28 19:41:27 2571

原创 Python打包记录nuitka,pyinstaller

目录环境版本打包案例打包过程性能对比本文介绍Python项目打包,并测试下打包后的性能。环境版本Intel i5-8265Uwin10 x64Python 3.8Pyinstaller 4.4Nuitka 0.6.15.3PyQt 1.9.0打包案例功能为调用摄像头显示出来的简单界面文件名:camare.pyrom PyQt5.QtCore import *from PyQt5.QtWidgets

2021-09-18 15:06:09 417

原创 PaddleOCR 手写识别模型:标注到训练

目录版本流程标注训练转换测试本文记录一下自己标注的数据,到训练后模型转换的流程。版本Python == 3.8Paddlepaddle >=2.0PaddleOCR >= 2.0流程首先使用PPOCRLabel工具标注。数据合成工具Style-Text(看需求使用)。编写脚本变更训练所需要的数据格式。修改训练cfg,下载预训练模型,开始训练。模型转换,推理测试。标注训练转换python ./tools/export_model.py -c ./conf

2021-07-31 10:14:02 4688 4

原创 Torchscript格式模型 python demo

目录背景查看读取推理测试背景前提:Pytorch导出Torchscript格式后不可逆;只能使用libtorch或者python的jit.load读取。问题:队友只发了我模型和exe可执行文件没有代码,这样就不能愉快的玩耍了,百度了一圈网上python的demo不多,这里简单的总结一下。查看首先查看pt模型是否为Torchscript格式,如下图在netron中查看格式。读取import torchmodel = torch.jit.load('model.pt')#cpu#mod

2021-07-22 18:36:45 2058 1

原创 keras h5 转pb转onnx

转换流程欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编

2021-07-12 13:23:17 1961 6

原创 Win10下 Swin Transformer目标检测环境配置流程

Win10下 Swin-Transformer目标检测环境;对于第一次配置mmdetection的同学可能有所帮助。1.版本环境介绍Window 10vs 2017python3.7cuda 10.0cudnn 7.6.5pytorch 1.8.0torchvision 0.9.0mmcv-full 1.3.8项目源码下mmdet 2.11.02.mmcv-full这里需要先安装好pytorch与vs 2017,并将vs 2017的cl.exe添加环境变量;#####

2021-06-29 22:10:52 3710 3

原创 Jetson Nano (九) 深度学习docker环境

TensorFlow PyTorch Docker环境文章目录一.软硬件版本二.Nvidia Containers三.使用docker简单部署一个python脚本需要在原生系统下安装相关环境的参见:Jetson Nano ( 二)TensorFlow PyTorch 及“annconda”的安装配置一.软硬件版本注:docker与nvidia-docker已默认安装在系统中无需另安装。Jetson Nano 4GJP 4.4.1CUDA 10.2CUDNN 8.0TensorRT

2021-05-26 19:27:12 2741

原创 医用防护服及七步洗手法数据

医用防护服数据格式:VOC 格式label:hatwash_handsmaskclothesshoesgloveseye_protector共计649张图片,已标注。数据下载链接:https://aistudio.baidu.com/aistudio/datasetdetail/81441

2021-04-16 10:27:12 355

原创 Jetson Nano (八) PaddlePaddle 环境配置 PaddleHub—OCR测试

Jetson Nano PaddlePaddle 环境配置文章目录1.软硬件版本2.安装NCLL23.安装Paddlepaddle-gpu参考1.软硬件版本Jetson Nano 4GJP 4.4.1CUDA 10.2CUDNN 8.0TensorRT 7.1.3.02.安装NCLL2git clone https://github.com/NVIDIA/nccl.git cd nccl make -j4 sudo make install 此步编译过程

2021-03-08 17:28:54 4059 9

原创 【飞桨】【图像分类】【PaddlePaddle】opencv 常用图像增强

opencv 常用图像增强方法图像分类零基础训练营 (课程链接)https://aistudio.baidu.com/aistudio/course/introduce/11939?directly=1&shared=1文章目录1.显示2.缩放3.翻转4.图片旋转5.亮度调节6.随机裁剪7.加入噪点8.拼接1.显示import cv2import numpy as npfrom matplotlib import pyplot as plt%matplotlib inline

2021-03-04 14:50:54 783 2

原创 Jetson Nano( 七)Deepstream yolov4

Jetson Nano( 八)Transfer Learning Toolkit (TLT)

2021-03-04 10:19:54 1011 1

原创 地平线 旭日X3 SDB开发板 (四) yolov3自训练模型板上运行流程记录

onnx 1.5Opset 10自己的模型7个类,416*416拷贝yolov3重命名下onnx模型拷贝至:horizon_x3_tc_1.1.17e/samples/01_common/modelzoo/mapper/detection/yolov3/检查模型cd 04_yolov3_01/mapper按照yolov5使用onnx模型的案例的样子,修改01_chack修改yolov3_config.yaml配置文件这里只修改模型路径和模型类型sh 01_check.sh

2020-12-17 10:29:53 2612 15

原创 地平线 旭日X3 SDB开发板 (三) 工具链仿真/板上测试

文章目录一.检查模型二.校准三.build runtime模型四.runtime运行(仿真)五.结语六.参考目前tensorflow,pytorch首先需要将自己的模型转为onnx模型,再使用工具链条转换模型; caffe可直接使用工具链转换,目前Onnx支持的版本为opset10。本文选择yolov2案例,官方已在工具链中提供yolov2的caffe模型,可直接运行测试。一.检查模型进入示例脚本放置的文件夹cd samples/04_detection/01_yolov2/mapper

2020-12-07 16:15:54 1645 9

原创 地平线 旭日X3 SDB开发板 (二) 浮点转换工具链Ubuntu安装 问题记录

以前是用的docker版本的工具,用起来感觉比较麻烦,这次重新本地安装下工具。系统:ubuntu 18.04浮点转换工具版本:1.1.17注意细节:1.Ubuntu下的sh命令默认使用 dash , 而发布包脚本均需使用 bash 执行, 可使用 sudo dpkg-reconfigure dash 命令选择NO 。2.系统默认python切换为python3(这里应该需要python3.6,不是3.6版本的同学先自行安装下)sudo update-alternatives --install

2020-12-04 16:41:47 914

原创 地平线 旭日X3 SDB开发板 (一) 环境及案例运行记录

文章目录系统镜像烧录细节注意AI Express运行细节注意Demo结语参考流程相对复杂,这里只写一点容易出错的地点。系统镜像烧录细节注意1.板子内存型号2.烧录工具选择板子型号(产品名称:xj3_sdb 模式uboot)3.串口线序4.IP需要修改相同网段5.烧录全过程中什么时间节点断电具体流程参照官网教程:https://developer.horizon.ai/forum/id=5f156192740aaf0beb3119ddAI Express运行细节注意1.板子上所

2020-12-03 15:46:39 3701 3

原创 Jetson Nano( 六)Deepstream5.0环境安装

Jetson Nano 下安装Deepstream文章目录软硬件版本安装依赖官网下载对应安装包查看deepstearm安装情况参考软硬件版本Jetson Nano 4GJP 4.4.1CUDA 10.2TensorRT 7.1.3.0由官网查得系统为JP4.4对应的deepstream版本为5.0。https://developer.nvidia.com/zh-cn/embedded/jetpack安装依赖sudo apt-get install libssl1.0.0 libgs

2020-11-26 15:41:03 3629 4

原创 Jetson Nano( 五) TensorRT yolov4 yolov4-tiny yolov5 实测

TensorRT yolov4 yolov4-tiny yolov5软硬件环境:Jetson Nano 4G JP 4.4.1 CUDA 10.2 TensorRT 7.1.3.0Pytorch 1.6.0参考大佬项目:https://github.com/enazoe/yolo-tensorrt作者封装了模型的转换https://github.com/wang-xinyu/tensorrtxhttps://github.com/jkjung-avt/tens

2020-11-26 14:20:38 6258 14

原创 OpenVINO 在 I7-10750H YOLOv3 YOLOv4-tiny YOLOv5s 运行速度记录

首先介绍下软硬件版本配置:OpenVINO 2020.4版本CPU :Intel® Core™ i7-10750H CPU @ 2.60GHzGPU:Intel® UHD Graphics 驱动:27.20.100.8783模型:Darknet YOLOv3 和 YOLOv4-tiny模型转换流程:Darknet→TensorFlow→OpenVINO一. YOLOv3CPU推理速度:硬件:Intel(R) Core(TM) i7-10750H CPU @ 2.60GHz模型:

2020-11-17 16:40:04 3017 2

原创 VS2019 OpenCV 4.4 CUDA10.0 编译中的坑

WIN10 VS2019编译OpenCV 4.4 + CUDA10.0 遇到的坑。大体步骤网上很多细节不写了,主要写下其中遇到的几个坑。一.CUDA_ARCH_BIN一定填写修改 CUDA_ARCH_BIN 的值(显卡算力值*10),否则编译成功后运行也会出错。下面是官网提供算力表,截了一部分,没有合适自己的显卡可以官网查。https://developer.nvidia.com/zh-cn/cuda-gpus二. VS与CUDA的对应关系CUDA源码中会对VS版本做一些限制,就像本

2020-11-16 14:32:34 2281 6

原创 云芯一号(rk3399) 配置流程( 三)

云芯一号试用 (三)人脸识别板上运行实测。准备用云芯一号做个类似人脸考勤的服务器项目;主要步骤为:人脸检测+人脸识别;目前先使用的facenet硬件资源占用较大,再使用face_recognition库,看看板子能否跑的起来并对比一下速度。一.项目环境参照我之前2篇的python环境配置把主要的tensorflow,keras库安装完成基本就差不多了,运行中可能会遇到缺少库,直接pip安装即可。云芯一号试用 python环境配置(一)https://aijishu.com/a/106000000

2020-10-26 15:52:48 256

原创 云芯一号(rk3399) 配置流程( 二)

云芯一号(rk3399) (二)python计算库环境配置本文介绍 云芯一号(rk3399) 微型服务器的python环境配置一些记录。本Arm服务器算力不是很高主要面向服务类应用,但是可以跑一些简单的模型结合到服务应用方面,比如作为考勤服务器,视频流服务器等应用,可能需要一些基本计算库和常用深度学习框架。opencv,tensorflow,pytorch的安装这里opencv不需要使用dnn模块,采用apt形式安装安装版本为3.2,如需要安装高版本需要源码编译。.这里引用大佬编译Opencv

2020-10-16 16:29:11 512

原创 云芯一号(rk3399) 配置流程( 一)

云芯一号(rk3399) (一)python环境配置本文介绍 云芯一号(rk3399) 微型服务器的python环境配置一些记录。1.apt换国内源备份存nano源原文件sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak编辑该文件sudo vi /etc/apt/sources.list删除原本内容,添加以下内容#拷贝到文件中deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-port

2020-09-09 22:44:41 309

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除