部署
部署
kui9702
这个作者很懒,什么都没留下…
展开
-
ncnn初探
1、训练代码# 训练我家小喵咪nora的照片# 用的是yolov5 v6.1版本的ghost网络-->/models/hub/yolov5s-ghost.yaml# 训练请自己百度哈哈2、导出onnx#在yolov5修改export.py,导出onnx模型,修改要添加模型为训练模式 即model.train()3、onnx转换为onnx-sim# 安装onnx-simpliferpip install onnx-simpliferpython -m onnxsim yolov5原创 2022-05-12 15:41:56 · 1594 阅读 · 0 评论 -
wsl2 安装指南
先给ubuntu 20.04安装一个gui界面 这边采用的是远程连接参考连接https://zhuanlan.zhihu.com/p/149501381先给ubuntu更新密码 我的是第一次安装,所以直接设置新密码即可root@KILE:~# passwdNew password:Retype new password:passwd: password updated successfully输入2次密码即可 如果忘记了 请自行百度安装所需的两个文件包$ sudo apt .原创 2021-12-07 09:57:48 · 188 阅读 · 0 评论 -
Jni调用so动态库
linux JNI调用so库(只是单纯记录步骤)GenerateHeader$JDKPath$\bin\javah-classpath $OutputPath$ -d ./jni $FileClass$$ProjectFileDir$先写java测试用例public class JniTest { static { //这个加载绝对路径动态库 System.load("/home/mozhe/java_c/jni/jniSurf/JniTest.so原创 2021-06-15 17:27:17 · 2106 阅读 · 2 评论 -
tensorrt_python_api 加速推理
TensorRT前言 TensorRT是nvidia官方开源的加速推理框架,适用于流行的深度学习框架:pytorch、tensorflow、Caffe等。TensorRT(下面简称trt)需要与nvidia提供的显卡一起使用,没有nvidia的cuda无法使用。 提高部署推理的方法有2种,一种是训练过程中需要进行优化加速的,比如模型压缩、模型剪枝、量化、知识蒸馏,另外一种是训练完成后通过优化计算图结构,比如torch script、tf lite、trt、onnx等。本章根据上一章的内容原创 2022-03-18 00:11:18 · 1894 阅读 · 6 评论 -
ncnn_pnnx初探
1、训练代码# 训练我家小喵咪nora的照片# 用的是yolov5 v6.1版本的ghost网络-->/models/hub/yolov5s-ghost.yaml# 训练请自己百度哈哈2、导出torchscript#在yolov5修改export.py,导出torchscript模型,修改要添加模型为训练模式 即model.train()3、下载pnnx或者自己编译pnnx这里我在window下测试了,一个是直接下载编译好的pnnx.exe,另外一个是下载官网源码,参考:https原创 2022-05-12 15:43:18 · 1008 阅读 · 0 评论 -
升级gcc8.2.0 新增降级为gcc4.8.5
升级GCC以及GLIBC版本 gcc升级到8.2.0# 下载网址为 https://ftp.gnu.org/gnu# 安装wget(已经是root)yum install wget -y# 安装make[root@localhost root]# cd /home[root@localhost home]# mkdir make[root@localhost make]# wget https://ftp.gnu.org/gnu/make/make-4.3.tar.gz[root@lo原创 2021-07-17 12:21:29 · 1289 阅读 · 0 评论 -
tensorrt centos linux 安装
TensorRT安装TensorRT:https://developer.nvidia.cn/nvidia-tensorrt-download tensorrt下载网址下载并解压tar.gz[root@localhost data]# tar -zvxf TensorRT-8.4.0.6.Linux.x86_64-gnu.cuda-11.6.cudnn8.3.tar.gz 在/etc/profile加入环境变量[root@localhost python]# vim /etc/pr原创 2022-03-17 22:57:05 · 2434 阅读 · 0 评论 -
tesnortt_c++
tensorrt_c++_api 加速推理上一篇写了tensorrt python 加速,这一篇是关于c++版本的加速,但是由于在预处理没有找到c++ PIL的实现,在精度上复现不了python版本,并且速度也没有python的快,但是将模型做成服务的话,由于python的并发没有c++版本的快,所以在部署时还是使用c++更合适#pragma once#include <iostream>#include <fstream>#include <sstream>原创 2022-03-27 22:17:00 · 1820 阅读 · 0 评论