模型部署之转换-加速-封装
文章平均质量分 83
模型部署之转换-加速-封装 | 粗浅记录
墨理学AI
计算机视觉领域,新晋砖家 ☞
未来可期,欢迎和墨理一起学 AI 》 博主创建了很多CV领域的技术Club,欢迎主页左侧下方,Contact my WeChat;
展开
-
深度学习模型训练推理——基础环境搭建推荐博文查阅顺序【基础安装—认真帮大家整理了】——【专栏博文推荐学习顺序】
众多类别深度学习环境搭建、模型训练、论文代码测试、模型部署、基础教程,持续更新,保质保量,欢迎查阅;作为全网干货最多的博主之一,不负光阴不负卿 ;原创 2021-10-24 16:45:50 · 13476 阅读 · 3 评论 -
AI 浪潮之下 全站攻城狮,它来了 |【AI研究园】
AI 浪潮之下 全站攻城狮 |【模型部署】略略略,最近在CSDN社区,创建了一个社区,她的名字是:modelDeploy【模型部署】欢迎有兴致入坑该领域的同志,一起到社区摸鱼划水呀人多力量大,恭候各位大佬CSDN – 模型部署社区模型部署 – 社区 – 欢迎 各位少侠入坑社区文化学术交流,取经炼胆坎坷平淡,繁华初心划水摸鱼,躺平码字文明发言,永不贴脸社区配置社区初心就是玩儿警上发言永不退水Winter is comingAI 领.原创 2021-08-24 22:41:33 · 268 阅读 · 0 评论 -
查看CPU核数、内存使用情况【一文读懂】
最近在折腾openvino部署方法,需要分析基础CPU资源占用情况发现之前对基础top命令的使用处在初级阶段,趁着这次机会,对该命令进行了深入的学习避免重复搬砖、本博文主要是起到一个知识点汇总的作用前些年互联网知识、核心技术点分享有限、当前内卷逐步加速的大环境下,只要你愿意用心思、花时间总能找到靠谱、易于理解的教程文章、不论是躺平还是内卷、我们大多数普通人,不过是被时代裹挟前行的凡尘祝愿,读者粉丝、心眼明亮、活得通透。原创 2022-10-13 22:53:20 · 12985 阅读 · 2 评论 -
openvino API 2.0 与之前版本API差异对比
openvino API 2.0 和之前 版本差异较大,本博文属于官方文档的Python版本代码摘录,方便部分官网网络不可达的同学查阅,有个基本了解原创 2022-08-27 23:31:13 · 1151 阅读 · 0 评论 -
Ubuntu20安装并配置OpenVINO【图文教程】
Ubuntu20安装并配置OpenVINO【详细图文教程】,Install OpenVINO;随着AI技术等对应用开发和功能实现的影响越来越大,这也就要求相关企业具备更强的AI开发能力,从数据收集、数据预处理、数据标注、模型训练、模型评估和模型部署等一系列任务,无一不考验着企业的AI模型精度和AI推理速度、AI 算力资源等AI开发、落地能力。原创 2022-05-18 20:21:25 · 6756 阅读 · 13 评论 -
英特尔OpenVINO工具套件快速构建一款AI应用之课程体验
英特尔OpenVINO工具套件快速构建一款AI应用之课程体验、笔记总结原创 2022-02-20 13:37:28 · 2329 阅读 · 12 评论 -
yolov3 darknet 转 TVM 推理输出、一文读懂
yolov3 darknet 转 TVM Python 推理,附仓库可运行代码;该代码支持 YOLO-V2 and YOLO-V3 DarkNet Models 转 TVM 推理输出;1. 模型下载【代码自动下载、网速不佳、也可手动下载】2. 模型转换【DarkNet Models 转 TVM 】3. 模型推理【TVM 推理示例】原创 2022-01-08 10:12:39 · 6209 阅读 · 5 评论 -
心心念的 AI 研究园,它来了——CSDN - AI 研究院社区,欢迎入炕
略略略,最近在CSDN社区,创建了一个社区,她的名字是: AI 研究院 【欢迎入坑取暖】原创 2021-10-11 19:00:00 · 561 阅读 · 0 评论 -
cudnn tar 安装包快速获取 | 云盘分享 |【cudnn安装包】
cudnn 下载;Cudnn 各个版本安装包——云盘分享 ;个人整理的Cuda系列Linux安装学习教程;原创 2021-08-28 15:52:52 · 1656 阅读 · 0 评论 -
优秀开源产品推荐:Ncnn —— GitHub上不去的小伙伴舒服了
优秀开源产品推荐:Ncnn;C站开源代码库丰富起来,GitHub上不去的小伙伴舒服了;高性能神经网络推理框架 ncnn 快速学习有效教程推荐;原创 2021-12-06 15:49:59 · 5116 阅读 · 20 评论 -
一文读懂 Linux 服务器 JDK1.8 和 GCC 7.5 解压、编译安装、环境变量配置 —— Just for 当前用户
为什么要给自己的用户安装 JDK 呢;昂,在生产中,如果一台服务器不止你一个人在用,那么你就会懂得,很多环境和库只自己安装自己用,真的能够解决很多问题原创 2021-11-26 14:39:33 · 4968 阅读 · 12 评论 -
不同检测模型预处理中的归一化操作对比 | YOLO 系列 | 【归一化操作归纳整理】
不同【检测模型】预处理中的归一化操作对比# 如下归一化的模型有:yolov2 const float mean_vals[3] = {1.0f, 1.0f, 1.0f}; const float norm_vals[3] = {0.007843f, 0.007843f, 0.007843f};yolov3 const float mean_vals[3] = {127.5f, 127.5f, 127.5f}; const float norm_vals[.原创 2021-08-11 16:52:25 · 1907 阅读 · 1 评论 -
ubuntu18给当前用户安装cuda11.2 图文教程 、 配置cuDNN8.1 ——【一文读懂】
之前的一篇 Cuda10 安装博文Linux服务器下给当前用户安装自己的CUDA | Cuda10.0 安装cuda11.2的原因原因基础条件# 服务器当前,Cuda内核版本足够高,使得普通用户能够安装自己的 CUDA Version: 11.2.0 nvidia-smi NVIDIA-SMI 460.80 Driver Version: 460.80 CUDA Version: 11.2 为什么写了该博文当前的Cuda在Linux服.原创 2021-06-21 14:55:17 · 3449 阅读 · 6 评论 -
NVIDIA TensorRT安装包下载分享—— 云盘分享 【TensorRT安装】
NVIDIA TensorRT 各个版本安装包下载分享;TensorRT解压安装, 环境变量配置原创 2021-08-28 12:32:11 · 9258 阅读 · 8 评论 -
Pytorch0.4.0环境搭建之详细教程——查看当前 Cuda—Cudnn 版本
???? 版权: 本文由【墨理】原创、在CSDN首发、保质保量❤️ 如果文章对你有帮助、欢迎一键三连文章目录???? 基础信息???? 查看系统信息???? 查看当前 Cuda 版本???? 查看当前 Cudnn 版本???? 开始搭建 pytorch=0.4.0 环境???? 第一步 Conda 创建环境 torch04???? 第二步:安装 pytorch=0.4.0???? 第三步:安装 其它依赖库???? 其它版本 Pytorch 安装???????? 文末专栏推荐 ????????❤️ 人生原创 2021-11-09 11:14:52 · 2082 阅读 · 1 评论 -
VSCode远程连接Linux服务器进行开发调试 — C++远程调试—Python远程调试——【VSCode 神器 ,你值得拥有】
本博文,主要是对 VSCode 远程连接 Linux 服务器 使用过程 进行 简记文章目录VSCode Remote SSH配置 请直接参考如下博文即可【不做重复搬砖】使用过程记录C++ debug 运行效果python debug 运行效果Vscode 远程 服务器 优点总结VSCode Remote SSH配置 请直接参考如下博文即可【不做重复搬砖】总结下来,主..原创 2021-07-19 18:15:40 · 1304 阅读 · 9 评论 -
模型网络结构可视化之netron | 【Netron】
模型网络结构可视化之 netronGitHub 链接如下https://github.com/lutzroeder/netron网页版工具直接拖拽使用地址https://netron.app/支持客户端和网页操作网页版ONNX模型可视化测试https://netron.app/操作如下可视化效果如下...原创 2021-06-17 16:29:56 · 423 阅读 · 0 评论 -
Linux服务器下给当前用户安装自己的CUDA、CUDA 还是自己的好用 【有效安装教程】
1:官网下载地址 2:进行安装《cuda_10.0.130_410.48_linux.run》的属性进行修改为可执行;chmod 755 cuda_10.0.130_410.48_linux.run不要使用 sudo 进行安装 sh cuda_10.0.130_410.48_linux.run过程如下,按空格读完协议,进行如下图的操作:3:环境变量的配置cd /home/zengqlvim .bashrc在最下方添加刚刚安装cuda的路径:---export PATH=原创 2020-07-16 16:37:49 · 8751 阅读 · 8 评论 -
初识ONNX | 【ONNX - Python 安装】
初识 ONNX、ONNX is an open format built to represent machine learning models. ONNX defines a common set of operators - the building blocks of machine learning and deep learning models - and a common file format to e原创 2021-09-28 11:52:35 · 2103 阅读 · 0 评论 -
模型推理框架一览——模型部署不得不了解的罗马【一文读懂】
NVIDIA TensorRT™ 是用于高性能深度学习推理的 SDK;Intel的OpenVINO 可以轻松的将预训练模型在Intel的CPU上快速部署起来;原创 2021-08-30 12:10:22 · 1941 阅读 · 0 评论 -
模型转换之【MXNet 转 ONNX】—— 笔记
文章目录MXNet 安装MXNet 转 ONNX简单分析MXNet 安装MXNet 主页安装教程nvcc --version 查看自己所使用的 Cuda 版本nvcc -Vnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2020 NVIDIA CorporationBuilt on Mon_Nov_30_19:08:53_PST_2020Cuda compilation tools, release 1原创 2021-08-03 11:25:13 · 762 阅读 · 0 评论 -
初识深度学习推理框架 | 简记
ncnn MNN tvmncnn is a high-performance neural network inference framework optimized for the mobile platformMNN is a blazing fast, lightweight deep learning framework, battle-tested by business-critical use cases in Alibabahttps://github.com/apa.原创 2021-06-17 21:17:55 · 1083 阅读 · 0 评论 -
Linux 下 MNN编译 | 安装 | 测试
系统环境: Ubuntu 18.04.5中文文档 – https://www.yuque.com/mnn/cn/cvrt_linux_mac首先安装 protobufgit clone https://github.com/google/protobuf.gitcd protobufgit submodule update --init --recursive./autogen.sh./configure或者 指定 安装目录 (个人用户要指定到 /home/当前用户名/us.原创 2021-03-24 16:00:38 · 1966 阅读 · 9 评论