部署
文章平均质量分 77
【网络星空】
人工智能图像领域算法研发,实时发布行业最新技术,希望大家白嫖愉快。
展开
-
【PyTorch量化实践(2)】
翻译来源https://pytorch.org/blog/quantization-in-practice/量化是一种廉价而简单的方法,可以使深度神经网络模型运行得更快,并具有更低的内存需求。PyTorch提供了几种量化模型的不同方法。在这篇博客文章中,我们将(快速)为深度学习中的量化奠定基础,然后看看每种技术在实践中是怎样的。最后,我们将以文献中关于在工作流程中使用量化的建议作为结束。PyTorch允许使用几种不同的方法来量化模型:FX Graph模式自动融合符合条件的模块,插入Quant/DeQuant原创 2022-07-10 21:42:55 · 592 阅读 · 0 评论 -
【PyTorch量化实践(1)】
翻译来源https://pytorch.org/blog/quantization-in-practice/量化是一种廉价而简单的方法,可以使深度神经网络模型运行得更快,并具有更低的内存需求。PyTorch提供了几种量化模型的不同方法。在这篇博客文章中,我们将(快速)为深度学习中的量化奠定基础,然后看看每种技术在实践中是怎样的。最后,我们将以文献中关于在工作流程中使用量化的建议作为结束。量化本质是信息压缩,在深度网络中,它指的是降低其权重和/或激活的数值精度。过度参数化的深度神经网络(DNN)有更多的自由度原创 2022-07-10 21:31:53 · 660 阅读 · 0 评论 -
【pytorch 模型量化方法总结】
后端:x86、arm移动嵌入式平台;对应参数:‘fbgemm’ 、 ‘qnnpack’命令行:torch.quantization.get_default_qconfig(‘fbgemm’)1.动态量化代码示例:适用于 Linear、LSTM、RNN等层;权重直接量化;bias和激活函数 在推理过程中动态量化;2.静态量化示例:1.静态量化需要在模型起始和结束位置定义quant和dequant接口;2.配置好后端3.融合的层声明;一般是conv+relu;或者是conv+bn+relu;3.准备量化4.原创 2022-07-10 00:10:34 · 1009 阅读 · 0 评论 -
【基于yolov5的图像识别】
任务完成人脸检测案例实践(这个是参考示例算法,请大家自行选择识别算法框架)Yolov5官网路径如下:https://github.com/ultralytics/yolov5参考第一个例子,下载安装所需库:https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data下载地址:https://github.com/ultralytics/yolov5/releasesyolov5共有四种模型:yolov5s、yolov5m、yolov5l、y原创 2022-07-10 00:04:50 · 1840 阅读 · 0 评论 -
【Python中的XOR异或符号^运用】
为什么会得到这样的结果呢?其实这里面经历了几次计算:2.^ 符号的作用是将两数字相同位置但是数值不同的值变为1,即经过^计算获得字符串‘ob1101110’3.随后将二进制的‘ob1101110’转化为十进制的值即为:110以上就是^的计算过程。可以对list中的值进行累计XOR运算,获得唯一值2.计算汉明距离(461. Hamming Distance)这道题总觉得题设描述的不太清楚,建议看一下百度关于汉明距离的解释...原创 2022-07-09 23:43:42 · 3394 阅读 · 0 评论 -
【边缘部署 AI】
最近在人工智能(AI)、边缘计算和物联网设备的采用等方面取得了长足的进步,这些都汇集在一起为边缘AI带来了机遇。这为以前无法想象的边缘AI开辟了新的机会——从帮助放射科医生识别疾病,到在高速公路上驾驶汽车,再到帮助我们为植物授粉。被无数分析师和企业谈论和实施的边缘计算,其起源可以追溯到20世纪90年代,当时创建了内容交付网络,以从部署在用户附近的边缘服务器提供Web和视频内容。今天,几乎每个企业都有可以从采用边缘AI中受益的工作职能。事实上,边缘应用正在推动下一波人工智能浪潮,以改善我们在家庭、工作、学校和原创 2022-07-09 23:29:27 · 1248 阅读 · 0 评论 -
【Atlas快速入门】
之前的公司在数据中台的项目上调研决定启用了Atlas作为我们数据血缘管理的工具,让我给大家写了一份Atlas快速入门的文档,所以在这里我将这篇文档以一个纯新手视角的方式再一次优化,希望能够帮助大家更好的快速上手使用Atlas。Atlas为组织提供了开放的元数据管理和治理功能,以建立其数据资产的目录,对这些资产进行分类和治理,并为数据科学家,分析师和数据治理团队提供围绕这些数据资产的协作功能。而如果想要对这些数据做好管理,光用文字、文档等东西是不够的,必须用图,Atlas就是把元数据变成图的工具。说明元数据原创 2022-07-09 23:21:49 · 739 阅读 · 0 评论 -
【华为Atlas人工智能计算平台概述】
人工智能的四大要素:数据、算力、算法、场景AI芯片: 也被称为AI加速器,即专门用于处理人工智能应用中的大量计算任务的功能模块。从技术架构来看,大致分为四个类型:CPU、GPU、ASIC、FPGA。之前的博客中都有提到,这里不做介绍。从业务应用来看,可以分为Training(训练)和Inference(推理)两个类型:训练环节通常需要通过大量的数据输入,或者采取增强学习等非监督学习方法,训练出复杂的深度神经网络模型,训练过程中,涉及到海量的训练数据和复杂的深度神经网络结构,运算量巨大,需要庞大的计算规模,对原创 2022-07-09 23:06:02 · 3517 阅读 · 0 评论 -
【一键Pip下载安装使用YOLO系列目标检测算法,YOLOv7都能Pip ! ! !】
一键Pip下载安装使用YOLO系列目标检测算法,YOLOv7都能Pip ! ! !今天在浏览器中闲逛,无意中发现,为了方便使用YOLO目标检测算法的快捷使用,有网友已经将其做成了Python的外接工具库,提交到了官方的索引库 pypi 上。现在已经有关于YOLO的各个版本库都已经发布,这意味着我们可以直接使用 pip 一键进行安装,然后导入包,进行方法调用就可以了,真的是太方便了。就是没有源代码,不好进行模型修改和训练了。不知不觉,YOLOv7都出来了,我记得前段时间美团刚出来YOLOv6,不知道怎原创 2022-07-09 22:36:27 · 598 阅读 · 0 评论 -
【ubuntu 18.04 安装、配置TensorRT环境】
官网https://developer.nvidia.com/tensorrt下载对应版本的TensorRT(示例为 cuda 10.0 cudnn 7.6),需注册账号、填写问卷调查方可下载。TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz解压至本地,设置添加至环境变量安装tensorrt根据你的版本安装合适的包安装uff和graphsurgeonxxx\TensorRT-7.0.0.11\下有uff和gr原创 2022-06-13 14:54:23 · 1919 阅读 · 0 评论 -
【Docker容器中安装TensorRT8.0.0.3以及onnx2trt】
Docker容器内部构建tensorRT过程\记录一下自己的实现过程。记录一下自己在的实现过程。配置好的镜像已经上传到了dockerhub。可以直接拉取就不用配置了。基于:platform_pytorch:1.5_py37_v2.0 (或者dockerhub上的其他基础镜像)以及在Dockefile里面写了一些基础的依赖包的版本通过挂载的方式进行创建一个容器,指令如下nvidia-docker run --shm-size 12G -it --rm -v /balbala/xiaomoxian/liuy原创 2022-06-13 13:51:28 · 693 阅读 · 0 评论 -
【在Docker中部署Tensorrt环境】
首先安装docker拉取一个镜像,包含nvidia,cuda cudnn基本环境若docker pull 有点慢可以加速一下操作如下:启动容器,进入镜像去nvidai 官网下载tensorrt点击立即下载点击TensorRT8点击TensorRT8.2GA Update 4选择第一个TAR那个包下载进入docker对docker环境进行配置安装依赖安装python3环境对pip3进行切换国内源解压下载好的tensorrt包安装tensorrt验证tensorrt接口...原创 2022-06-13 13:32:49 · 630 阅读 · 0 评论 -
【使用TensorRT通过ONNX部署Pytorch项目】
TensorRT 的安装介绍可根据博文TensorRT安装及使用教程和windows安装tensorrt了解。基于ONNX路线,调用C++、Python接口后交给Builder,最后生成引擎。简单写了一个例子:用netron导入生成的onnx文件,可在线查看网络结构和参数:首先将tensorRT路径下的include内的文件拷贝到cuda对应的include文件夹下,lib文件夹内的lib文件和dll文件分别拷贝到cuda对应的lib/x64文件夹下和bin文件夹下。再配置VS环境,这里给出需要配置清原创 2022-06-13 12:45:44 · 627 阅读 · 1 评论 -
【Windows C++ yolov->ONNX->TensoRT (ResNet、FCN)】
文章目录前言一、yolov5->ONNX二、TensorRT简介1、TensorRT工作原理2、trt模型是什么?3、Host、Buffer、CUDA数据如何通信?三、代码1、ONNX->模型二进制数据流(IHostmemory) ,序列化2、如何保存和读取trt模型?1、保存2、读取3、模型二进制数据流(IHostmemory) ->engine,反序列化4、推理1、构建context2、初始化Buffer和Host空间3、输入图像处理4、数据拷贝和执行推理5、后处理四、结果前言本原创 2022-05-15 17:42:03 · 168 阅读 · 0 评论 -
基于opencv dnn模块的yolov5部署
文章目录opencv dnn模块的使用输出层数据处理后处理(非极大值抑制&画框)这边文章将介绍基于dnn模块的yolov5 onnx模型的部署 包括读取模型和数据处理和后处理先给出整个项目的源码yolov5版本为4.0opencv 为 4.5.2使用的模型是自己训练的 类别数为5的模型不同的版本此源码可能会报错 由于opencv版本报错解决办法部署需要一些yolov5的基本知识支持 网上比比皆是opencv dnn模块的使用这里并不详细介绍 这里给出一篇详细的dnn模块的使用原创 2022-05-15 15:10:23 · 501 阅读 · 0 评论 -
【YOLOv5 OpenCV DNN C++对导出的ONNX模型进行推理】
文章目录1、环境2、Running the python script3、Running the C++ program1、环境Make sure you have already on your system:Any modern Linux OS (tested on Ubuntu 20.04)OpenCV 4.5.4+Python 3.7+ (only if you are intended to run the python program)GCC 9.0+ (only if you原创 2022-05-15 15:00:59 · 673 阅读 · 0 评论 -
【C++ YOLOV5 OpenCV DNN onnx模型实时推理部署】
文章目录对YOLOV5官网推荐的DNN(C++版)推理代码的学习心得。代码上传至GitHub - zzbbzz626/yolov5-DNN-inferenceContribute to zzbbzz626/yolov5-DNN-inference development by creating an account on GitHub.https://github.com/zzbbzz626/yolov5-DNN-inferenceOpenCV version >= 4.5YOLO检原创 2022-05-15 14:56:57 · 1589 阅读 · 0 评论