环境部署
文章平均质量分 71
麻花地
这个作者很懒,什么都没留下…
展开
-
Paddle 模型转 TensorRT加速模型
NVIDIA TensorRT 是一个高性能的深度学习预测库,可为深度学习推理应用程序提供低延迟和高吞吐量。。在这篇文章中,我们会介绍如何使用Paddle-TRT子图加速预测。当模型加载后,神经网络可以表示为由变量和运算节点组成的计算图。如果我们打开TRT子图模式,,Paddle会对模型图进行分析同时使用TensorRT。在模型的。TensorRT除了有常见的OP融合以及显存/内存优化外,还针对性的对OP进行了优化加速实现,降低预测延迟,提升推理吞吐。原创 2023-05-23 15:35:16 · 2270 阅读 · 2 评论 -
Pytorch模型转TensorRT步骤
pytorch模型使用tensorRT加速原创 2023-03-14 16:11:24 · 1880 阅读 · 0 评论 -
神经网络量化硬件实现
各种算子的硬件量化原创 2023-01-18 21:43:46 · 480 阅读 · 0 评论 -
神经网络部署
神经网络部署原创 2023-01-16 20:54:59 · 303 阅读 · 2 评论 -
TensorRT部署神经网络
大佬的TensorRT讲解记录一下优化前优化后融图,多余的kernal去除 速度更快代码TensorRT 后训练量化(PPQ)Quant with TensorRT OnnxParserQuant with TensorRT API原创 2023-01-16 20:14:35 · 296 阅读 · 0 评论 -
python打包exe文件步骤及遇到的问题
python打包exe文件步骤及遇到的问题Pyinstaller使用及问题记录安装Pyinstaller在python环境下安装pyinstaller,直接安装pip install pyinstaller如果网不好或者下载安装时间太慢,可以使用下面阿里镜像加速pip3 install pyinstaller -i http://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com安装成功pyinstaller使原创 2022-03-14 21:13:11 · 3080 阅读 · 0 评论 -
TensorFlow-GPU版本的安装
TensorFlow可以同时支持CPU和GPU上运行,CPU版本具有很强的通用性,它对硬件的要求不高、安装方便,适合刚接触深度学习的开发者,但是它的数据处理效果没有GPU版本好。GPU版本面向的是大规模无相互联系的数据,具有更大的计算量和吞吐量,所以更多专业深度学习开发者或公司都会选择使用GPU版本。下面进行TensorFlow-GPU版本的Windows和Linux环境的安装介绍。需要安装的软件...原创 2021-07-12 15:45:10 · 757 阅读 · 0 评论 -
使用docker部署Jenkins
使用docker下载Jenkinsdocker pull jenkins/jenkins运行Jenkinsdocker run -d -p 80:8080 -p 50000:50000 -v jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkinsjenkins/jenkins在浏览器输入...原创 2019-08-29 18:25:05 · 215 阅读 · 0 评论 -
基于docker的Mongodb部署文档 文件映射方式
Mongodb异地部署(本地读写)分片作用:l 复制所有的写入操作到主节点l 延迟的敏感数据会在主节点查询l 单个副本集限制在12个节点l 当请求量巨大时会出现内存不足。l 本地磁盘不足l 垂直扩展价格昂贵MongoDB副本集:搭配方式使用一主多从模式一个分片内有一个主节点和多个从节点,数据写入通过mongos(路由)访问主节点并写入,且只能通过主节点...原创 2019-10-04 17:20:37 · 2967 阅读 · 0 评论