自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 资源 (2)
  • 问答 (3)
  • 收藏
  • 关注

原创 剪枝蒸馏使用文档

如果如只蒸馏 不剪枝, 就运行。如果是剪枝后的模型,就运行。蒸馏只需要蒸馏训练就行。

2023-04-03 19:44:35 182

原创 yolov5导出onnx转ncnn部署到android

yolov5 到处onnx转ncnn 部署到android

2022-06-18 10:40:33 2674

原创 yolov5训练voc数据集

1.数据集下载好voc数据集,以2007为例,把数据集(VOCtrainval_06-Nov-2007和VOCtest_06-Nov-2007)都解压同一个文件夹里,记住解压后的图片是从000001.jpg-009963.jpd的。在VOCdevkit/目录下 运行voc2yolo.py代码import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path imp

2022-05-12 09:57:43 2597

原创 Springer期刊latex投稿需要上传的文件

期刊返回修改意见经过修改后不能继续用pdf返修了,需要上传源文件,于是第一次上传latex文件,把我压缩包里全部的文件都上传上去了,结果报错了,还是30页的错误,我看了一下也不是很明白,于是一直百度搜索,最后终于解决。以下为上传内容!如果反复报错,可上传一次从期刊下载下来的latex模板不要改动内容去尝试,这时一般都是可以成功在期刊的网页里编译成功的。比如某个期刊的文件解压如下本地编译一般只需要 一个 *.tex ,一个*.cls,一个*.bib内容和多个*.eps就可以成功编译,成功编译使用的

2022-05-01 17:07:26 9535 5

原创 C++基础八股

1.1.18 说说const和define的区别。const用于定义常量;而define用于定义宏,而宏也可以用于定义常量。都用于常量定义时,它们的区别有:const生效于编译的阶段;define生效于预处理阶段。const定义的常量,在C语言中是存储在内存中、需要额外的内存空间的;define定义的常量,运行时是直接的操作数,并不会存放在内存中。const定义的常量是带类型的;define定义的常量不带类型。因此define定义的常量不利于类型检.const 定义的常数是变量 也带类型, #

2022-05-01 11:10:48 740

原创 字节与位和有关内存对齐

内存对齐和字节数

2022-04-29 16:29:24 159

原创 Stochastic Model Pruning via Weight Dropping Away and Back

摘要深度神经网络已经在各种具有挑战性的任务中取得了巨大的成功。然而,大多数成功的dnn都具有极其复杂的结构,导致了对模型压缩的广泛研究。传统的渐进性剪枝方法是模型压缩研究的一个重要领域,它涉及到迭代剪枝再训练过程,可能存在两个关键问题:局部重要性判断,剪枝权值在当前模型中仅仅是不重要的;以及一个不可挽回的修剪过程,修剪后的权重没有机会再回来。针对这两个问题,本文提出了Drop Pruning方法,该方法利用剪枝过程中的随机优化,在每个剪枝步骤引入一个Drop策略,即Drop away,随机删除一些不重要的

2021-10-02 11:30:11 134

原创 Rethinking the smaller-norm-less-infromative assumption in channel pruning of convolution layers

摘要模型修剪已经成为一种有用的技术,它提高了深度学习的计算效率,使得在资源有限的场景中部署解决方案成为可能。相关工作中广泛使用的一种做法是,假设一个小的表单参数或特征在推理时发挥的信息作用较小。在本文中,我们提出了一种信道修剪技术来加速深度卷积神经网络的计算,它并不依赖于这个假设。相反,它侧重于直接简化cnn的信道到信道计算图,而不需要执行计算困难且不总是有用的任务,即使有线电视新闻网的高维张量结构化稀疏。我们的方法分两个阶段:首先采用端到端的随机训练方法,最终迫使某些通道的输出保持不变,然后通过调整影响

2021-09-30 09:47:35 200

原创 CCPrune

摘要由于计算量巨大,深度卷积神经网络难以部署在资源受限的设备上。通道剪枝是减少计算量、加速网络推理的有效方法。大多数信道修剪方法使用来自稀疏网络的单个结构(卷积层或批量归一化层)的统计来评估信道的重要性。这些方法的局限性在于,它可能经常错误地删除重要的频道。有鉴于此,我们提出了一种结合卷积层权重和BN层比例因子的信道重要性评估方法——协同信道剪枝。该方法首先分别引入卷积层权重和BN层比例因子的正则化。然后结合卷积层的权重和BN层的比例因子来评估信道的重要性。最后,它可以删除不重要的通道,而不会降低模型的性

2021-09-29 10:57:31 160

原创 HRCP·

摘要近年来,深度学习算法在目标检测任务中表现出显著的性能,并已应用于智能网络车辆和无人机等许多领域。与视频监控等其他领域不同,智能联网车辆和无人机领域只有资源有限的平台,对模型存储和实时推理的要求很高。为了满足这些要求,开发了模型压缩方法来减少模型参数和计算。由于通道剪枝是一种粗粒度的硬件友好的权重剪枝方法,因此被广泛应用于模型压缩。大多数研究只集中在利用批量归一化(BN)层的比例因子来确定是否修剪某个通道。然而,当移位因子的值很大时,它变得非常重要。移位因子大的信道对后续层影响很大。在本文中,我们考虑了

2021-09-29 10:48:43 563

原创 Pycharm使用Anaconda环境找不到torch或者TensorFlow包

Pycharm使用Anaconda环境在setting中使用了Anaconda环境后import torch发现没有该torch包但是在Anaconda环境下已经安装好了torch1.8经过我反复查阅发现,我在pycharm使用的anaconda环境是base环境,而不是我自己创建的torch环境下自己安装过torch包。经过以下解决...

2021-05-21 22:15:52 9491 3

原创 ubuntu20安装glib问题

使用sudo apt-get install libglib2.0-dev安装glib时出现依赖的问题使用另一种方法安装下载glib-2.43.2.tar.xz然后 ./configure make make installmake时出现gbacktrace.c:172:5: warning: ignoring return value of ‘fgets’, declared with attribute warn_unused_resultgdate.c:2497:7: error:

2020-12-30 17:32:24 2257

基于MVC的用户注册登录注销实例.zip

内含前端界面和主要代码实现。适合交小作业或者初学者学习,代码简单易实现。。

2020-04-19

基于mvc模式下的登录注册

实现登录,注册。使用dbpt链接数据库。js jquery实现注册的要求。。。

2018-12-22

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除