![](https://img-blog.csdnimg.cn/20190927151026427.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 66
深度学习
千羽QY
这个作者很懒,什么都没留下…
展开
-
pytorch 通过load_state_dict加载权重
1、如果预训练网络与当前网络一模一样net = model(input_channels=input_channels, angle_cls=args.angle_bins)# 加载预训练模型pretrained_dict = torch.load("预训练权重路径")net.load_state_dict(pretrained_dict) # True:完全吻合,False:只加载键值相同的参数,其他加载默认值。2、如果预训练网络和当前网络中有一部分网络层的名称不同如,预训练网络中有一层原创 2022-01-20 11:18:53 · 1628 阅读 · 0 评论 -
使用TensorRT部署抓取检测网络(一)
1. TensorRT简介tensorRT是可以在NVIDIA的各种GP U下运行的一个C++推理框架。我们使用Pytorch、TF训练好的模型,可以转化为TensorRT的格式,然后用TensorRT推理引擎去运行这个模型,从而提高模型在英伟达GPU上的运行速度,一般可提高几倍~几十倍。主流的pytorch部署路径:pytorch →\rightarrow→ ONNX →\rightarrow→ TensorRTtorch2trttorch2trt_dynamicTRTorch2. 抓取原创 2021-07-01 14:38:59 · 2457 阅读 · 4 评论 -
基于学习的平面抓取检测方法分类及讨论
平面抓取检测的任务是,输入感知数据,输出抓取配置。到目前,基于学习的平面抓取检测方法主要分为两类:(1)一阶段的端到端学习方法。(2)两阶段的学习方法。1、一阶段学习法在这类方法中,直接学习从输入数据到抓取配置的映射函数,即神经网络。输入通常为RGB图像或深度图像,输出为抓取配置的集合,然后根据置信度选取最优的抓取配置。目前以基于矩形框抓取表示的方法为主,如(1)Fully Convolutional Grasp Detection Network with Oriented Ancho原创 2020-12-14 17:37:15 · 1711 阅读 · 6 评论 -
抓取检测之Dex-Net 2.0
前言如今,在各种期刊顶会都能看到平面抓取检测的论文,他们声称能应对多物体堆叠场景,然而实际效果都不尽人意,我认为主要原因有如下几点:(1)缺乏多物体堆叠场景的抓取数据集。现在最常用的Cornell Grasp Dataset, Jacquard数据集都是单目标场景。(像Dex-Net数据集和Google机器人工厂这种东西普通研究者就只能看着了)(2)现在的研究者过于强调端到端检测。(3)没有一个合适的抓取表示法。如何利用少量数据集学习一个端到端网络或者整个方法中的一个子网络,实现堆叠场景原创 2020-12-11 21:47:01 · 5774 阅读 · 15 评论 -
ubuntu安装mmdetection记录
配置列表ubuntu 16.04python 3.6pytorch 1.3.1mmdetection 2.2.1mmcv:git clone https://github.com/open-mmlab/mmcv.gitcd mmcvMMCV_WITH_OPS=1 pip install -e .安装mmcv大约需要5-10分钟。原创 2020-07-14 09:15:36 · 1102 阅读 · 0 评论 -
普通卷积、Depthwise(DW)卷积、Pointwise(PW)卷积、Atrous卷积
转发自:https://blog.csdn.net/T_J_S/article/details/94629637普通卷积Depthwise(DW)卷积不同于常规卷积操作,Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积。上面所提到的常规卷积每个卷积核是同时操作输入图片的每个通道。同样是对于一张5×5像素、三通道彩色输入图片(shape为5×5...转载 2020-03-28 18:58:17 · 7054 阅读 · 0 评论 -
pytorch记录——交叉熵损失计算
F.cross_entropy(input, target)如果预测的输入是四维的,即[N, C, W, H],则target的尺寸为[N, W, H]。需要注意,cross_entropy在计算时,首先计算log_softmax,再计算nll_loss。log_softmax是先计算softmax再进行log计算,nll_loss计算log后的每个元素与其对应的label的乘积再求和取平均...原创 2020-03-28 18:45:49 · 452 阅读 · 0 评论 -
深度学习——梯度消失问题
当初学深度学习的时候就看不懂,查网上的资料也讲得不清楚,今天复习的时候又看了一遍,终于明白了,记录一下。梯度消失的问题要从深度学习的反向传播说起,以神经网络为例,神经网络在反向传播时,每一层权重和偏置的更新都是由后面所有层的导数乘积决定的,其中就包括神经元的线性函数的导数、激活函数的导数。以前常用的激活函数就是sigmoid函数,函数图如下: ...原创 2020-02-25 15:26:44 · 566 阅读 · 0 评论 -
深度学习之解决Fetch argument 3.5263598 has invalid type class 'numpy.float32'
sess.run()接收变量和tf变量的变量名不能一样。如# train_, cross_entropy, train_acc, summary_train = sess.run([train_op, cross_entropy, accuracy, merge_summary], ...原创 2019-08-16 14:35:00 · 726 阅读 · 0 评论