深度学习
文章平均质量分 50
深度学习
我有一個夢想
IT
展开
-
Focal Loss pytorch实现
引用自知乎 以备后用实现import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.autograd import Variableclass FocalLoss(nn.Module): r""" This criterion is a implemenation of Focal Loss, which is proposed in Focal Los..原创 2022-05-16 16:43:45 · 621 阅读 · 0 评论 -
车辆多属性识别
2021青海省首届河湟杯数据湖算法大赛—车辆多属性识别赛道记一个简单的分类任务 baseline比赛地址:开发者社区初赛 内容比较简单 就是区分车辆类型type共4类,分别是:car、suv、van、truck。没有做具体数据分布分析 简单baselineK折训练 pytorch框架训练参数10折训练 batch size根据GPU情况 16 32这种较为普遍 图像大小256*256 训练epoch设定了100 从结果上看有点过了 可能过拟合比较严重 网络ba...原创 2022-03-18 16:01:40 · 2764 阅读 · 0 评论 -
理解RoIAlign实际操作
理解RoIAlign实际操作原创 2022-03-08 15:23:52 · 3898 阅读 · 0 评论 -
多通道卷积问题
例如在四个通道上的卷积操做,有两个卷积核,生成两个通道。其中须要注意的是,四个通道上每一个通道对应一个2*2的卷积核,这4个2*2的卷积核上的参数是不同的,之因此说它是1个卷积核,是由于把它当作了一个4*2*2的卷积核,4表明一开始卷积的通道数,2*2是卷积核的尺寸,实际卷积的时候其实就是4个2*2的卷积核(这四个2*2的卷积核的参数是不一样的)分别去卷积对应的4个通道,而后相加,再加上偏置b,注意b对于这四通道而言是共享的,因此b的个数是和最终的featuremap的个数相同的。...原创 2022-03-03 10:36:00 · 480 阅读 · 0 评论 -
CUDA编程之矩阵乘法
cuda编程矩阵乘法刚学 所以来个简单例子a n*n X b n * na 的每一行 * b原创 2021-06-03 16:56:49 · 626 阅读 · 0 评论 -
CondaValueError: no package names supplied
这两天conda抽风了 打什么命令都是错误 卸了TensorFlow 好像好点了 但是conda update 就出错“CondaValueError: no package names supplied”原创 2021-06-03 15:43:23 · 2173 阅读 · 0 评论 -
全网最全开源工业缺陷数据集汇总
本文目前汇总了常见的24个开源工业缺陷数据集。由于公众号添加超链接受限,为获得更好的阅读体验,可点击阅读原文,查看发布在知乎上的文章:1、东北大学热轧带钢表面缺陷数据集该数据集是东北大学的宋克臣等几位老师收集的,一共包含了三类数据,官网有时打不开,三种缺陷数据集我都我保存到了百度网盘里。官方链接:http://faculty.neu.edu.cn/me/songkc/Vision-based_SIS_Steel.html百度网盘链接:链接:https://pan.baidu.com/转载 2021-05-06 14:38:28 · 3529 阅读 · 0 评论 -
CUDA编程之atomic原子操作
CUDA的原子操作可以理解为对一个变量进行“读取-修改-写入”这三个操作的一个最小单位的执行过程,这个执行过程不能够再分解为更小的部分,在它执行过程中,不允许其他并行线程对该变量进行读取和写入的操作。基于这个机制,原子操作实现了对在多个线程间共享的变量的互斥保护,确保任何一次对变量的操作的结果的正确性。原子操作确保了在多个并行线程间共享的内存的读写保护,每次只能有一个线程对该变量进行读写操作,一个线程对该变量操作的时候,其他线程如果也要操作该变量,只能等待前一线程执行完成。原子操作确保了安全,代价是牺牲原创 2021-04-28 18:43:58 · 596 阅读 · 0 评论 -
CUDA编程之函数前缀:device/global/host
最近在搞TensorRT 自定义层 把一些后处理过程放在CUDA中计算加速,CUDA代码***.cu中遇到了__global__ 函数前缀百度了一下 整理CUDA C语言对C语言的扩展之一就是加入了一些函数前缀,在CUDA中有三种函数前缀:device,global,host。如下图即为Faster R-CNN代码global前缀添加后的函数定义部分:三种前缀分别用于在定义函数时限定该函数的调用和执行方式,例如:__host__ int foo(int a){}与C或者C++中的fo原创 2021-04-28 16:09:24 · 2989 阅读 · 0 评论 -
Pytorch permute函数
torch.permute()>>> x = torch.randn(2, 3, 5)>>> x.size()torch.Size([2, 3, 5])>>> x.permute(2, 0, 1).size()torch.Size([5, 2, 3])原创 2021-04-28 11:30:08 · 443 阅读 · 0 评论 -
TensorRT softmax层
今天遇到分类问题TensorRT softmax层如果直接在fc后面接softmax 则会进行全局softmax需要进行reshape 比如2分类 需要转为[1, 1, 2]这种维度 然后在维度2上今天softmax百度后 先使用IShuffleLayer进行维度变换IShuffleLayer *shuffleLayer = network->addShuffle(input);assert(shuffleLayer);shuffleLayer->setR...原创 2021-04-27 14:21:23 · 1122 阅读 · 0 评论 -
TensorRT 的 C++ API 使用详解
目录1. TensorRT 的 C++ API 使用示例2. 用 C++ API 创建TensorRT网络2.1. 使用 C++ 的 parser API 导入模型2.2. 使用 C++ Parser API 导入 Caffe 模型2.3. 使用 C++ Parser API 导入 TensorFlow 模型2.4. 使用 C++ Parser API 导入 ONNX 模型3. 用 C++ API 构建 engine4. 用 C++ API 序列化一个模型5. 用 C++转载 2021-04-26 15:47:15 · 3412 阅读 · 3 评论 -
conda 安装本地文件
conda install --use-local pytorch-0.4.0-py35_cuda8.0.61_cudnn7.1.2_1.tar.bz2原创 2021-01-28 18:42:09 · 599 阅读 · 0 评论 -
Ubuntu 18.04安装CUDA和cuDNN
安装CUDA进入nvidia开发者网站的CUDA下载页面:CUDA Toolkit Archivedeveloper.nvidia.com选择runfile格式的CUDA文件下载,下载完成后,解压,并运行上图中的命令,会有条款,接受即可,注意安装CUDA的时候不要安装驱动(因为在第一步我们已经安装过了)。然后,sudo vim ~/.bashrc我们在文件最后一行添加:$ export PATH=/usr/local/cuda-10.1/bin:/us.转载 2021-01-28 15:21:04 · 232 阅读 · 0 评论 -
from pycuda._driver import * ImportError: libcurand.so.9.2: cannot open shared object file错误解决
from pycuda._driver import * ImportError: libcurand.so.9.2: cannot open shared object file原因应该是当时安装pycuda的时候是用的cuda9.2 后面升级到cuda10.2导致无法导入pip uninstall pycuda根据官方给的一个pycuda安装链接安装pycuda 官方的回复https://forums.developer.nvidia.com/t/pycuda-libcurand-im...原创 2021-01-21 16:08:45 · 842 阅读 · 0 评论 -
Ubuntu系统下实时监控GPU的温度
GPU是一种高耗能、强发热的电脑配件,我们在运行程序的时候要经常的实时监控GPU的温度。该如何操作呢?其实很简单,如下:1、查看GPU(多卡)的温度nvidia-smi -q -i 0,1 -d TEMPERATURE-i后面的数字表示我的两块GPU。效果如下:2、实时监控GPU(多卡)的温度watch -n 0.5 nvidia-smi -q -i 0,1 -d TEMPERATURE-n后面的数字表示每隔0.5秒刷新一次,效果如下:————————————————版权声明..转载 2020-06-11 09:28:48 · 852 阅读 · 0 评论 -
[扩张卷积or空洞卷积] 如何理解Dilated Convolutions(空洞卷积)
文章来源:https://blog.csdn.net/alxe_made/article/details/885945501. 扩张卷积的提出Multi-Scale Context Aggregation by Dilated Convolutions Dilated Residual Networks 论文笔记——CVPR 2017 Dilated Residual Networks在图像分割领域,图像输入到CNN(典型的网络比如FCN)中,FCN先像传统的CNN那样对图像做卷积再po.转载 2020-05-08 19:46:20 · 654 阅读 · 0 评论 -
正则化
正则化的概念及原因简单来说,正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。我们在构造机器学习模型时,最终目的是让模型在面对新数据的时候,可以有很好的表现。当你用比较复杂的模型比如神经网络,去拟合数据时,很容易出现过拟合现象(训练集表现很好,测试集表现较差),这会导致模型的泛化能力下降,这时候,我们就需要使用正则化,降低模型的复杂度。正则化的几种常用方法L1 & L...转载 2020-04-13 20:26:38 · 3172 阅读 · 0 评论 -
Caffe的MATLAB接口编译
make matcaffe是OK的,但是make mattest 会出现类似这种:undefined symbol:_ZN2cv8imencodeERKNSt7__cxx1112basic_stringIcSt11char_traitsIcESaIcEEERKNS_11_InputArrayERSt6vectorIhSaIhEERKSB_IiSaIiEE 一大堆乱字符.解决方案:sudo原创 2017-08-03 15:06:07 · 369 阅读 · 0 评论 -
几个不错深度学习github源码(人体姿态、物体姿态、人脸相关、行人重识别、行人属性、风格迁移、目标检测、OCR)
搜索了下github,把觉得几个不错的深度学习代码整理下列出来,未来可能会去涉及这些。包括人体姿态、物体姿态、人脸相关、行人重识别、行人属性、风格迁移、目标检测。主要以pytorch或tensorflow为主。目录人体姿态估计物体姿态估计人脸、其他行人重识别行人属性风格迁移目标检测OCR人体姿态估计Deep Pose Estimation impl...原创 2020-01-06 14:51:44 · 6716 阅读 · 0 评论 -
Faster R-CNN模型工程部署(pytorch)
前言因为本人最近在做一个与目标检测有关的项目,最开始只是跑一跑模型,但是后来乙方提出要求需要有我们提出部署方案并实施,最开始在网上查了许多资料,发现现在有许多都是tensorflow的一些部署,而关于pytorch部署这方面实际的资料着实很少,鉴于自己最后调了出来,因而想着写一个博客和大家分享一下,相互学习学习。1.FLaskFlask是一个 web 框架。也就是说 Flask 为你提供工...转载 2019-12-17 09:32:58 · 767 阅读 · 2 评论 -
深度学习数据集
今天发现一个各种数据集汇总的网址http://yacvid.hayko.at/以后可能会用到 先记下原创 2019-11-26 15:07:08 · 212 阅读 · 0 评论 -
读取mat文件中特定数据保存到txt中
最近在做faster-rcnn的内容,数据集标签给的格式是mat版本,而且标签内容有些是不需要的,想着提取需要的项目然后存在txt中,自己写了个matlab文件:file_path = './';mat_path_list = dir(strcat(file_path,'*.mat'));mat_num = length(mat_path_list);fprintf('%d\n',mat原创 2017-08-11 15:46:10 · 1044 阅读 · 0 评论 -
回归于分类区别
来至知乎解释: 拿支持向量机举个例子,分类问题和回归问题都要根据训练样本找到一个实值函数g(x). 回归问题的要求是:给定一个新的模式,根据训练集推断它所对应的输出y(实数)是多少。也就是使用y=g(x)来推断任一输入x所对应的输出值。分类问题是:给定一个新的模式,根据训练集推断它所对应的类别(如:+1,-1)。也就是使用y=sign(g(x))来推断任一输入x所对应的原创 2017-05-10 14:44:34 · 428 阅读 · 0 评论 -
神经网络之梯度下降法和反向传播BP
梯度下降法和反向传播网上资料非常多,记录点自己理解的1.梯度下降法是为了使损失函数求最小,而梯度方向是函数增长最快的方向,前面加个负号就变成函数减少最快的方向: 更新后的权重 = 更新前的权重 + (-学习率*计算误差对权重的偏倒) 学习率取值很重要 过小的话收敛慢 过大的话可能错过极值点 这里把后半部分写在一个括号里原创 2017-04-18 22:28:48 · 2413 阅读 · 0 评论 -
yoloV2配置的注意点
yoloV2配置的注意点 不要忘了修改makefile和nvcc! GPU,cudnn,opencv设为1 nvcc=/usr/local/cuda-8.0/bin/nvcc 然后用make指令编译原创 2017-04-29 22:06:07 · 3404 阅读 · 3 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
转载至http://blog.csdn.net/u012162613/article/details/44261657欢迎去看原作者 支持原作者正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,经常会导致overfitting(过拟合)。其直观的表现例如以下图所看到的。随着训练过程的进行,模型复杂度添加,在training data上的error渐...转载 2018-10-11 20:28:07 · 270 阅读 · 0 评论 -
逻辑回归
转载至https://blog.csdn.net/zjuPeco/article/details/77165974前言逻辑回归是分类当中极为常用的手段,因此,掌握其内在原理是非常必要的。我会争取在本文中尽可能简明地展现逻辑回归(logistic regression)的整个推导过程。什么是逻辑回归逻辑回归在某些书中也被称为对数几率回归,明明被叫做回归,却用在了分类问题上,我个人认为这是...转载 2018-10-12 21:43:30 · 183 阅读 · 0 评论 -
批标准化 Batch Normalization
转载至https://www.cnblogs.com/guoyaohua/p/8724433.html欢迎去看原作者Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是...转载 2018-10-24 09:50:54 · 256 阅读 · 1 评论 -
batch normalize、relu、dropout 等的相对顺序
batch norm、relu、dropout 等的相对顺序Ordering of batch normalization and dropout in TensorFlow?在 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 一文中,作者指出,“we w...原创 2018-11-06 10:48:50 · 9180 阅读 · 2 评论 -
范数知识
文章转载至https://blog.csdn.net/a493823882/article/details/80569888欢迎支持原作者什么是范数?我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。在数学上,范数包括向量范数和矩阵范...转载 2018-11-05 15:08:03 · 300 阅读 · 0 评论 -
详解 ROI Align 的基本原理和实现细节
转载至http://blog.leanote.com/post/afanti.deng@gmail.com/b5f4f526490b欢迎支持原作者。ROI Align 是在Mask-RCNN这篇论文里提出的一种区域特征聚集方式, 很好地解决了ROI Pooling操作中两次量化造成的区域不匹配(mis-alignment)的问题。实验显示,在检测测任务中将 ROI Pooling 替换为 ...转载 2018-11-19 15:25:03 · 538 阅读 · 0 评论 -
Reading Papers – IM2CAD
Reading Papers – IM2CAD论文主要讲述从单目照片中重构三维家居室内场景原创 2017-03-28 22:47:33 · 1218 阅读 · 0 评论