深度学习
文章平均质量分 68
yangdeshun888
本人QQ:2891720537,欢迎添加咨询问题。
展开
-
智能问答系统相关的知识图谱构建:neo4j、py2neo
1、智能问答系统:其使用的技术方案为:数据集准备:先创建具有各种节点、属性、标签的数据。构建知识图谱:其是通过上面的数据集,然后进行解析数据,并创建各自节点信息保存到neo4j图谱数据库里。接着对应需要问答的语句,进行通过kdtree来判断其是属于哪一种类别的问题。然后进行根据问题会具有的一些常用名词来判断其想问的是哪一种问题。然后根据问题回答构建对应的回答内容。2、相关软件安装与排错:其中参考的应用工程为:QASystemOnMedicalKG医疗问答系统相关软件包:neo4j、对应的j原创 2021-04-14 11:27:32 · 1377 阅读 · 0 评论 -
深度学习知识十五:basnet边缘注意力分割网络、SSIM Loss原理介绍
1、basnet边缘注意力分割网络原理介绍:basnet主要使用了一个Residual Refinement Module跟SSIM loss,其解码网络主要有7个输出,然后通过Residual Refinement Module进行输出一个,总共有8个输出,他们的输出W H大小跟输入数据的W H一样。basnet网络其目标分割效果很好,除了使用上面的RRM网络结构外还有一个是使用了SSIM loss 这个损失会计算预测输出跟打标mask的亮度、对比度、图像结构这三者的损失。BASNET网络的结原创 2021-03-27 21:39:43 · 4882 阅读 · 1 评论 -
逻辑回归(LR)与支持向量机(SVM)之间的异同
最近有几个朋友私信我,说是在校招的时候被问到LR与SVM之间的异同,回答的不是太满意,希望我总结一下。一、首先LR与SVM有什么相同点呢?第一,LR和SVM都是监督学习算法。说白了就是带标签的学习。第二,LR和SVM都是分类算法。这里要说的是一般情况下LR与SVM的标签都是0/1这样的离散值,当然他们也是可以做回归的。第三,如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。这里要先说明一点,那就是LR也是可以用核函数的,至于为什么通常在SVM中运用核函数而不在原创 2021-03-18 22:51:03 · 2233 阅读 · 0 评论 -
centos7 安装TensorRT
参考博客:centos7 安装TensorRT注意:a、主要两个文件:TensorRT、pycuda包文件。b、tensorRT需要到官网下载后解压到固定的系统文件夹下即可。pycuda则是直接使用pip安装即可。c、加速流程:pytorch模型转换成onnx,使用自身的onnx模块即可;然后通过onnx转换成tensorrt的模型格式,大概后缀为.engine;最后就可以通过调用这个engine进行相应的加速使用。1.安装cuda、cudnn问题:patchlevel.h没有那个文件将py原创 2021-03-15 15:32:53 · 1296 阅读 · 0 评论 -
深度学习知识一:使用到的激活函数种类和优缺点解释!
用于原创 2017-09-18 09:03:52 · 9440 阅读 · 0 评论 -
常用的3D深度相机汇总
近年来,高性价比的3D深度相机的出现极大地加速了机器人以及3D视觉领域的发展。本文章介绍展示一些常见的3D深度相机列表,便于读者能够方便的获取3D深度相机相关的信息微软 Kinect™ 2.0类型:飞行时间(TOF)深度范围:0.5- 4.5 m3D分辨率:512 x 424RGB分辨率:1920 x 1080帧率:30 fps延迟:至少20 ms视场角:70° H, 60° V物理尺寸:~250x70x45 mm (head)接口:USB 3.0..转载 2020-08-24 11:16:50 · 5184 阅读 · 0 评论 -
【深度学习】基于深度学习的数据增广技术一览
周末在家无聊,偶然兴心想对CV领域常用的数据增广方法做个简单的调研与总结,重点是AI时代新兴的几种反响还不错的方法、各种第三方与官方实现代码等。那么今天由Happy来跟大家聊一聊深度学习中那些常用的数据增广方法。在图像分类任务中,数据增广是一种常用的正则化方法,同时已成为提升模型性能所必不可少的步骤。从引领AI热潮的AlexNet到最近EfficientNet都可以看到数据增广的身影。数据增广的方法也由传统的裁剪、旋转、镜像等方式逐渐过渡到当前火热的AutoAug、RandAug等基于NAS搜索的数据增转载 2020-06-26 12:26:03 · 2049 阅读 · 0 评论 -
深度学习知识六:(模型量化压缩)----pytorch自定义Module,并通过其理解DoReFaNet网络定义方法。
参考中文官方,详情参考:PyTorch 如何自定义 Module1.自定义ModuleModule 是 pytorch 组织神经网络的基本方式。Module 包含了模型的参数以及计算逻辑。Function 承载了实际的功能,定义了前向和后向的计算逻辑。下面以最简单的 MLP 网络结构为例,介绍下如何实现自定义网络结构。完整代码可以参见repo。1.1 FunctionFunction ...原创 2020-03-20 14:48:05 · 1195 阅读 · 0 评论 -
一大波PyTorch图像分割模型来袭,俄罗斯程序员出品新model zoo
一个新的图像分割model zoo来啦!一大波基于PyTorch的图像分割模型整理好了就等你来用~这个新集合由俄罗斯的程序员小哥Pavel Yakubovskiy一手打造,包含四种模型架构和30种预训练骨干模型(backbone),官方文档列举了四条主要特点: 高级API(两行代码构建神经网络) 4种模型架构:Unet,Linknet,FPN,PSPNet 每...转载 2020-02-14 10:24:27 · 2627 阅读 · 0 评论 -
微软自动调参工具—NNI—安装与使用教程
简介NNI是微软的开源自动调参的工具。人工调参实在是太麻烦了,最近试了下水,感觉还不错,能在帮你调参的同时,把可视化的工作一起给做了,简单明了。其可以可以看到当前试验的进展情况,搜索参数和效果最好的一些超参数组合。例如:通过下面的颜色图就能直观地看到红色(即精度较高的超参组合)线条所表达的丰富信息。如卷积核大一些会表现较好。全连接层大了不一定太好。也许是所需要的训练时间增加了,训练速度太...原创 2020-02-11 15:25:59 · 8034 阅读 · 1 评论 -
CT重建的原理和现状、常用重建网络
CT重建的原理和现状CT重建的原理和现状深度重建:基于深度学习的图像重建深度重建:基于深度学习的图像重建转载 2020-02-06 17:44:02 · 2750 阅读 · 0 评论 -
onnx与tensorflow格式的相互转换,opencv直接调用pd文件进行预测,pytorch转换为onnx
onnx是Facebook打造的AI中间件,但是Tensorflow官方不支持onnx,所以只能用onnx自己提供的方式从tensorflow尝试转换Tensorflow模型转onnxTensorflow转onnx, onnx官方github上有提供转换的方式,地址为https://github.com/onnx/tutorials/blob/master/tutorials/OnnxTens...原创 2020-02-06 17:07:42 · 3705 阅读 · 0 评论 -
opencv的dnn调用yolov3原生态的网络进行预测的方法
总的运行代码为:#include <iostream>#include <opencv2/highgui.hpp>#include <opencv2/imgproc.hpp>#include <opencv2/dnn.hpp>#include <fstream>#include<time.h>using na...原创 2020-02-06 16:59:52 · 1481 阅读 · 2 评论 -
总结|深度学习实现缺陷检测收集(参考论文,思路,代码)
前言缺陷检测是工业上非常重要的一个应用,由于缺陷多种多样,传统的机器视觉算法很难做到对缺陷特征完整的建模和迁移,复用性不大,要求区分工况,这会浪费大量的人力成本。深度学习在特征提取和定位上取得了非常好的效果,越来越多的学者和工程人员开始将深度学习算法引入到缺陷检测领域中,下面将会介绍几种深度学习算法在缺陷检测领域中的应用。A fast and robust convolutional ne...转载 2020-02-02 15:02:29 · 9913 阅读 · 1 评论 -
pytorch实用工具:torchsummary、torchsnooper、显示tensor的vutils
一. torchsummmary工具:其主要是用来计算网络的计算参数等信息的,其大概的流程为:安装指令:pip install torchsummary使用方法: import torch, torchvision model = torchvision.models.vgg model = torchvision.models.vgg16() from torchsum...原创 2020-02-01 10:19:47 · 28415 阅读 · 7 评论 -
Pytorch 使用不同版本的 cuda,跟使用不同版本的cuda进行编译扩展库,其实TensorFlow也是一样,编译Dcn v2例子。升级GCC
使用pytorch时我们可能需要对其进行扩展一些功能,例如近随机卷积的DcnV2。此时我们则需要选择适合的cuda版本进行安装并进行编译扩展。由于我们电脑上可能已经安装过多个cuda版本,此时我们可以根据通过设置环境变量进行随意切换使用的cuda版本。如下安装多个版本的的电脑为什么安装了pytorch如果编译扩展库需要再安装cuda库。不管我们通过什么进行安装pytorch等深度框架的时候...原创 2020-01-05 12:41:34 · 1153 阅读 · 0 评论 -
python多线程代码运行速度更慢-原因解析
写出了正确的多线程代码,运行速度反而比单线程慢很多,原来是由于GIL(Global Interpreter Lock)!GIL 是Cpython(Python语言的主流解释器)特有的全局解释器锁(其他解释器因为有自己的线程调度机制,所以没有GIL机制),GIL锁定Python线程中的CPU执行资源。线程在执行代码时,必须先获得这把锁,才获得CPU执行代码指令。如果这把锁被其他线程占用,该线...原创 2019-12-27 17:35:16 · 5776 阅读 · 0 评论 -
python项目生成requirements.txt的工程依赖环境的方法
生成requiresments.txt的方法有两种方式:第一种:pip freeze > requirement.txt其中freeze参数是指输出当前环境中安装的依赖包。其中【>】指的是把输出的信息输入到requirement.txt文件里。特点:会把当前环境中安装的所有依赖包都输出来,即使有些文件是当前工程没依赖的包。这会造成环境的臃肿。当前环境的所有依赖包为...原创 2019-12-10 16:49:40 · 1222 阅读 · 0 评论 -
Centernet在windows上的编译方法
环境: win10 vs2017 pytorch1.1 cuda10完整工程centernet_window完整工程下载地址:CenterNet-windows1、编译DCN库:由于CenterNet使用了可变卷积网络,而在pytorch上并没有集成,所以使用前要先进行Dcn的编译。a、准备跟pytorch1.0对应版本的DCNv2:pytorch1.0现在已经不支持DCNv1...原创 2019-11-21 11:24:26 · 3614 阅读 · 20 评论 -
PyTorch中在反向传播前为什么要手动将梯度清零?
PyTorch中在反向传播前为什么要手动将梯度清零?这种模式可以让梯度玩出更多花样,比如说梯度累加(gradient accumulation)传统的训练函数,一个batch是这么训练的:for i,(images,target) in enumerate(train_loader): # 1. input output images = images.cuda(...原创 2019-11-19 23:13:28 · 1258 阅读 · 2 评论 -
Pytorch 使用不同版本的 cuda,跟使用不同版本的cuda进行编译扩展库,其实TensorFlow也是一样
在使用 Pytorch 时,由于 Pytorch 和 cuda 版本的更新,可能出现程序运行时需要特定版本的 cuda 进行运行环境支持的情况,如使用特定版本的 cuda 编译 CUDAExtension 引入的拓展模块等。为了满足应用程序和框架本身对不同版本的 cuda 的需求,Pytorch 需要能够在不同版本的 cuda 之间切换使用。这里即记录 Pytorch 在编辑 cpp 和 cud...原创 2019-11-19 09:46:33 · 1373 阅读 · 0 评论 -
深度模型不work?这有一份超全的Debug检查清单
本文来自52CV群友Qiao-Mu Ren的读书笔记。原载于知乎:https://zhuanlan.zhihu.com/p/89566632为什么需要讨论DL Troubleshooting?80%-90%时间用于debug和tune,10%-20%时间用于推导数学或者实现。模型为什么会表现糟糕? 实现时的bug,很多深度学习bug不可见,比如模型label顺序错误 ...转载 2019-11-03 11:30:14 · 324 阅读 · 1 评论 -
十个最常用深度学习图像/视频数据标注工具
图像数据标注概述在深度学习领域,训练数据对训练结果有种至关重要的影响,在计算机视觉领域,除了公开的数据集之外,对很多应用场景都需要专门的数据集做迁移学习或者端到端的训练,这种情况需要大量的训练数据,取得这些数据方法有如下几种人工数据标注 自动数据标注 外包数据标注人工数据标注的好处是标注结果比较可靠,自动数据标注一般都需要二次复核,避免程序错误,外包数据标注很多时候会面临数据泄...转载 2019-10-22 17:54:52 · 1634 阅读 · 0 评论 -
tinny阅读
http://blog.csdn.net/kangroger/article/details/51541661原创 2017-05-03 18:38:44 · 402 阅读 · 0 评论 -
深度学习常用的数据集,包括各种数据跟图像数据。
[导读] “大数据时代”,数据为王!无论是数据挖掘还是目前大热的深度学习领域都离不开“大数据”。大公司们一般会有自己的数据,但对于创业公司或是高校老师、学生来说,“Where can I get large datasets open to the public?”是不得不面对的一个问题。本文结合笔者在研究生学习、科研期间使用过以及阅读文献了解到的深度学习视觉领域常用的开源数据集,进行介绍转载 2017-04-23 15:41:25 · 59922 阅读 · 3 评论 -
CNN卷积神经网络应用于人脸识别(详细流程+代码实现)和相应的超参数解释
DeepLearning tutorial(5)CNN卷积神经网络应用于人脸识别(详细流程+代码实现)@author:wepon@blog:http://blog.csdn.net/u012162613/article/details/43277187本文代码下载地址:我的github本文主要讲解将CNN应用于人脸识别的流程,原创 2017-03-09 23:07:12 · 8209 阅读 · 2 评论 -
c++工程调用python语言与lua语言
Python实例浅谈之三Python与C/C++相互调用Lua和C++交互详细总结转载 2017-04-21 17:44:52 · 1138 阅读 · 0 评论 -
caffe study(5) - AlexNet 之结构篇
http://blog.sina.com.cn/s/blog_eb3aea990102v47i.htmlhttp://blog.csdn.net/liumaolincycle/article/details/50496499转载 2017-02-24 11:37:41 · 332 阅读 · 0 评论 -
深度神经网络的理解和实践例子,很好。
由于太好的解释,粘贴怕出错,就直接贴上链接:深度神经网络详解IMPLEMENTING A NEURAL NETWORK FROM SCRATCH IN PYTHON – AN INTRODUCTION演示例子其中里面的一些知识点:1、转载 2016-12-27 15:07:07 · 2319 阅读 · 1 评论 -
如何根据Seeta教程创建自己的工程
如何根据SeetaFaceDetection教程创建自己的工程 在写这次博客之前,首先感谢深度学习大讲堂这个微信公众号平台以及中科院计算所山世光研究员的研究组。如果没有这两个部分的结合,我或许没有机会接触这么优秀的人脸识别引擎。 当我打开FaceDetection这个文件夹的时候,里面有个README,在里面有讲述如何创建动态链接库以及引用动态链接库转载 2017-03-10 09:20:50 · 637 阅读 · 0 评论 -
caffe单独移植出来需要的工程配置和注意点,CPU版本和GPU版本!
1、原创 2017-06-07 15:30:32 · 2123 阅读 · 1 评论 -
caffe配置GPU版本、会遇到的错误、大概的运行时间。
主要参考的GPU配置博客是:http://blog.csdn.net/xierhacker/article/details/51834563自己使用的caffe工程是:微软提供Windows工具包(caffe-master):https://github.com/Microsoft/caffe 百度云下载地址:链接:http://pan.baidu.com/s/1hs8ngpA 密码:i原创 2017-06-05 16:43:53 · 4005 阅读 · 0 评论 -
caffe基础(8):draw_net.py绘制网络结构
1、安装pydot[plain] view plain copysudo apt-get install python-pydot 2、安装graphviz[plain] view plain copysudo apt-get instll graphviz转载 2017-06-04 11:31:21 · 348 阅读 · 0 评论 -
caffe安装使用、样本制作、网络修改、错误重新训练!
总的参考博客:1、安装:转 Windows+VS2013爆详细Caffe编译安装教程【caffe-Windows】caffe+VS2013+Windows无GPU快速配置教程Caffe初试(一)win7_64bit+VS2013+Opencv2.4.10+CUDA6.5配置Caffe环境2、样本制作:用caffe跑自己的数据,基于WINDOWS的caffe原创 2017-05-19 17:32:02 · 419 阅读 · 0 评论 -
theano深度框架的学习
深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-02-基于Python的卷积运算转载 2017-05-04 15:24:44 · 717 阅读 · 0 评论 -
「深度神经网络」(deep neural network)具体是怎样工作的?
「深度神经网络」(deep neural network)具体是怎样工作的?转载 2017-05-02 17:23:08 · 1069 阅读 · 0 评论 -
YOLO工程代码如何在windows上配置和运行!window上YOLO训练样本的制作
我使用的YOLO工程是代码链接是:yolo-windows-master,其博客地址是:http://blog.csdn.net/sinat_30071459/article/details/531611131、GPU配置,其中yolo使用的GPU版本的,其网上下载的代码基本是用CUDA7.5计算版本的,如果自己系统装的不是这个版本的则会出现加载工程失败,其错误信息如下:此时双击上原创 2017-06-05 15:35:11 · 10560 阅读 · 0 评论 -
caffe在window下无GPU的安装、注意点和网络的参数解释!
caffe在window下的安装具体的可以参考如下博客:【caffe-Windows】caffe+VS2013+Windows无GPU快速配置教程 我是安装微软的caffe库,其为caffe-master。这个使用有几个注意点:1、我的VS2013只能正确编译release下X64工程,其它模式下的编译出错,编译好的exe文件运行不了,提示缺少MSVCR120D.dll、MSVCP...原创 2017-05-18 17:56:08 · 1588 阅读 · 0 评论 -
深度学习知识十一:卷积神经网络卷积层和池化层学习、权值共享!!网络的Bflops、跟卷积网络大小的输出计算
链接地址:卷积神经网络_(1)卷积层和池化层学习卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC(1)卷积层:用它来进行特征提取,如下:输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输...原创 2017-05-03 16:28:23 · 13644 阅读 · 0 评论 -
深度学习知识八:深度学习里神奇的1*1卷积核
深度学习里神奇的1*1卷积核这里主要介绍下1*1卷积核的神奇之处核最好的使用范围,在开始之前需要了解下卷积网络的权值共享概念,其中权值共享基本上有两种方法:在同一特征图和不同通道特征图都使用共享权值,这样的卷积参数是最少的,例如上一层为30*30*40,当使用3*3*120的卷积核进行卷积时,卷积参数为:3*3*120个.(卷积跟mlp有区别也有联系一个神经元是平面排列,一个是线性排列)第二种只原创 2017-09-19 17:20:26 · 3196 阅读 · 0 评论