深度学习
文章平均质量分 93
Sun7_She
这个作者很懒,什么都没留下…
展开
-
ubuntu18.04 cuda8.0 cudnn5 caffe python2.7 install
1.sudo apt install vimsudo vim /etc/apt/sources.listubuntu镜像-ubuntu下载地址-ubuntu安装教程-阿里巴巴开源镜像站sudo apt-get updatesudp apt-get upgradesudo apt install python2. cuda8.0+cudnn5 installsudo dpkg -i ...cuda-license-8-0cuda-misc-headers-8-0cu原创 2021-09-30 18:51:07 · 280 阅读 · 0 评论 -
【深度学习】torch使用nngraph构建网络并训练
torch使用nngraph构建网络并训练model = nn.Sequential()model:add(nn.Linear(3,5))prl = nn.ConcatTable()prl:add(nn.Linear(5,1))prl:add(nn.Linear(5,1))model:add(prl)criterion = nn.ParallelCriter原创 2017-09-19 10:25:54 · 1277 阅读 · 1 评论 -
【深度学习】训练网络的方法总结
原创 2017-09-26 17:42:51 · 1273 阅读 · 0 评论 -
自然语言处理中的Attention Model
参考文章: https://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652000715&idx=4&sn=b7c68c03e7f507cdce3626c01b018259&chksm=f121253ac656ac2c8d82a852efc2527601adccfca917444b23d5114e9022079dc473a5bd6436&mp原创 2017-07-14 08:53:57 · 811 阅读 · 0 评论 -
【深度学习】图像标注评价标准
最近图像理解受到了广泛的关注,我们也来稍微了解一下神马是图像理解,图像标注的评价标准是神马,哇咔咔图像理解就是理解图像的内容,通俗一些呢就是用一句话描述你所看到的图片中的内容。深度学习这么火,我们一定尝试一下,看看它是否可以解决这个问题。噢,不!是一定可以解决,只是时间问题或者框架如何设计的问题【大家一定要相信一个真理:深度学习可以搞定一切----说得自己都有点尴尬了不 我没有原创 2017-07-28 14:59:22 · 5890 阅读 · 0 评论 -
姿态估计论文思路整理 -- Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
文章:Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields∗ paperuri:(ee7d699fb12eb95daec96f29da5452b9)代码:https://github.com/CMU-Perceptual-Computing-Lab/原创 2017-07-28 19:04:18 · 3861 阅读 · 0 评论 -
DL学习笔记【23】修改caffemodel模型参数
读取修改caffemodel文件里的网络模型参数http://blog.csdn.net/burning_keyboard/article/details/71763291修改caffemodel文件中的模型参数,代码http://nbviewer.jupyter.org/github/BVLC/caffe/blob/master/examples/net_surger原创 2017-07-24 19:01:24 · 2028 阅读 · 0 评论 -
torch中创建multitask网络结构
Torch7入门续集补充--- nngraph包的使用http://blog.csdn.net/hungryof/article/details/72902169faster-rcnn.torchhttps://github.com/andreaskoepf/faster-rcnn.torch/blob/master/models/model_utilities.lua原创 2017-07-29 18:43:26 · 3456 阅读 · 0 评论 -
纳什均衡-深度学习-最优传输理论
队伍学习,生成对抗网络 — 纳什均衡最优传输理论 - 威尔斯特拉距离 - 从一个空间转换到另一个空间 - 风格化原创 2017-07-30 19:16:13 · 5646 阅读 · 0 评论 -
DL学习笔记【5】caffe参数调节-solver文件
solver文件:# 定义网络结构的文件net: "deblurring_train_test.prototxt"# test_iter 测试集向前传递多少次# batch size * test_iter = 测试集图片数test_iter: 100 # 每100次迭代执行一次测试test_interval: 100# 基础学习速率,动量,网络权重衰减bas转载 2016-07-26 13:12:08 · 10383 阅读 · 4 评论 -
【深度学习】rnn and lstm
https://www.jianshu.com/p/9dc9f41f0b29一直好奇rnn一个一个生成句子里边那么多字是怎么更新weight的,尤其是前半段只管输入,后半段只管输出。其实是生成一句话之后统一计算每一个字的loss,然后一起更新的。lstm设计的巧妙之处在于解决了rnn短时记忆问题。lstm有一个信息通路,用于将之前的信息直接传输到后边。在每一个小模块里,又会判断哪一部分需要记住,哪...原创 2018-06-19 20:29:11 · 326 阅读 · 0 评论 -
【深度学习】增强学习
好久木有写博客了,生疏了不少,第一段删了改改了删,新更博文第一句只想说:hi,老朋友!好久不见~文中的图片来自莫烦python视频。视频内容真心很赞,一天就可以看完,有兴趣的朋友可以点击下边的链接哦https://space.bilibili.com/243821484/#/channel/detail?cid=26359come on, babies! 让我们一起来聊一下增强学习吧~hhhh增强...原创 2018-06-19 19:51:10 · 898 阅读 · 0 评论 -
Transfer Learning 文章解析
transfer learning: 包含所有的source or target, labeled or unlabeled, finetune, multi-task learning的情况。总而言之一句话,训练的过程中用(单个数据集做supervised learning)之外的所有情况都算在transfer learning中。supervised learning: 训练数据都有标签...原创 2018-11-29 10:04:33 · 2011 阅读 · 0 评论 -
【深度学习】pytorch编写新的层
如何在CUDA中为Transformer编写一个PyTorch自定义层https://cloud.tencent.com/developer/article/1419577Pytorch拓展进阶(一):Pytorch结合C以及Cuda语言https://oldpan.me/archives/pytorch-combine-c-and-cuda...原创 2019-09-09 21:28:35 · 629 阅读 · 1 评论 -
【深度学习】CVPR2019-PAPER IDEAS
1. driving stereo: a large-scale dataset for stereo matching in autonomous driving scenarios这位朋友的工作主要是在制作深度数据集,制作数据集的过程写了这篇paper。主要是深度标签不好获得,直接用雷达获取的还不够准确,他又结合了其他信息来制作更准确的label~(第一次知道,制作label的方法也可以写...原创 2019-06-24 11:47:08 · 1595 阅读 · 0 评论 -
CVPR 2019 新文阅读
1 learning a deep convnet for multi-label classification with partial labels深度学习在单标签分类任务中表现很好,但是日常生活中的图像本质上是多标签的。多标签分类比单标签分类更困难,因为输入图像和输出标签空间都更复杂。与单标签相比,大规模收集干净的多标签注释更难。为了降低标注成本,我们建议训练带有部分标签的模型,即每个图...原创 2019-06-13 23:11:13 · 443 阅读 · 0 评论 -
【深度学习】分类网络结构RESNET RESNEXT DENSENET DPN MOBILE NET SHUFFLE NET
RESNET跳跃连接RESNEXT拆分-转换-合并增加基数(独立路径的数量)来提高准确度比网络加深或扩大来提高准确度更有效。(为什么呢?)DENSENET相加改为相并联加强shortcut,将所有层直接连接在一起DPN将残差通道和densely connected path相融合,实现优缺互补------------------------...原创 2019-05-24 09:21:23 · 438 阅读 · 0 评论 -
【深度学习】目标检测网络结构RCNN
算法分为4个步骤:1. 生成1k~2k个候选区域 使用selective search方法,从一张图像生成约2000~3000个候选区域: (1)使用一种过分割手段,将图像分割成小区域 (2)查看现有小区域,合并可能性最高的两个区域,重复直到整张图像合并成一个区域位置 ...原创 2019-05-17 16:06:34 · 507 阅读 · 0 评论 -
【深度学习】目标检测网络结构SSD RETINANET
one stageSSD:SSD是Faster-RCNN和YOLO中做了一次的分类和检测过程放在不同的图像大小上做了多次RETINANET:RESNET+FPN+FOCAL LOSS原创 2019-05-21 16:37:01 · 592 阅读 · 0 评论 -
【深度学习】目标检测网络结构MASK RCNN FPN
其相对于FASTER RCNN改进如下:1. 分割,检测,分类同时进行2. 引入ROI ALIGN(对分类影响不大,对分割影响大,因为ROI POOLING对应回图像中的像素会有偏差,该方法会相对准确)代替faster rcnn中的ROI POOLINGROI ALIGN:https://www.cnblogs.com/wangyong/p/8523814.html对于检测图片中...原创 2019-05-21 15:55:21 · 1118 阅读 · 0 评论 -
【深度学习】目标检测网络结构SPP FAST-RCNN FASTER-RCNN
在讲fast-rcnn之前,我们先来看一下spp net吧?~spp net对r-cnn的改进主要有两点: 1. 只对原图提取一次特征。输入是图片,在feature层对应位置找到候选框的位置。 2. 结合空间金字塔方法实现cnns的对不同尺度的输入。实现数据的多尺度输入。分别划分不同的小块对feature进行pooling。对比r-cnn提速100倍左右...原创 2019-05-19 10:32:07 · 497 阅读 · 0 评论 -
DL学习笔记【22】增强学习(Reinforcement Learning)
据说了解增强学习首先要了解马尔可夫性马尔可夫性在已知目前状态 (现在)的条件下,它未来的演变(将来)不依赖于它以往的演变 (过去 ) 马尔可夫过程按照其状态和时间参数是否连续或者离散分为三种:时间和状态都离散的叫做马尔科夫链时间和状态都是连续的叫做马尔科夫过程时间连续,状态离散的叫做连续时间的马尔科夫链。原创 2017-04-23 07:10:42 · 1194 阅读 · 0 评论 -
torch运行synthesis的代码可能会遇到的问题及解决方案
如果想用cuda,一定要先装!!!!1. 安装 cuda 和 cudnnhttp://blog.csdn.net/sun7_she/article/details/68946966http://blog.csdn.net/iotlpf/article/details/54175064想要运行代码,可能会遇到的问问题及解决方法:2:安装 loadcaffe 会原创 2017-03-30 16:17:30 · 925 阅读 · 0 评论 -
DL学习笔记【12】caffe参数调节-数据层
转自:http://www.cnblogs.com/denny402/p/5070928.html要运行caffe,需要先创建一个模型(model),如比较常用的Lenet,Alex等, 而一个模型由多个屋(layer)构成,每一屋又由许多参数组成。所有的参数都定义在caffe.proto这个文件中。要熟练使用caffe,最重要的就是学会配置文件(prototxt)的编写。转载 2016-07-26 13:46:54 · 1489 阅读 · 2 评论 -
DL学习笔记【11】caffe参数调节-loss层
转自:http://www.cnblogs.com/lutingting/p/5240688.html在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍loss层 1. loss层总述下面首先给出全转载 2016-07-26 13:38:18 · 3354 阅读 · 0 评论 -
DL学习笔记【10】caffe参数调节-CNN常用参数记录
转自:http://www.cnblogs.com/lutingting/p/5240688.html1. epoch在代码中经常见到n_epochs这个参数,该参数到底是什么意思呢?答案如下:在一个epoch中,所有训练集数据使用一次one epoch = one forward pass and one backward pass of all转载 2016-07-26 13:29:11 · 3693 阅读 · 0 评论 -
DL学习笔记【9】caffe参数调节-全连接层
转自:http://www.cnblogs.com/lutingting/p/5240714.html在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍全连接层该层是对元素进行wise to wise的运算1.转载 2016-07-26 13:27:35 · 4214 阅读 · 0 评论 -
DL学习笔记【8】caffe参数调节-激活函数层
转自:http://www.cnblogs.com/lutingting/p/5240688.html在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍激活函数层 1. 激活函数层总述下面首先给出激活函转载 2016-07-26 13:25:30 · 934 阅读 · 0 评论 -
DL学习笔记【7】caffe参数调节-Pooling层
转自:http://www.cnblogs.com/lutingting/p/5240677.html在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍pooling层1. Pooling层总述下面首先给出转载 2016-07-26 13:23:34 · 6759 阅读 · 0 评论 -
DL学习笔记【6】caffe参数调节-卷积层(convolution)
转自:http://www.cnblogs.com/lutingting/p/5240629.html在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍卷积层参考1. 卷积层总述下面首先给出卷积层的结构转载 2016-07-26 13:13:59 · 8650 阅读 · 2 评论 -
DL学习笔记【4】caffe+win10+VS2013+cuda6.5+python安装过程
首先,按照这个教程,一步一步安装~http://blog.csdn.net/happynear/article/details/45372231当然,默认在这之前已经安装过VS2013+cuda6.5+Anaconda2了为了防止有些同学(比如:我)偷懒(懒得看教程就随意跳过几步,这是绝对不可以的!!!一把辛酸泪。。。),我可以再重复写一下步骤1. 下载caff原创 2016-07-22 21:34:57 · 3798 阅读 · 0 评论 -
DL学习笔记【3】keras安装使用注意事项
keras超级简易版教程:https://github.com/wxs/keras-mnist-tutorial/blob/master/MNIST%20in%20Keras.ipynb你只要保证你电脑上没有安装神马乱七八糟的东西,按照这里边的命令,一句一句敲到terminal和后边用到的网页中去,一切顺利得不要不要的~但是本人的电脑之前装过python,这就出问题了当原创 2016-05-18 14:44:06 · 1058 阅读 · 0 评论 -
DL学习笔记【13】caffe参数调节-命令行
转自:http://www.cnblogs.com/denny402/p/5076285.htmlcaffe的运行提供三种接口:c++接口(命令行)、python接口和matlab接口。本文先对命令行进行解析,后续会依次介绍其它两个接口。caffe的c++主程序(caffe.cpp)放在根目录下的tools文件夹内, 当然还有一些其它的功能文件,如:convert_im转载 2016-07-26 15:17:57 · 961 阅读 · 0 评论 -
kl距离(散度)&l1范数区别
详细讲解 l0 l1 l2 范数,稀疏,规范化http://blog.csdn.net/zouxy09/article/details/24971995http://ufldl.stanford.edu/wiki/index.php/稀疏编码http://www.cnblogs.com/tornadomeet/archive/2013/04/13/3018393.html原创 2016-08-24 16:32:16 · 5062 阅读 · 0 评论 -
DL学习笔记【14】Mac10.11.6+torch7+itorch
Mac创建虚拟环境再安装会使各个框架或者程序的安装包比较独立,互不影响,很实用,来一个教程:http://www.marinamele.com/2014/05/install-python-virtualenv-virtualenvwrapper-mavericks.html先来一个无脑安装:以下无脑安装的4个步骤参考:http://blog.rainy.im/2016原创 2016-08-03 15:38:32 · 4300 阅读 · 0 评论 -
DL学习笔记【19】nn包中的各位Modules
参考网址:https://github.com/torch/nn/blob/master/doc/module.md#nn.Module.updateOutputModule[output] forward(input)提供输入,计算输出和UpdateOutput的关系,可能是包含【***********不需要记录么?】—————原创 2017-03-19 16:57:28 · 1455 阅读 · 0 评论 -
DL学习笔记【20】nn包中的各位Simple layers
来自教程:https://github.com/torch/nn/blob/master/doc/simple.md这个还是比较容易明白,只简单写一下咯Parameterized ModulesLinear 公式如下:y = Ax + bSparseLinear 稀疏的,输入的x与普通的有所不同:x = torch.Tensor({原创 2017-03-19 22:11:34 · 853 阅读 · 1 评论 -
关于神经网络的一些有用的网站(不定时更新)
RBF径向基和RBF网络http://www.cnblogs.com/yymn/p/4537992.html原创 2017-01-12 19:58:21 · 965 阅读 · 0 评论 -
生成对抗网络(GAN)
这篇文章找到了原始gan的缺点并对其改进。https://zhuanlan.zhihu.com/p/25071913?from=timeline&isappinstalled=0这是wgan的源码实现https://github.com/martinarjovsky/WassersteinGAN简单来说,gan包含一个生成器和一个判别器。生成器用于生成与真实图片原创 2017-02-28 09:31:30 · 4902 阅读 · 2 评论 -
DL学习笔记【16】Mac 10.11.6+python2+tensorflow
这是第一百篇文章,mark一下咯。tensorflow安装教程http://blog.csdn.net/sydpz1987/article/details/51175359傻瓜式安装教程如下:安装虚拟环境,当时我已经安装过虚拟环境了,所以这一步就省略掉了。并没有测试这两条语句是否需要。$ sudo easy_install pip$ sudo p原创 2017-03-01 14:09:35 · 531 阅读 · 0 评论