自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(83)
  • 收藏
  • 关注

转载 自适应学习速率SGD优化算法

An overview of gradient descent optimization algorithmsNote: If you are looking for a review paper, this blog post is also available as an article on arXiv.Table of contents:Gradient

2017-04-05 11:01:59 5433 3

转载 【卷积神经网络-进化史】从LeNet到AlexNet

【卷积神经网络-进化史】从LeNet到AlexNet本博客是【卷积神经网络-进化史】的第一部分《从LeNet到AlexNet》链接:http://blog.csdn.net/cyh_24/article/details/51440344本系列博客是对刘昕博士的《CNN的近期进展与实用技巧》的一个扩充性资料。主要讨论CNN的发展,并且引用刘昕博士的思路,对CN

2017-04-04 15:36:17 360

转载 cs231n-(5)神经网络-2:设置数据和Loss

cs231n-(5)神经网络-2:设置数据和Loss数据预处理减去均值正则化PCA and Whitening权重初始化全部初始化为零小的随机数校准方差稀疏初始化实际应用批归一化 Batch Normalization正则化L2 regularizationL1 regularizationMax norm constraintsDropoutTheme of noise in forward p...

2018-03-11 17:20:25 603

转载 深度学习之图像的数据增强

在图像的深度学习中,为了丰富图像训练集,更好的提取图像特征,泛化模型(防止模型过拟合),一般都会对数据图像进行数据增强。数据增强,常用的方式,就是旋转图像,剪切图像,改变图像色差,扭曲图像特征,改变图像尺寸大小,增强图像噪音(一般使用高斯噪音,盐椒噪音)等。但是需要注意,不要加入其他图像轮廓的噪音.  对于常用的图像的数据增强的实现,如下: 1 # -*- coding:utf-8 -*- ...

2018-03-09 21:52:11 5191 5

原创 集群上编译caffe时遇到的一些问题

1. 3d-caffe在编译时不能通过,检查报错信息。和能成功编译的BVLC-caffe做对比,发现是3D-caffe/include/caffe/util/cudnn.hpp文件中的setConvolutionDesc{}函数不一样,可能是cudnn版本问题导致编译不成功。BVLC-caffe:https://github.com/BVLC/caffe/blob/master/include/c...

2018-03-09 21:49:22 2925

转载 caffe protobuf介绍

caffe protobuf介绍caffe中的参数管理是通过google于2008年开源的一款非常优秀的序列化反序列化工具——prtotocol buffer实现的。 一、Protobuf消息定义       消息由至少一个字段组合而成,类似于C语言中的结构。每个字段都有一定的格式。      字段格式:限定修饰符① | 数据类型② | 字段名称③ | = | 字段编码值④ | [字段默认值⑤] ...

2018-03-09 16:27:39 350

转载 如何理解空洞卷积(dilated convolution)

论文:Multi-scale context aggregation with dilated convolutions简单讨论下dilated conv,中文可以叫做空洞卷积或者扩张卷积。首先介绍一下dilated conv诞生背景[4],再解释dilated conv操作本身,以及应用。首先是诞生背景,在图像分割领域,图像输入到CNN(典型的网络比如FCN[3])中,FCN先像传统的CNN那样...

2018-03-05 21:08:00 56219 2

转载 深度学习之常见tricks

链接:https://chenrudan.github.io/blog/2015/08/04/dl5tricks.html本文主要给出了在实现网络或者调节代码过程使用的以及平时看一些文章记录下来的一些小技巧,主要针对卷积网络和图像处理。就个人感受,有些技巧还是非常有效的,而且通常可以通过看开源库的一些文档或者源代码来发掘这些内容,最后能够称为自己所用。构造validation

2017-12-20 22:49:04 366

原创 找人要代码的邮件怎么写

http://bbs.malab.cn/forum.php?mod=viewthread&tid=1294在研究中,我们尽量去找那种有公开代码和数据的论文读,因为论文很难把实验的每个细节都描述清楚,只有读了代码,才算真正把算法搞清楚。计算机的大部分论文,都是不公开代码和数据的,这时候就需要写信给作者要。下面提供一下要代码的邮件

2017-11-30 17:48:45 48330 7

转载 CNN和RNN中如何引入BatchNorm

CNN和RNN中如何引入BatchNorm链接:http://blog.csdn.net/malefactor/article/details/51549771Batch Normalization的基本思路和价值在之前一篇文章“Batch Normalization导读”介绍了,此处不赘述,背景知识请参考上面文章。看到BN后,很明显能够看到这等

2017-11-26 16:42:10 954

转载 Batch Normalization导读

Batch Normalization导读链接: http://blog.csdn.net/malefactor/article/details/51476961Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。

2017-11-26 15:28:31 221

转载 解读Batch Normalization

解读Batch Normalization链接: http://blog.csdn.net/shuzfan/article/details/50723877目录目录1-Motivation2-Normalization via Mini-Batch Statistics测试BN before or after Activation

2017-11-26 15:14:07 199

转载 caffe中的batchNorm层(caffe 中为什么bn层要和scale层一起使用)

caffe中的batchNorm层链接: http://blog.csdn.net/wfei101/article/details/78449680caffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它其实做了两件事。1) 输入归一化 x_norm = (x-u)/std, 其中u和std是个累计计算的均值和方

2017-11-26 15:08:44 3171

转载 原始图片中的ROI如何映射到到feature map?

原始图片中的ROI如何映射到到feature map?链接: https://zhuanlan.zhihu.com/p/24780433在SPP-net中的难点一曾提到:ROI如何对应到feature map?这个地方遇到不少坑,看了很多资料都没有太明白,感觉太绕。先数数遇到的坑:《Spatial Pyramid Pooling in Deep

2017-11-26 14:54:41 3175 3

转载 【一图看懂】计算机视觉识别简史:从 AlexNet、ResNet 到 Mask RCNN

链接:https://mp.weixin.qq.com/s/ZKMi4gRfDRcTxzKlTQb-MwMedium 用户 Đặng Hà Thế Hiển 制作了一张信息图示,用专业、简洁并且最有吸引力的方式——信息图示,讲述计算机视觉(CV)物体识别的现代史。不仅总结了CV 6 大关键技术和目标识别的重要概念,整个信息图示从 2012年 AlexNet 赢得了 ILSVRC(Image

2017-11-25 21:29:28 950

转载 常用图像数据集:标注、检索

常用图像数据集:标注、检索http://www.csdn123.com/html/blogs/20131023/87499.htm1.搜狗实验室数据集:http://www.sogou.com/labs/dl/p.html互联网图片库来自sogou图片搜索所索引的部分数据。其中收集了包括人物、动物、建筑、机械、风景、运动等类别,总数高达2,836,535张图片。

2017-11-14 19:16:33 3238

转载 sprintf_s函数用法

http://blog.csdn.net/tigernana/article/details/6916491点击打开链接函数功能:将数据格式化输出到字符串 函数原型:  int sprintf_s(  char *buffer,  size_t sizeOfBuffer,  const char *format [

2017-11-11 15:33:08 13251 1

原创 医学图像处理会议及期刊

医学图像处理:会议:MICCAI、ISBI等期刊:medical image analysis (top 1)         IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING         IEEE TRANSACTIONS ON MEDICAL IMAGING 等

2017-10-19 11:28:18 9757

原创 Caffe使用中遇到的问题

caffe 安装过程中遇到的问题:1. ImportError: dynamic module does not define module export function (PyInit__caffe)可能是因为pythonpath和annaconda 的path发生冲突。当2个都使用(uncommented)时,就会报错如上。只要将anaconda的path注释掉就可以。如下图.

2017-10-14 14:17:53 4839 2

转载 【论文笔记】Fully Convolutional Networks for Semantic Segmentation

链接:http://blog.csdn.net/wonder233/article/details/70675452【Author:Jonathan Long  Evan Shelhamer Publish:CVPR】卷积网络的贡献:改进了全图像分类[19,31,32]在结构化输出的局部任务上取得了进展:目标检测边界框、部位和关键点预测、局部匹配(通信)从粗略到精细推理

2017-09-28 11:44:06 467

转载 交叉验证(Cross Validation)简介

链接:http://blog.csdn.net/holybin/article/details/27185659一、训练集 vs. 测试集在模式识别(pattern recognition)与机器学习(machine learning)的相关研究中,经常会将数据集(dataset)分为训练集(training set)跟测试集(testing set)这两个子集,前者用

2017-09-28 11:42:48 456

转载 交叉验证(Cross Validation)简介

链接:http://blog.csdn.net/holybin/article/details/27185659一、训练集 vs. 测试集在模式识别(pattern recognition)与机器学习(machine learning)的相关研究中,经常会将数据集(dataset)分为训练集(training set)跟测试集(testing set)这两个子集,前者用

2017-09-23 22:47:33 601

转载 神经网络焦点问题的解决方案

链接:http://blog.sina.com.cn/s/blog_4d2f6cf201000cjx.html神经网络是一个非线性回归模型。给定样本,不同的网络结构决定了它的泛化性能。一般来说,网络结构不能过于复杂,因为复杂的网络结构意味着要估计更多的参数,因而模型的精度变差。控制模型复杂程度,可采用选择少的神经元数量或者对系数的收缩。系数收缩的思想来自岭回归(ridge regression

2017-09-23 22:22:32 406

转载 (C++)i++和++i,哪个效率高一些

链接:http://www.cnblogs.com/AndyJee/p/4550391.html在看《程序员面试笔试宝典》时,发现了这样一个问题,书中只给出了++i的效率高一些,但并没有给出具体的解释和说明。在网上找到下面的答案:1、从高级层面上解释++i 是i=i+1,表达式的值就是i本身i++ 也是i=i+1,但表达式的值是加1前的副本,由于要先保存副本

2017-09-13 11:39:18 1239

转载 支持向量机SVM-SMO算法

支持向量机(五)-SMO算法链接:http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html11 SMO优化算法(Sequential minimal optimization)SMO算法由Microsoft Research的John C. Platt在1998年提出,并成为最快的二次规划优化算法,

2017-09-01 10:01:39 330

转载 SVM学习—SMO算法(Sequential Minimal Optimization)

SVM学习——Sequential Minimal Optimization链接:http://www.cnblogs.com/vivounicorn/archive/2011/06/01/2067496.html1、前言        接触SVM也有一段时间了,从理论到实践都有了粗浅的认识,我认为SVM的发展可以划分为几个相对独立的部分,首先是SVM理论本身,包括寻找最大间隔

2017-09-01 09:50:04 3001

转载 机器学习-损失函数

链接:http://www.csuldw.com/2016/03/26/2016-03-26-loss-function/损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包

2017-08-31 10:32:14 272

转载 C++学习心得

C++学习心得1.把C++当成一门新的语言学习;2.看《Thinking In C++》;3.看《The C++ Programming Language》和《Inside The C++ Object Model》,不要因为他们很难而我们自己是初学者所以就不看;4.不要被VC、BCB、BC、MC、TC等词汇所迷惑——他们都是集成开发环境,而我们要学的是一门语言;5.不

2017-08-15 14:21:05 278

转载 Advice for New Graduate Students

Advice for New Graduate Studentshttps://freedom-to-tinker.com/2010/09/27/advice-new-graduate-students/[Ed Felten says: This is the time of year when professors offer advice to new students

2017-08-11 21:46:43 354

转载 How to Do Great Research-Managing Your Advisor

How to Do Great ResearchGrad school survival advice from Nick Feamster and Alex GrayManaging Your AdvisorPosted: August 14, 2013 | Author: Nick Feamster | Filed under: advice, manageme

2017-08-11 21:42:50 676

转载 支持向量机通俗导论(理解SVM的三层境界)

支持向量机通俗导论(理解SVM的三层境界)链接:http://blog.csdn.net/v_july_v/article/details/7624837作者:July 。致谢:pluskid、白石、JerryLead。说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。

2017-08-04 13:53:07 414

转载 通信类会议期刊排名

1.顶级conference and workshops:ACM sigcomm ==mobicom==Hotnets>mobihoc==sigmetrics>Infocom==Sensys==IPSN==ICNP其中==表示约等于。排名依据主要是录取率和开创新领域的大牛大师以及锐气小牛们(e.g. MIT的Hari Balakrishnan, cambridge的 Jon Crowcroft

2017-08-02 20:45:27 10821 1

转载 管理学十大经典定理

管理学十大经典定理一、 素养      蓝斯登原则:在你往上爬的时候,一定要保持梯子的整洁,否则你下来时可能会滑倒。   提出者:美国管理学家蓝斯登。   点评:进退有度,才不至进退维谷;宠辱皆忘,方可以宠辱不惊。     卢维斯定理 :谦虚不是把自己想得很糟,而是完全不想自己。   提出者:美国心理学家卢维斯   点评:如果把自己想得太好,就很容易将别人想

2017-08-02 20:41:09 1324

转载 一些常用的SCI论文句式 (1)

写英文文章经常要重复讲一个说法讲几次,但描述方式不能太祥林嫂,所以备好一些常用句式还是相当有用的。以下的句式是本人在阅读文献过程中亲自整理的,主要来源于Science,Nature,Immunity,JEM,JCI和JI。这些句式都很地道,决不山寨,希望对有需要的朋友有用。热点,广泛关注、研究1.Themechanisms governing the homeostas

2017-08-02 20:20:41 2482

转载 三大牛人看外国文献的方法

1.牛人一(从phd 到现在工作半年,发了12 篇paper, 7 篇first author.)我现在每天还保持读至少2-3 篇的文献的习惯.读文献有不同的读法.但最重要的自己总结概括这篇文献到底说了什么,否则就是白读,读的时候好像什么都明白,一合上就什么都不知道,这是读文献的大忌,既浪费时间,最重要的是,没有养成良好的习惯,导致以后不愿意读文献.1. 每次读完文献 (不管是细读还是粗读

2017-08-02 20:20:01 472

转载 通信类顶级会议及期刊

通信类权威会议,A类会议:本学科最顶尖级水平的国际会议;B类会议:学术水平较高、组织工作成熟、按一定时间间隔系列性召开的国际会议。A类会议(序号不表示优先顺序)序号/英文名称/英文简称/中文名称/备注1    IEEE International Conference on Acoustics, Speech and Signal Processing/ ICASAP/

2017-08-02 20:18:03 34392 4

转载 降采样,过采样,欠采样,子采样,下采样

降采样,过采样,欠采样,子采样,下采样http://blog.sina.com.cn/s/blog_4b146a9c0100sg57.html降采样:2048HZ对信号来说是过采样了,事实上只要信号不混叠就好(满足尼奎斯特采样定理),所以可以对过采样的信号作抽取,即是所谓的“降采样”。 “采样频率从2048HZ到32HZ 每隔64个样本,“??意思呢?降采样的频率怎么是变化

2017-07-31 21:58:32 8538

转载 对 MMSE 估计器与 Kalman 滤波器的理解

对 MMSE 估计器与 Kalman 滤波器的理解通常说 Kalman Filter (KF) 是线性动力学模型下的最优估计器,这一说法应当如何解释?或者更基本的,KF 的理论基础是什么?它和常用的低通滤波器 (LPF) 有什么本质上的差异?本文尝试对这些问题进行简单的说明。KF 的特点KF 与常用低通滤波器的差异一般信号处理常用的滤波器 (如 FIR,

2017-07-29 21:59:01 2703

原创 OFDM中的信道估计Channel Estimation

无线OFDM系统中的信道估计一、OFDM系统通常有相干OFDM系统和非相干OFDM系统之分。1.非相干OFDM系统如果发射端使用差分编码,传输的信息调制到子载波间的变化中,接收端可以使用不需要信道状态信息CSI(Channel State Information)便能够完成解调的非相干差分解调技术,系统接收端可以得到一定的简化。这种方法的最大优点是接收端不需要知道CSI,因

2017-07-25 16:49:51 18968 1

原创 OFDM优缺点

OFDM技术的主要优缺点OFDM除了能够有效抑制和消除由于信道的时延扩展引起的频率选择性衰落、具有较高的频谱利用率和容易实现调制解调外,还存在以下主要优点:1.无线数据业务一般都存在非对称性,即下行链路传输的数据量要远远大于上行链路的数据传输量。无论从用户数据业务要求,还是从无线通信系统自身的要求考虑,都希望物理层支持非对称高速数据传输,而OFDM系统可以很容易地通过设置不同的子载波数目分

2017-07-22 16:02:43 27823

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除