自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 资源 (1)
  • 收藏
  • 关注

原创 苹果笔记本设置MAC地址和ip地址

由于学校给每个实验室分配固定的IP和上网帐号,用苹果笔记本通过转街头链接网线需要设置接口的MAC地址、ip地址等。下面一一详细介绍:一、设置苹果笔记本(mac pro)的 MAC地址。第一步:首先先在终端输入如下指令,查看机器现有的MAC地址:MacBook-Pro:~ wxw$ networksetup -listallhardwareports输出:Hardware Por

2016-11-26 11:40:32 21202 3

转载 caffe中各层定义

Vision LayersConvolutionPoolingLocal Response Normalization LRNim2colLoss LayersSoftmaxSum-of-Squares EuclideanHinge MarginSigmoid Cross-EntropyInfogainAccuracy and Top-kActivation Neuron

2016-11-25 13:33:21 14736 1

转载 caffe中lstm的实现以及lstmlayer的理解

本文地址:http://blog.csdn.net/mounty_fsc/article/details/53114698本文内容:本文描述了Caffe中实现LSTM网络的思路以及LSTM网络层的接口使用方法。本文描述了论文《Long-term recurrent convolutional networks for visual recognition and descrip

2016-11-25 11:18:54 17210 5

转载 openmp与openmpi区别

。openmp比较简单,修改现有的大段代码也容易。基本上openmp只要在已有程序基础上根据需要加并行语句即可。而mpi有时甚至需要从基本设计思路上重写整个程序,调试也困难得多,涉及到局域网通信这一不确定的因素。不过,openmp虽然简单却只能用于单机多CPU/多核并行,mpi才是用于多主机超级计算机集群的强悍工具,当然复杂。 (1)MPI=message passing inte

2016-11-24 13:59:06 16130 1

转载 LSTM

循环神经网络(RNN)点击打开链接人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里的每一个场景进行分类。传统的神经网络不能够基于前面的已分类场景来推断接下来的

2016-11-22 18:13:37 5525 1

转载 协方差矩阵

一、统计学的基本概念统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述:均值:标准差:方差:均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0, 8, 12, 20]和[8, 9, 11, 12],

2016-11-21 15:35:36 612

转载 mAP介绍

作者:水哥链接:https://www.zhihu.com/question/41540197/answer/91698989来源:知乎著作权归作者所有,转载请联系作者获得授权。在图像中,尤其是分类问题中应用AP,是一种评价ranking方式好不好的指标:举例来说,我有一个两类分类问题,分别5个样本,如果这个分类器性能达到完美的话,ranking结果应该是+1,+1,+

2016-11-21 10:24:39 713

转载 数据处理-Batch Normalization

今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节。  这次先讲Google的这篇《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》,主要是因为这里面的思想比较有普适性,

2016-11-20 12:12:43 1318

转载 激活函数

深度学习中的激活函数导引我爱机器学习(52ml.net)2016年8月29日0作者:程程链接:https://zhuanlan.zhihu.com/p/22142013来源:知乎著作权归作者所有,已联系作者获得转载许可。深度学习大讲堂致力于推送人工智能,深度学习方面的最新技术,产品以及活动。请关注我们的知乎专栏!摘要近年来,深度学习在计算机视觉领

2016-11-18 22:12:13 9765

转载 深度神经网络结构以及Pre-Training的理解

深度神经网络结构以及Pre-Training的理解Logistic回归、传统多层神经网络1.1 线性回归、线性神经网络、Logistic/Softmax回归线性回归是用于数据拟合的常规手段,其任务是优化目标函数:h(θ)=θ+θ1x1+θ2x2+....θnxnh(θ)=θ+θ1x1+θ2x2+....θnxn线性回归的求解法通常为两种:①解优化多元一次

2016-11-18 15:28:50 1965

转载 正则化方法:防止过拟合,提高泛化能力

正则化方法:防止过拟合,提高泛化能力  在机器学习各种模型训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。          

2016-11-18 14:48:00 3214

转载 深度学习中防止过拟合的方法

在深度学习中,当数据量不够大时候,常常采用下面4中方法:1. 人工增加训练集的大小. 通过平移, 翻转, 加噪声等方法从已有数据中创造出一批"新"的数据.也就是Data Augmentation2. Regularization. 数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大. 通过在Loss Function 后面加上正则项可以抑制过拟合的产生. 缺点是引

2016-11-18 09:04:06 6691

转载 makefile

makefile很重要      什么是makefile?或许很多Winodws的程序员都不知道这个东西,因为那些Windows的IDE都为你做了这个工作,但我觉得要作一个好的和professional的程序员,makefile还是要懂。这就好像现在有这么多的HTML的编辑器,但如果你想成为一个专业人士,你还是要了解HTML的标识的含义。特别在Unix下的软件编译,你就不能不自己写make

2016-11-16 20:45:15 950

原创 linux下生成静态库和动态库

linux下生成静态库和动态库一、动态库、静态库简介库是写好的现有的,成熟的,可以复用的代码。现实中每个程序都要依赖很多基础的底层库,不可能每个人的代码都从零开始,因此库的存在意义非同寻常。本质上来说库是一种可执行代码的二进制形式,可以被操作系统载入内存执行。库有两种:静态库.a(win 系统下是lib)和动态库.so(win 系统下是.dll)。所谓静态、动态是指链接。回顾一下,

2016-11-09 22:25:46 8505 5

基于无线通讯基站的室内三维定位问题的代码

TDOA的MATLAB代码,基于无线通讯基站的三维定位问题解决代码

2016-09-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除