自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

诗酒年华

写给自己~

  • 博客(14)
  • 资源 (1)
  • 收藏
  • 关注

原创 vnc分辨率修改

最近一直在用putty或Xshell登录linux服务器,今天用ultraVNC Viewer登录服务器时发现自己的vnc服务器挂掉了。在此,整理下vnc操作的基本命令。查看vnc进程:ps -ef | grep vnc 该命令可以列出当前系统上所有用户vnc界面的端口号,分辨率等信息。 我们要用到的只是端口号。杀掉自己vnc端口对应的进程vncserver -kill :43 我的端口号是4

2015-04-22 21:26:40 13032

原创 深度学习调参备忘(一)

CNNs调参备忘:在所有深度网络中,卷积神经网和图像处理最为密切相关,卷积网络在很多图片分类竞赛中都取得了很好的效果,但卷积网调参过程很不直观,很多时候都是碰运气。为此,卷积网络发明者Yann LeCun的得意门生Matthew Zeiler在2013年专门写了一篇论文,阐述了如何用反卷积网络可视化整个卷积网络,并进行分析和调优。 Matthew Zeiler:http://www.matthew

2015-04-22 15:59:54 2072

转载 深度学习大牛间的关系

转载自dudong的博客:http://blog.sina.com.cn/s/blog_5980285201015311.html Geoffrey Hinton Michael Jordan Yann LeCun Yoshua Bengio这几个人是深度学习研究领域的大牛,经常出现在相关的论文中 其实他们之间有着千丝万缕的联系Yann LeCun是Geoffrey Hinton的博士 Y

2015-04-22 15:33:35 6463

原创 python学习笔记(一)

数组操作1.python中数据类型转换: 将数组中的float类型的元素全部变为int型的,train_labels.astype(numpy.int)2.numpy.ndarray数组合并np.shape(train_data1)=(10000,3072) np.shape(train_data2)=(10000,3072) train_data=np.vstack((train_data1

2015-04-16 18:32:00 1474 1

原创 caffe学习笔记(三)ImageNet实例

个人认为,相对于MNIST和CIFAR-10来说,ImageNet实例或许是caffe中最具有学习价值的实例。通过该实例的学习,你可以用caffe在自己的数据集上搭建自己的模型。当然,如果你没有那么多的时间和精力去重新训练一个ImageNet网络,只是想要一个训练好的现成的模型,那么你也可以去官网上的model zoo部分找到你所要的。caffe 中打包好了几个训练好的BVLC模型,你可以‘开箱即用

2015-04-16 17:46:19 10945 6

原创 caffe之CIFAR-10与dropout

CIFAR-10实例 caffe中的CIFAR-10实例重现了Alex Krizhevsky的cuda-convnet中的结果,具体的模型定义、参数、训练步骤等都是按照cuda-convnet中的进行设置的。不过,该实例仍是半成品,目前官网上介绍的只是quick train,对于进一步解释网络细节和训练选择的full training还未完工。 cuda-convnet是Alex Krizhev

2015-04-13 17:04:19 6410

原创 caffe学习笔记(二)--MNIST实例

LeNet MNIST实例 MNIST手写数字数据库是另外一个更大的手写体数据库NIST的子集,现在已成为图像识别领域用来测试自己的算法的一个基准数据库,它的训练集由60000张手写数字图片样本组成,测试集包含了10000个样本,其中所有的图片样本都经过了尺寸标准化和中心化,图片的大小固定为28*28。 据说该数据集中的图片是由美国中学生手写的数字,所以非常贴近实际,如果你的模型在该测试集上的测

2015-04-10 20:38:22 14047 3

原创 caffe 学习笔记(一)

caffe是一个深度学习的开源框架,是贾扬清在伯克利大学读博时开发的,现在由伯克利大学的视觉学习中心BVLC(the Berkeley Vision and Learning Center)负责维护。 ————————————————————— 在介绍caffe前,先简单介绍下贾扬清。http://daggerfs.com/ 贾扬清目前在google从事计算机视觉方面的工作,在UC Be

2015-04-08 22:58:45 5637

原创 深度学习介绍(六)趣闻

说好的介绍Yann LeCun的,跑题跑了大半篇,罪过罪过,回来接着介绍Yann LeCun。 实际上,深度学习从上世纪80年代开始并没有受到重视,一直到90年代才有所好转,但是LeCun一直坚持了下来,正如深度学习运动核心人物Geoffrey Hinton所说,“是LeCun高举着火炬,冲过了最黑暗的时代。”微软的Leon Bottou是LeCun早期合作人之一,他说道,“没有人比LeCun更能

2015-04-08 20:00:57 1303

原创 深度学习介绍(五)pooling

在通过卷积获得了特征 (features) 之后,下一步我们希望利用这些特征去做分类。理论上讲,人们可以用所有提取得到的特征去训练分类器,例如 softmax 分类器,但这样做面临计算量的挑战。例如:对于一个 96X96 像素的图像,假设我们已经学习得到了400个定义在8X8输入上的特征(即400个feature map,每个feature map的size为8*8),每一个特征和图像卷积都会得到一

2015-04-08 19:52:07 5725

原创 深度学习介绍(四)卷积操作

接下来介绍一下,CNNs是如何利用空间结构减少需要学习的参数数目的 如果我们有一张1000x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都与图像的每一个像素点相连),这样就有1000x1000x1000000=10^12个连接,也就是10^12个权值参数。然而图像的空间联系是局部的,就像人是通过一个局部的感受野去感受外界图像一样,每一个神经元都不需要对全局图像做感受

2015-04-08 19:36:47 16972 2

原创 深度学习介绍(三)LeNet

卷积神经网络 卷积神经网络(CNNs)是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。卷积网络是为识别二维形状而特殊设计的一种多层感知器,这种网络结构对平移、比例缩放、倾斜或者其它形式的变形具有高度不变性。 CNNs是第一个真正成功训练多层网络结构的学习算法。它利用空间关系减少需要学习的参数数目以提高BP算法的训练性能。CNNs作为一个深度学习架构提出是为了最小化数据的预处理要

2015-04-08 19:28:01 2976

原创 深度学习介绍(二)背景

卷积神经网络背景 LeCun的LeNets深度学习网络可以被广泛应用在全球的ATM机和银行之中,它可以理解支票上写的是什么。但仍然存在很多质疑,LeCun说道,“不知何故,似乎现在还是无法说服计算机视觉领域圈子,他们仍然觉得卷积神经网络没什么价值。”其中部分原因,可能是因为这项技术虽然强大,但是没有人可以理解它为什么如此强大,而且这项技术的内部工作方式仍然是个谜。因此,为了让大家能够更清楚的了解一

2015-04-08 19:12:43 4759

原创 深度学习介绍(一)Yann LeCun

作为人工智能的一种形式,深度学习能够更好地模仿人类大脑。之前还有很多人工智能研究人员还在公开对该领域嗤之以鼻,而仅仅过了几年,从谷歌、微软,到百度、Twitter,深度学习已经开始蔓延到整个商业科技世界了。 很多科技巨头正在挖掘一种特殊的深度学习,他们称之为卷积神经网络(convolutional neural networks),旨在构建更加智能的互联网服务,比如可以自动理解语言和识别图像。在谷

2015-04-08 19:02:25 8038

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除