![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deep Learning
pandamax
好好学习,天天向上
展开
-
浅读(二)backprob.m的代码解读
% Version 1.000%% Code provided by Ruslan Salakhutdinov and Geoff Hinton%% Permission is granted for anyone to copy, use, modify, or distribute this% program and accompanying programs and do原创 2016-11-16 20:48:57 · 701 阅读 · 0 评论 -
BN层 LN层 WN层作用介绍
一:BN层李宏毅视频讲解BN(Batch Normalization)层的作用(1)加速收敛(2)控制过拟合,可以少用或不用Dropout和正则(3)降低网络对初始化权重不敏感(4)允许使用较大的学习率 链接:https://www.zhihu.com/question/38102762/answer/85238569来源:知乎1. What is BN?顾名思义,batch normalizat...转载 2017-06-02 14:36:38 · 25917 阅读 · 0 评论 -
深度学习常用优化算法
深度解读最流行的优化算法:梯度下降 【本文转载自机器之心 翻译:沈泽江 原文地址:http://www.jiqizhixin.com/article/1857】梯度下降法,是当今最流行的优化(optimization)算法,亦是至今最常用的优化神经网络的方法。本文旨在让你对不同的优化梯度下降法的算法有一个直观认识,以帮助你使用这些算法。我们首先会考察梯度下降法的各种变体,然后会简要转载 2017-06-03 16:51:36 · 24952 阅读 · 0 评论 -
清华大学开源软件镜像站
|Tsinghua Open Source Mirror :https://mirror.tuna.tsinghua.edu.cn/镜像列表 NameLast UpdateAOSP2017-06-20 17:10点击打开链接AUR-点击打开链接CRAN2017-06-20 15:27CTAN20转载 2017-06-20 18:29:49 · 24540 阅读 · 0 评论 -
卷积与反卷积
参考地址: 点击打开链接 https://buptldy.github.io/2016/10/29/2016-10-29-deconv/ 点击打开链接https://www.zhihu.com/question/43609045转载 2017-09-05 17:09:12 · 606 阅读 · 0 评论 -
DeconvNet:Learning Deconvolution Network for Semantic Segmentation
原文:http://blog.csdn.net/u014451076/article/details/71123330Learning Deconvolution Network for Semantic Segmentation ICCV2015 http://cvlab.postech.ac.kr/research/deconvnet/ https://devhub.io/转载 2017-09-06 16:58:26 · 1043 阅读 · 0 评论 -
全卷积网络实现语义分割综述
如需转载,请标明出处。翻译 2017-09-12 09:47:47 · 725 阅读 · 0 评论 -
各种图片格式介绍
转载:http://blog.csdn.net/smallcaptain2009/article/details/46848967一、BMP图像文件格式 BMP是一种与硬件设备无关的图像文件格式,使用非常广。它采用位映射存储格式,除了图像深度可选以外,不采用其他任何压缩,因此,BblP 文件所占用的空间很大。BMP文件的图像深度可选lbit、4bit、8bit及24b转载 2017-11-07 16:06:27 · 718 阅读 · 0 评论 -
十个深度学习开源框架
原文地址:http://www.36dsj.com/archives/37254本周早些时候Google开源了TensorFlow(GitHub),此举在深度学习领域影响巨大,因为Google在人工智能领域的研发成绩斐然,有着雄厚的人才储备,而且Google自己的Gmail和搜索引擎都在使用自行研发的深度学习工具。无疑,来自Google军火库的TensorFlow必然是开源深度学习软件转载 2017-04-26 16:04:29 · 303 阅读 · 0 评论 -
Recurrent Neural Networks
原文地址:http://www.jianshu.com/p/9dc9f41f0b29Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。传统的神经网络并不能做到这点,转载 2017-05-11 13:58:56 · 301 阅读 · 0 评论 -
浅读(三)mnistdeepauto.m的代码解读
% Version 1.000%% Code provided by Ruslan Salakhutdinov and Geoff Hinton %% Permission is granted for anyone to copy, use, modify, or distribute this% program and accompanying programs and原创 2016-11-16 20:53:49 · 937 阅读 · 1 评论 -
浅读——reducing the dimensionality of data with neural networks(一)
最近在看DBN(深度信念网络)的相关知识以及代码,代码是Hition 的文章reducing the dimensionality of data with neural networks的代码部分。利用一点间歇时间把自己的学习体会总结一下,也不是太全。也结合了其他博主的文章,写一点自己的认识。也是刚刚学习不久,也会有些问题,望共同进步。RBM模型在原理上的实现和代码实现还是有所不同。其基本框架如原创 2016-11-03 09:21:46 · 1864 阅读 · 1 评论 -
翻译:结合卫星图像和机器学习预测贫穷
结合卫星图像和机器学习预测贫穷(翻译)将自己最近读的文献翻译整理一下,一方面和大家分享,另一方面便于自己以后回头来看看。关于经济生计的可靠的数据在发展中国家依然缺乏,这妨碍了去研究这些结果并制定出改进它们的政策等工作。我们这里展示了一种的精确,低廉和可升级的方法,即基于高分辨率卫星图像来估计消费开支和财产财富。通过使用来自五个非洲国家国家(尼日利亚、坦桑尼亚、乌干达、马拉维和卢旺达)的原创 2017-01-08 20:49:57 · 2543 阅读 · 1 评论 -
GAN系列文献笔记
GAN(生成对抗网络) 参考文献:[1] Goodfellow Ian, Pouget-Abadie J, Mirza M, et al. Generative advers...原创 2017-01-16 10:38:47 · 2947 阅读 · 0 评论 -
与深度学习相关的框架Project
原文:https://github.com/aymericdamien/TopDeepLearning项目名称Stars项目介绍TensorFlow29622使用数据流图计算可扩展机器学习问题。Caffe11799Caffe是一个高效的开源深度学习框架。Neural Style10148Torch实转载 2017-02-24 08:49:07 · 1486 阅读 · 0 评论 -
Adam:大规模分布式机器学习框架
原文地址:http://suanfazu.com/t/adam/9828Adam关于Adam的报道,参见[3].本片博客是阅读论文所得的笔记,论文中得配图均来自与论文,论文名称见参考文献[1].Adam是微软研究院的深度学习项目,该项目仍然是应用卷积神经网络进行图像分类,效果提高了很多,但从我读论文的角度看,adam更偏向于分布式框架的实现,而非理论的创新,自Alex和Hint转载 2017-03-05 10:25:08 · 674 阅读 · 0 评论 -
最小二乘GAN
多亏建立了GAN训练的一般框架的F-GAN,最近我们看到了与原始GAN不同的GAN修改,学习除了Jensen-Shannon差异(JSD)之外的其他度量。 其中一个修改是Wasserstein GAN(WGAN),它用Wasserstein距离替换JSD。 它的工作奇妙好,甚至作者声称它治疗模式崩溃问题,并为GAN提供有意义的损失函数。虽然实现是相当直接,但WGAN背后的翻译 2017-03-13 15:34:24 · 2772 阅读 · 0 评论 -
RNN递归神经网络
原文地址http://blog.csdn.net/aws3217150在此之前,我们已经学习了前馈网络的两种结构——多层感知器和卷积神经网络,这两种结构有一个特点,就是假设输入是一个独立的没有上下文联系的单位,比如输入是一张图片,网络识别是狗还是猫。但是对于一些有明显的上下文特征的序列化输入,比如预测视频中下一帧的播放内容,那么很明显这样的输出必须依赖以前的输入, 也就是说网络必须拥有转载 2017-04-19 11:29:58 · 1176 阅读 · 0 评论 -
关于“胶囊间的动态路由”的资料整理
Hinton大神的论文:点击打开链接 Dynamic Routing Between Capsules 的两篇优质中文翻译雷锋网:点击打开链接机器之心: 点击打开链接原创 2017-10-30 09:19:14 · 590 阅读 · 0 评论