深度学习
xiaopihaierletian
这个作者很懒,什么都没留下…
展开
-
Generative Adversarial Nets(译)
仅供参考,如有翻译不到位的地方敬请指出。论文地址:Generative Adversarial Nets摘要我们提出了一个通过对抗过程估计生成模型的新框架,在新框架中我们同时训练两个模型:一个用来捕获数据分布的生成模型G,和一个用来估计样本来自训练数据而不是G的概率的判别模型D,G的训练过程是最大化D产生错误的概率。这个框架相当于一个极小化极大的双方博弈。在任意函数G 和D翻译 2017-07-29 19:50:38 · 463 阅读 · 0 评论 -
Batch Normalization 简单理解
1:背景由于在训练神经网络的过程中,每一层的 params是不断更新的,由于params的更新会导致下一层输入的分布情况发生改变,所以这就要求我们进行权重初始化,减小学习率。这个现象就叫做internal covariate shift。2:idea思想虽然可以通过whitening来加速收敛,但是需要的计算资源会很大。而Batch Normalizationn的思转载 2017-05-05 19:31:02 · 1211 阅读 · 0 评论 -
目前看到的最好的RNN、LSTM、GRU博客:Understanding LSTM Networks(翻译)
原文:http://www.jianshu.com/p/9dc9f41f0b29本文译自 Christopher Olah 的博文Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的转载 2017-05-05 16:46:10 · 2188 阅读 · 0 评论 -
目前看到的最好的RNN、LSTM、GRU博客:Understanding LSTM Networks
原文:http://colah.github.io/posts/2015-08-Understanding-LSTMs/Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, yo转载 2017-05-05 16:05:07 · 756 阅读 · 0 评论 -
LSTM对比GRU:Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling
先说结论:不论是machine translation还是music datasets、speech signal modeling,GRU和LSTM的performance差别不大,但GRU往往比LSTM训练时间短、收敛快。原文:http://blog.csdn.net/meanme/article/details/48845793转载 2017-05-05 16:47:54 · 742 阅读 · 0 评论 -
RNN的四种变形:Attention and Augmented Recurrent Neural Networks【译文】
觉得总结的不错,所以记录一下。原文:http://distill.pub/2016/augmented-rnns/译文:http://geek.csdn.net/news/detail/106118递归神经网络是一种主流的深度学习模型,它可以用神经网络模型来处理序列化的数据,比如文本、音频和视频数据。它能把一个序列浓缩为抽象的理解,以此来表示转载 2017-05-05 16:53:07 · 773 阅读 · 0 评论 -
【算法比赛】主流机器学习/深度学习模型代码模板
摘要最近又开始混乱且忙碌的科研学习,双十一过后,钱包空了,就再不想买买买了,打比赛的议程又提上来了,首先给大家分享两个非常非常非常好的repo,昨天晚上才发现的,又请教了一个博士点经验,踏踏实实准备,浮躁的心就能沉淀下来~更新最新最全的算法比赛信息:https://github.com/iphysresearch/DataSciComp各种比赛的top解决方案:https://github.com/Smilexuhc/Data-Competition-TopSolution一定要多交流多交原创 2020-10-12 16:28:44 · 540 阅读 · 0 评论 -
成功解决OSError: Unable to open file (truncated file: eof = 8388608, sblock->base_addr = 0, stored_eof =
解决问题OSError: Unable to open file (truncated file: eof = 8388608, sblock->base_addr = 0, stored_eof = 257557808)解决思路OS错误:无法打开文件(截断的文件:eof=8388608,sblock->base_addr=0,stored_eof=257557808)解决...原创 2020-01-02 08:54:33 · 1656 阅读 · 0 评论 -
Going deeper with convolutions-GoogLeNet(阅读)
本篇论文是针对ImageNet2014的比赛,论文中的方法是比赛的第一名,包括task1分类任务和task2检测任务。本文主要关注针对计算机视觉的高效深度神经网络结构,通过改进神经网络的结构达到不增加计算资源需求的前提下提高网络的深度,从而达到提高效果的目的。目的:提升深度神经网络的性能。 一般方法带来的问题:增加网络的深度与宽度。带来两个问题:(1)参原创 2017-07-24 14:02:46 · 1361 阅读 · 0 评论 -
tensorflow学习笔记十七:tensorflow官方文档学习 Convolutional Neural Networks
本教程是为TensorFlow高级用户和承担的专业知识和经验,在机器学习。Overviewcifar-10分类是机器学习中一种常见的基准问题。问题是分类RGB 32x32像素的图像的10个类别:airplane, automobile, bird, cat, deer, dog, frog, horse, ship, and truck.For more原创 2017-07-10 08:57:13 · 536 阅读 · 0 评论 -
tensorflow学习笔记十7:tensorflow官方文档学习 How to Retrain Inception's Final Layer for New Categories
现代物体识别模型有数以百万计的参数,可能需要数周才能完全训练。学习迁移是一个捷径,很多这样的工作,以充分的训练模式的一组类ImageNet技术,并从现有的权重进行新课。在这个例子中,我们将从头再训练最后一层,而留下所有其他未触及。在你能看到本文对咖啡因的更多信息。虽然它不如一个完整的训练运行,这是令人惊讶的有效的许多应用程序,并可以运行在三十分钟的笔记本电脑,而不需要GPU。本教程将向您演示如原创 2017-07-10 08:56:37 · 654 阅读 · 1 评论 -
Tensorflow实现卷积神经网络
如果不明白什么是卷积神经网络,请参考:计算机视觉与卷积神经网络 下面基于开源的实现简单梳理如何用tensorflow实现卷积神经网络.实现卷积神经网络加载数据集# 加载数据集import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.转载 2017-07-10 08:55:20 · 491 阅读 · 0 评论 -
深度学习-LeCun、Bengio和Hinton的联合综述(下)
摘要:Yann LeCun、Yoshua Bengio和Geoffrey Hinton发表于《Nature》的综述文章“Deep Learning”中文译文的下半部分,详细介绍了CNN、分布式特征表示、RNN及其不同的应用,并对深度学习技术的未来发展进行了展望。【编者按】三大牛Yann LeCun、Yoshua Bengio和Geoffrey Hinton在深度学习领域的地位无人不知。转载 2017-03-15 10:50:51 · 1146 阅读 · 0 评论 -
CS231n课程笔记翻译:卷积神经网络笔记
https://zhuanlan.zhihu.com/p/22038289http://cs231n.github.io/convolutional-networks/卷积层卷积层是构建卷积神经网络的核心层,它产生了网络中大部分的计算量。概述和直观介绍:首先讨论的是,在没有大脑和生物意义上的神经元之类的比喻下,卷积层到底在计算什么。卷积层的参转载 2017-05-05 16:55:31 · 2030 阅读 · 0 评论 -
Batch Normalization 学习笔记
作者在文章中说应该把BN放在激活函数之前,这是因为Wx+b具有更加一致和非稀疏的分布。但是也有人做实验表明放在激活函数后面效果更好。这是实验链接,里面有很多有意思的对比实验:https://github.com/ducha-aiki/caffenet-benchmarkhttp://blog.csdn.net/hjimce/article/details/50866313转载 2017-05-05 16:56:33 · 635 阅读 · 0 评论 -
深度学习(一)深度学习学习资料
原文地址:http://blog.csdn.net/hjimce/article/details/45421595作者:hjimce一、学习清单1、综合类(1)收集了各种最新最经典的文献,神经网络的资源列表:https://github.com/robertsdionne/neural-network-papers 里面包含了深度学习领域经典、以及最新最牛逼的转载 2017-06-29 15:38:28 · 389 阅读 · 0 评论 -
Tensorflow入门-实现神经网络
学习tensorflow一段时间了,感觉非常的好用,在使用时,有时候最重要的是想好神经网络的结构,这样就可以随意的在神经网络中加如隐含层了,特别主要的是矩阵的维度相乘的问题,下面将使用tensorflow实现神经网络,做一下自己的理解.实现无隐含层的神经网络下面以手写数字识别的例子作为说明.读入数据import tensorflow as tffrom tensorf转载 2017-06-25 21:23:17 · 393 阅读 · 0 评论 -
Tensorflow实现卷积神经网络
如果不明白什么是卷积神经网络,请参考:计算机视觉与卷积神经网络 下面基于开源的实现简单梳理如何用tensorflow实现卷积神经网络.实现卷积神经网络加载数据集# 加载数据集import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read原创 2017-06-27 18:55:34 · 407 阅读 · 0 评论 -
AlexNet原理及Tensorflow实现
AlexNet的出现点燃了深度学习的热潮,下面对其进行介绍,并使用tensorflow实现.1. AlexNet网络结构图片来源:AlexNet的论文整个网络有8个需要训练的层,前5个为卷积层,最后3层为全连接层.第一个卷积层输入的图片大小为:224*224*3第一个卷积层为:11*11*96即尺寸为11*11,有96个卷积核,步长为4,卷积层后跟ReLU,原创 2017-06-27 18:56:21 · 631 阅读 · 0 评论 -
深度学习-LeCun、Bengio和Hinton的联合综述(上)
摘要:最新的《Nature》杂志专门为“人工智能 + 机器人”开辟了一个专题 ,发表多篇相关论文,其中包括了LeCun、Bengio和Hinton首次合作的这篇综述文章“Deep Learning”。本文为该综述文章中文译文的上半部分。【编者按】三大牛Yann LeCun、Yoshua Bengio和Geoffrey Hinton在深度学习领域的地位无人不知。为纪念人工智能提出60周年转载 2017-03-15 09:44:37 · 2067 阅读 · 0 评论