自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 <教材推荐> PRML_模式识别与机器学习

​前两天参加完GMIS_2017全球智能机器峰会,听了很多学术界和工业界的大牛们的精彩分享,后期也会整理视频和PPT,放上来和大家分享。获取最新消息链接:获取最新消息快速通道 - lqfarmer的博客 - 博客频道 - CSDN.NET    目前,机器学习技术最新发展的趋势是什么?借用第四范式首席科学家杨强老师观点,机器学习的发展趋势:    昨天:深度学习技术

2017-05-30 19:12:15 6787 1

原创 获取最新消息快速通道

下方二维码添加关注微信公众号“深度学习与NLP”,即可获得最新消息。

2017-05-30 19:01:30 11970

原创 <纯干货-4> 加州伯克利大学2017年最新深度强化学习视频课程_part1

分享一套关于深度强化学习(Deep Reinforcement Learning,DRL)一套视频课程,这套课程是加州伯克利大学从2017年初,陆续放出的一套关于Deep Reinforcement Learning最新的课程。    今天分享该套课程第一周和第二周的课程内容。为方便大家观看,我直接上传了源视频。因为视频比较大,建议大家在WIFI环境下观看,课程后给出了视频百度云地址,方便

2017-05-26 13:35:17 4053

原创 <深度学习优化策略-4> 基于Gate Mechanism的激活单元GTU、GLU

1Sigmoid和Tanh激活函数及存在问题    深度学习(神经网络)中最先被广泛使用的激活函数是Sigmoid函数和双曲正切激活函数,都是非线性的激活函数,两个激活函数的表达式如下:sigmoid函数:      f(x)= 1 / (1+exp(−x))双曲正切函数:       f(x)= tanh(x)    激活函数的图形如图所示:

2017-05-24 15:21:37 6034

原创 <最新资讯> AlphaGo Vs 柯洁第一局视频分享

去年,Google的围棋机器人AlphGo以3:1的成绩战胜了韩国围棋职业棋手李世石,吸引了人们对人工智能得关注,以互联网为首的众多高新技术企业纷纷加入人工智能革命的浪潮,积极抓住机遇,加大自身在人工智能领域的积累,典型的公司如小米、联想和华为。    一年后的今天,AlphGo与人类职业棋手之间的大战再次打响,AlphaGo将于等级积分排名世界第一的中国棋手柯洁在浙江乌镇举行三次对局,分

2017-05-23 23:17:44 1949

原创 <纯干货-3>Deep Mind Reinforcement learning course Lecture 1_2

今天给大家送上Deep Mind 放出来的Reinforcement learning course视频课程,接下来一段时间也会陆续和大家分享深度强化学习Deep Reinforcement Learning的相关知识,敬请期待。    RL Course by David Silver - Lecture 1- Introduction to Reinforcement Learning

2017-05-22 10:55:04 716

原创 深度学习的发展历史及应用现状

深度学习是人工神经网络的一个分支,具有深度网络结构的人工神经网络是深度学习最早的网络模型。1943年,美国数学家沃尔特·皮茨(W.Pitts)和心理学家沃伦·麦克洛克(W.McCulloch)首次提出了人工神经网络这一概念,并使用数学模型对人工神经网络中的神经元进行了理论建模,开启了人们对人工神经网络的研究 [1]。1949年,著名心理学家唐纳德·奥尔丁·赫布(D. Olding Hebb)给出了

2017-05-22 10:52:50 44380 1

原创 <深度学习优化策略-3> 深度学习网络加速器Weight Normalization_WN

前面我们学习过深度学习中用于加速网络训练、提升网络泛化能力的两种策略:Batch Normalization(Batch Normalization)和Layer Normalization(LN)。今天讨论另一种与它们类似的策略:Weight Normalization(Weight Normalization)。Weight Normalization是Batch Normalizat

2017-05-19 10:06:27 7771

原创 <模型汇总_9> 深度学习网络的表达方式汇总及模型分类方法

人的大脑会对眼睛捕捉到的外界事物进行逐级抽象,逐渐提取出抽象的语义信息,以便为人脑所理解。深度学习从这一科学发现得到启发,通过网络的权值来捕捉外界输入模式的特征,并且通过网络连接方式来组合这些特征从而提取出更加高层特征,采用这种方法逐级从大量的输入数据中学习到对于输入模式有效的特征表示,然后再把学习到的特征用于分类、回归和信息检索。深度学习能够提取输入数据的特征,降低输入数据的维数和复杂度,逼近复

2017-05-18 14:29:04 1814 1

原创 <视频教程-2>生成对抗网络GAN视频教程part6-完整版

生成对抗网络GAN的学习已经持续两周多,今天给大家送上生成对抗网络最后一个部分part6的课程。链接: https://pan.baidu.com/s/1miboNJM 密码: 扫描头像二维码添加关注,回复“gan6”即可获得密码此外,为了方便大家观看,台主把整套视频教程整理到一起了,附上是个视频教程地址:链接: https://pan.baidu.com/s/1eS7piLk

2017-05-16 16:45:31 1114 1

原创 <深度学习-实战2>Convolutional_Seq2Seq的环境搭建及训练

上次分享了FaceBook最近提出的Convolution Seq2Seq模型的一些理论知识,今天跟大家分享一下实际操作经验,    主要包括三个方面内容:1、安装Torch平台,2、配置fairseq环境,3、模型测试与训练。    实验支持:Mac Os/Ubuntu 12+/Centos 7系统都可以,最好拥有GPU支持,安装好CUDA。    台主的实验环境:Cen

2017-05-16 09:50:35 4650 1

原创 <纯干货-2>GAN视频教程part5-DCGAN实战及所有数据

今天给大家分享GAN视频教程part5部分,包括DCGAN实战部分以及所使用的所有数据。话不多说,奉上链接:    链接: https://pan.baidu.com/s/1qYDGp3m    密码: 公众号回复“gan5”    快快去下载吧。更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLea

2017-05-14 16:37:02 1025

原创 <模型汇总-7>基于CNN的Seq2Seq模型-Convolutional Sequence to Sequence Learning

Seq2seq是现在使用广泛的一种序列到序列的深度学习算法,在图像、语音和NLP,比如:机器翻译、机器阅读、语音识别、智能对话和文档摘要生成等,都有广泛的应用。Seq2Seq模由encoder和decoder两个部分来构成,假设模型的训练样本为(X,Y),encoder负责把输入X映射到隐向量Z,再由decoder把Z映射到输出Y。现在大多数场景下使用的Seq2Seq模型基于RNN构成的,虽然取得

2017-05-13 16:20:48 12688 1

原创 fairseq报错-Error installing nn

torch版本太老:升级torch:luarocks install torch安装nn:luarocks install nnokay!

2017-05-11 12:23:23 1143 1

原创 Convolution Sequence to Sequence_Convolution Seq2seq实战问题-Error: Failed installing dependency:

facebook最近推出的Convolution Seq2seq,程序clone下来跑了下,有些问题整理下来:Convolution Seq2seq github 地址:https://github.com/facebookresearch/fairseq本人系统:centos 7 + tesla M40安装:luarocks make rocks/fairseq-cpu-sc

2017-05-11 11:34:21 1710

原创 Centos 7安装torch教程

参考官方指南:http://torch.ch/docs/getting-started.html#_安装非常简单,就是有点耗时:git clone https://github.com/torch/distro.git~/torch --recursivecd ~/torch; bash install-deps;./install.sh添加环境变量:sou

2017-05-11 11:22:23 2242

原创 <纯干货-2>GAN学习视频-part4

今天分享GAN的学习视频part-4,主要讲昨天介绍过的DCGAN的原理和实战,废话不多说,奉上链接和密码:链接: https://pan.baidu.com/s/1bpIkoQr 密码: “公众号回复gan4”   更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关

2017-05-11 09:49:02 856

原创 <模型汇总-6>堆叠自动编码器Stacked_AutoEncoder-SAE

堆叠自动编编码器是深度学习领域常用的一个深度学习模型,由多个自动动编码器串联堆叠构成。堆叠多层自动编码器的目的是为了逐层提取输入数据的高阶特征,在此过程中逐层降低输入数据的维度,将一个复杂的输入数据转化成了一个系列简单的高阶的特征,然后再把这些高阶特征输入一个分类器或者聚类器中进行分类或聚类。1. 自动编码器模型及分类自动编码器(Autoencoders,AE)是一种前馈无返回的神

2017-05-11 09:43:36 10456 1

原创 GAN合集论文下载地址

已将所有GAN相关的论文上传至百度云,感兴趣的朋友可以自行下载。链接: https://pan.baidu.com/s/1nuTKY61 密码: qtpb   更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。

2017-05-10 09:36:18 1640

原创 <模型汇总_5>生成对抗网络GAN及其变体SGAN_WGAN_CGAN_DCGAN_InfoGAN_StackGAN

前面介绍了CNN(Convolutional Neural Network)、BNN(Binarized neural network)、dual-learning NMT和DBN,以及深度学习优化算法Batch Normalization和Layer Normalization。感兴趣的同学可以添加微信公众号“深度学习与NLP”,回复关键词“CNN”、“BNN”、“dual”、“DB

2017-05-10 09:29:54 12360

原创 <优化策略-2>深度学习加速器Layer Normalization-LN

前面介绍了Batch Normalization(BN),公众号菜单栏可以获得文章链接,今天介绍一种和BN类似的深度学习normalize算法Layer Normalization(LN)。LN提出:BN针对一个minibatch的输入样本,计算均值和方差,基于计算的均值和方差来对某一层神经网络的输入X中每一个case进行归一化操作。但BN有两个明显不足:1、高度依赖于mini-bat

2017-05-09 09:54:46 7458 1

原创 <纯干货-2>生产对抗网络GAN视频教程-part3

继续给大家送上生成对抗网络视频教程part3。对Generative Adversarial Network(GAN)感兴趣的同学、希望利用周末充电的同学,快快戳下面的链接获取资源吧。        链接: https://pan.baidu.com/s/1miyUXi4     密码:公众号回复“gan3”    后期台主会陆续放出“深度强化学习DRL”的相关视频教程,陆续推出深

2017-05-08 22:19:30 1921

原创 <模型汇总-5>开山鼻祖-深度信念网络DBN

欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。

2017-05-08 22:11:06 1550

原创 <纯干货-2>生产对抗网络GAN视频教程-part2

继续给大家送上周末福利,生成对抗网络视频教程part2。对Generative Adversarial Network(GAN)感兴趣的同学、希望利用周末充电的同学,快快戳下面的链接获取资源吧。        链接: https://pan.baidu.com/s/1pLNRot9     密码:公众号回复“gan2”    后期台主会陆续放出“深度强化学习DRL”的相关视频教程,

2017-05-06 14:35:50 1106

原创 <纯干货-2>生产对抗网络GAN视频教程-part1

最近正在整理深度学习模型-4:Generative Adversarial Network (GAN)的相关知识,内容比较多,敬请期待。在这之前,先给陆续分几次给大家奉上一套生成对抗网络的学习视频课程,供大家学习。今天奉上视频课程第1-第5节,一起学习,一起进步。    链接: https://pan.baidu.com/s/1qYHdA6C 密码: 公众号回复“gan1”即可获得

2017-05-06 14:34:18 1839

原创 <绝对干货>2017年ICLR视频地址

ICLR是International Conference on Learning Representations的简称,中文翻译为国际学习表征会议。2013年由深度学习的两位大牛Yann LeCun和Yoshua Bengio牵头创办,虽然到今年才创办第五届,但已经被国际学术的研究者们认可,被称为深度学习界顶级会议。2017年ICLR于4月24-26日在法国土伦举行,刚刚结束,今

2017-05-04 09:28:43 954

原创 <深度学习优化策略-1>Batch Normalization(BN)

今天给大家带来深度学习的优化策略篇的第一篇Batch Normalization(BN)。BN可以看做对输入样本的一种约束,最大作用是加速收敛,减少模型对dropout,careful weight initialnization依赖,可以adopt higher learning rate的优势,收敛速度可以提高10倍以上。 问题提出:深度网络参数训练时内部存在协

2017-05-03 21:47:47 2674 1

原创 深度学习视频教程:深度学习进阶《算法与应用》

推荐一套深度学习视频教程,以下是视频部分截图:百度云下载地址:https://pan.baidu.com/s/1nuMsYZB扫描博客头像关注微信公众号“深度学习与NLP”,回复:视频教程即可获得密码

2017-05-02 16:00:04 1926 1

原创 BNN & Dual Learning论文下载地址

https://pan.baidu.com/s/1eRTYOmA更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。

2017-05-02 15:49:22 683

原创 <模型汇总_4>神经翻译模型(NMT)新宠_Adversarial Neural Machine Translation_Adversarial-NMT

前面介绍了牛逼的CNN(Convolutional Neural Network)、深度学习加速神器BNN(Binarized neural network)和深度学习中最贪玩的模型dual-learning NMT,感兴趣的同学可以添加微信公众号“深度学习与NLP”,回复关键词“CNN”、“BNN”或“dual”获取对应文章链接。今天我们讲讲NMT领域的新宠儿Adversarial-

2017-05-01 17:52:39 6913 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除