自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 收藏
  • 关注

原创 纯干货-8 21套深度学习相关的视频教程分享

最近,整理和收集了从2014-2017年,21套深度学习相关的视频教程,覆盖深度学习从理论、在图像、语音以及NLP等各个方面应用,两套深度学习平台Tensorflow使用的教程。需要的朋友可以下载看一下。由于微信文章不能直接添加链接,所有视频教程地址,请下载:百度网盘:https://pan.baidu.com/s/1bpnKM8f密码:公众号回复“mv”部

2017-06-30 15:50:12 2311

原创 纯干货8 吴恩达新书《Machine_Learning_Yearning》_version_5.01分享

最近把ANDREW NG的新书(手稿)《Machine_Learning_Yearning》看了一遍,觉得挺不错的。    整本书短小、精悍,总结了作者多年的工作经验,很多实用的practical guidance,值得借鉴、学习。奉上下载地址:    链接: https://pan.baidu.com/s/1gftIhH5 密码: 公众号回复“wu” 更多深度学习在NLP

2017-06-28 09:15:01 5944 3

原创 模型汇总17 基于Depthwise Separable Convolutions的Seq2Seq模型_SliceNet原理解析

本文接《模型汇总16 各类Seq2Seq模型对比及《Attention Is All You Need》中技术详解》,继续介绍Seq2Seq模型。本文主要内容整理自Google最近放出的论文《Depthwise Separable Convolutions for Neural Machine Translation》。1、问题提出基于RNN(LSTM、GRU)的Seq2Seq

2017-06-25 18:48:34 7132

原创 修改pip install时,默认的安装源

/root 目录下创建新的文件.pip.pip目录下创建pip.conf文件:/root/.pip/pip.confpip.conf中输入:[global]index-url=https://pypi.tuna.tsinghua.edu.cn/simple

2017-06-23 08:39:52 5585

原创 纯干货7 Domain Adaptation视频教程(附PPT)及经典论文分享

视频及PPT下载链接:https://pan.baidu.com/s/1i5HuusX密码: 公众号回复“da”即可获得密码

2017-06-22 22:35:47 4295 2

原创 模型汇总16 各类Seq2Seq模型对比及《Attention Is All You Need》中技术详解

1、已有Seq2Seq模型Seq2Seq模型是处理序列到序列问题的利器,尤其是在神经网络翻译(NMT)方面,取得了很大的成功。Seq2Seq由一个encoder和一个decoder构成,encoder把观测样本X编码成一个固定长度的隐变量Z,decoder再把隐变量Z解码成输出标签Y[1]。传统的Seq2Seq模型把观测样本编码成一个固定长度的隐变量Z,这个操作被认为限制了Seq2Seq模型的

2017-06-20 22:00:32 8477 1

原创 模型汇总15 领域适应性Domain Adaptation、One-shot/zero-shot Learning概述

几乎所有希望在实际应用中使用机器学习算法的人都会遇到领域适应性(Domain Adaptation)的问题:我们在固定的source domain建立了模型,但希望把我们的模型部署到另外一个或几个不同的target domain中。领域的适应性问题在机器学习实际应用的各个领域都非常常见。获取最新消息链接:获取最新消息快速通道 - lqfarmer的博客 - 博客频道 - CSDN.NET

2017-06-18 18:11:27 3637

转载 Python提供了以下几个内置tools模块:operator collections itertools functools

-operator : 内置的操作符模块 -collections : 简化容器类型的一些操作和使用 -itertools : 可迭代类型工具 -functools : 函数工具,尤其是装饰器operatoroperator提供了一个函数与符号的相互转换,方便我们在编程时选择: examples (1)符号转函数: 比如在一些需要某些符号功能,却需要提供该符

2017-06-16 15:24:48 1209

转载 Python学习4:生成器、lamda表达式及map、reduce、filter函数

在讲解map、reduce、filter函数之前,我们先来了解一下迭代器对象(iterable object)和生成器的相关概念1. 迭代对象(iterable object)迭代对象是这样一个对象,它包含有一个next()方法(__next__()方法,在Python 3x中), 这个方法的目的是进行到下一个结果,而在结束一系列结果之后,抛出StopIteration

2017-06-16 15:22:40 850

转载 Python中lambda表达式学习

lambda只是一个表达式,函数体比def简单很多。lambda的主体是一个表达式,而不是一个代码块。仅仅能在lambda表达式中封装有限的逻辑进去。lambda表达式是起到一个函数速写的作用。允许在代码内嵌入一个函数的定义。如下例子:定义了一个lambda表达式,求三个数的和。再看一个例子:用lambda表达式求n的阶乘。-

2017-06-16 15:19:33 2620

转载 squeeze函数

squeeze  除去size为1的维度B = squeeze(A)描述:B = squeeze(A),B与A有相同的元素,但所有只有一行或一列的维度(a singleton dimension)被去除掉了。A singleton dimension的特征是size(A,dim) = 1。二维阵列不受squeeze影响; 如果 A 是一个row

2017-06-16 11:02:28 17393

原创 模型汇总-14 多任务学习-Multitask Learning概述

1、单任务学习VS多任务学习单任务学习:一次只学习一个任务(task),大部分的机器学习任务都属于单任务学习。多任务学习:把多个相关(related)的任务放在一起学习,同时学习多个任务。多任务学习(multitask learning)产生的原因?获取最新消息链接:获取最新消息快速通道 - lqfarmer的博客 - 博客频道 - CSDN.NET

2017-06-16 10:52:43 10257

转载 Python中sorted函数的用法

我们需要对List、Dict进行排序,Python提供了两个方法对给定的List L进行排序,方法1.用List的成员函数sort进行排序,在本地进行排序,不返回副本方法2.用built-in函数sorted进行排序(从2.4开始),返回副本,原始输入不变--------------------------------sorted------------------------

2017-06-15 19:09:03 562

转载 python assert的作用

使用assert断言是学习python一个非常好的习惯,python assert 断言句语格式及用法很简单。在没完善一个程序之前,我们不知道程序在哪里会出错,与其让它在运行最崩溃,不如在出现错误条件时就崩溃,这时候就需要assert断言的帮助。本文主要是讲assert断言的基础知识。python assert断言的作用python assert断言是声明其布尔值必须为真的判定

2017-06-15 19:07:14 805

原创 Ian Goodfellow,Yoshua Bengio合著《深度学习》教材,2017年最新中文版下载

Ian Goodfellow,Yoshua Bengio合著《深度学习》教材,2017年最新中文版下载。链接:https://pan.baidu.com/s/1gf7o7ez密码:扫描下方二维码,回复关键字“new”即可。还有更多关于深度强化学习,斯坦福2017年最新Tensorflow视频教程,生成对抗网络GAN视频教程。

2017-06-14 15:35:00 3908

原创 深度学习模型-13 迁移学习(Transfer Learning)技术概述

前一期介绍了表示学习Representation Learning,指出其中比较有趣的一个方向-共享表示学习。今天介绍共享表示学习最相关的机器学习领域-迁移学习(Transfer Learning)。文章内容主要整理自论文《A survey on transfer Learning》。1 迁移学习提出的背景及历史1、迁移学习提出背景在机器学习、深度学习和数据挖掘的大多数任务中,我们

2017-06-13 20:37:39 36293 4

原创 模型汇总-12 深度学习中的表示学习_Representation Learning

我们在前面的《模型汇总_9 深度学习网络的表达方式汇总及模型分类方法》这篇文章中,指出了深度学习中常用的三种表示数据的方式,即局部表达、稀疏表达和分布式表达。深度学习强大建模和知识抽取的能力,主要原因之一就是它对观测样本X采用了有效的表达方式。数据的表达方式为什么如此重要?有效的表达方式可以简化我们处理问题的难度。比如,在NLP领域中,采用word2vec把词语表示成向量(vector)形式,要比

2017-06-11 17:14:11 9388

原创 《纯干货-6》Stanford University 2017年最新《Tensorflow与深度学习实战》视频课程分享

分享一套Stanford University 在2017年1月份推出的一门Tensorflow与深度学习实战的一门课程。该课程讲解了最新版本的Tensorflow中各种概念、操作和使用方法,并且给出了丰富的深度学习模型实战,涉及Word2vec、AutoEncoder、RNN(LSTM,GRU)、Seq2seq with Attention 、Chatbot: Training and Opti

2017-06-09 12:06:50 26596 146

原创 <模型汇总-10> Variational AutoEncoder_变分自动编码器原理解析

在模型汇总-9>部分,详细讲解了与VAE有关的基础知识,涉及LVM、MAP、EM、MCMC、Variational Inference(VI),可以通过公众号往期内容查看。有了这些知识的铺垫,今天就为大家分析下VAE的原理。2.1 VAE产生背景生成模型根据公式(11)对观测样本p(X)建模:其中,引入了一个参数O,参数化后的隐变量z来简化观测样本概率密度函数(PCB)p(

2017-06-07 09:35:19 3419

原创 <纯干货-5>Deep Reinforcement Learning深度强化学习_论文大集合

本文罗列了最近放出来的关于深度强化学习(Deep Reinforcement Learning,DRL)的一些论文。文章采用人工定义的方式来进行组织,按照时间的先后进行排序,越新的论文,排在越前面。希望对大家有用,同时欢迎大家提交自己阅读过的论文。目录•    值函数相关的文章•    策略相关的文章•    离散控制相关的文章•    连续控制相关的文章•    文本处理

2017-06-05 16:22:49 11572

原创 <模型汇总-9> Variational AutoEncoder_VAE基础:LVM、MAP、EM、MCMC、Variational Inference(VI)

Kingma et al和Rezende et al在2013年提出了变分自动编码器(Variational AutoEncoders,VAEs)模型,仅仅三年的时间,VAEs就成为一种最流行的生成模型(Generative model),通过无监督的方式学习复杂的分布。VAE和GAN一样是一种学习生成模型学习框架,它由encoder和decoder两个部分组成,两个部分都可以由CNN、LST

2017-06-04 21:11:57 4450

原创 <纯干货-4> 加州大学伯克利分校2017年最新深度强化学习视频课程_part3

上次跟大家分享了加州大学伯克利分校在今年1月份发布的深度强化学习的基本课程第三次和第四次课程内容,今天继续给大家分享第五次和第六次课程的内容。包括在线视频、视频教程和ppt的百度云下载地址。第5次课程:Learning policies by imitating optimal controllers 内容导读:   在线视频:https://www.youtube.c

2017-06-03 10:01:26 3148

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除