自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(76)
  • 资源 (1)
  • 收藏
  • 关注

转载 突破 | DeepMind为强化学习引入无监督辅助任务,人工智能的Atari游戏水平达到人类的9倍

选自DeepMind Blog作者:Max Jaderberg、Volodymyr Mnih、Wojciech Marian Czarnecki机器之心编译参与:李泽南、吴攀、杜夏德几个小时前,DeepMind 在其官方博客发表文章介绍他们在强化学习上的最新研究进展。他们通过为代理在训练过程中增加两项额外的任务来增强标准的深度强化学习方法,结果显示代理实现了更好

2017-03-31 16:25:14 7606

转载 深度增强学习前沿算法思想

本文原载于《程序员》杂志2017年1月刊2016年AlphaGo计算机围棋系统战胜顶尖职业棋手李世石,引起了全世界的广泛关注,人工智能进一步被推到了风口浪尖。而其中的深度增强学习算法是AlphaGo的核心,也是通用人工智能的实现关键。本文将带领大家了解深度增强学习的前沿算法思想,领略人工智能的核心奥秘。前言深度增强学习(Deep Reinforcement Learning

2017-03-31 15:32:15 7175

转载 Reinforcement Learning (DQN) tutorial

Author: Adam PaszkeThis tutorial shows how to use PyTorch to train a Deep Q Learning (DQN) agent on the CartPole-v0 task from the OpenAI Gym.TaskThe agent has to decide between two actions - m

2017-03-31 10:46:20 7254

转载 DQN从入门到放弃5 深度解读DQN算法

0 前言如果说DQN从入门到放弃的前四篇是开胃菜的话,那么本篇文章就是主菜了。所以,等吃完主菜再放弃吧!1 详解Q-Learning在上一篇文章DQN从入门到放弃 第四篇中,我们分析了动态规划Dynamic Programming并且由此引出了Q-Learning算法。可能一些知友不是特别理解。那么这里我们再用简单的语言描述一下整个思路是什么。为了得到最优策略Pol

2017-03-30 23:57:54 20484 2

转载 caffe中lstm的实现以及lstmlayer的理解

本文地址:http://blog.csdn.net/mounty_fsc/article/details/53114698本文内容:本文描述了Caffe中实现LSTM网络的思路以及LSTM网络层的接口使用方法。本文描述了论文《Long-term recurrent convolutional networks for visual recognition and descrip

2017-03-29 03:25:24 8752

转载 双向长短时记忆循环神经网络详解(Bi-directional LSTM RNN)

1. Recurrent Neural Network (RNN)尽管从多层感知器(MLP)到循环神经网络(RNN)的扩展看起来微不足道,但是这对于序列的学习具有深远的意义。循环神经网络(RNN)的使用是用来处理序列数据的。在传统的神经网络中模型中,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题是无能为力的。比如,预测句子的下一个单词是什么,一般需要用到

2017-03-29 03:00:01 14974

转载 NLTK的词性

NOUN n,VERB v ,ADJ a, ADV r, ADJ_SAT s    NOUN: [('s', ''), ('ses', 's'), ('ves', 'f'), ('xes', 'x'),               ('zes', 'z'), ('ches', 'ch'), ('shes', 'sh'),               ('men', 'man'), ('

2017-03-28 23:35:19 6884

转载 Python NLTK学习6(创建词性标注器)除特别注明外,本站所有文章均为刘杰的个人网站原创 转载请注明出处: http://www.burnelltek.com/blog/60740e24d2f

除特别注明外,本站所有文章均为刘杰的个人网站原创转载请注明出处: http://www.burnelltek.com/blog/60740e24d2f711e6841d00163e0c0e36本系列博客为学习《用Python进行自然语言处理》一书的学习笔记。默认标注器默认标注器为每个单词分配同样的标记,尽管很平庸,但它也是有作用的,先看示例:import

2017-03-28 20:40:40 7191

转载 Python NLTK学习5(词性标注)

本系列博客为学习《用Python进行自然语言处理》一书的学习笔记。词性标注器一个词性标注器处理一个词序列,为每个词附加一个词性标记,我们先看一个示例:import nltkwords = nltk.word_tokenize('And now for something completely different')print(words)word_tag = nltk.p

2017-03-28 20:33:34 11804

转载 CHAPTER 5

in nltk.corpus.brown.words())  >>> text.similar('woman')  Building word-context index...  man time day year car moment world family house country child boy  state job way war girl place room w

2017-03-28 20:31:35 6185

转载 python自然语言处理工具NLTK各个包的意思和作用总结

【转】http://www.myexception.cn/perl-python/464414.html  【原】Python NLP实战之一:环境准备最近正在学习Python,看了几本关于Python入门的书和用Python进行自然语言处理的书,如《Python编程实践》、《Python基础教程》(第2版)、《Python自然语言处理》(影印版)。因为以前是学Java

2017-03-28 20:29:54 11284

转载 分分钟推导神经网络

原文链接

2017-03-27 23:36:29 6442

转载 论文理解(一)树形lstm

Long Short-Term Memory Over Tree Structures树结构的lstm中的记忆细胞可以通过递归的过程反映多个孩子及后代的历史信息。孩子节点之间是否有交互(图一)?提供一种特定的方法考虑不同等级上的长距离交互。例如语言和图像的解析结构。用s-lstm的记忆模块`代替递归模型中的组合层,应用在通过语义组合来理解一段文本。句子的语义并不是线性的拼接,他是有

2017-03-27 23:22:09 8912

转载 ReLu(Rectified Linear Units)激活函数

起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。从神经科学上来看

2017-03-27 02:30:55 6841

转载 FPGA在深度学习的未来

版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]摘要揭开深度学习的面纱一览深度学习为什么选择FPGA在FPGA上运行LSTM神经网络LSTM简介设计FPGA模块结果分析未来展望这是上学期我上的一门集成电路原理的课程调研报告, 写的还算可以, 最后还被老师选中上去presentation(

2017-03-26 00:03:26 25471 3

转载 一文搞懂k近邻(k-NN)算法(一)

原文链接一文搞懂k近邻(k-NN)算法(一)前几天和德川一起在学习会上讲解了k-NN算法,这里进行总结一下,力争用最通俗的语言讲解以便更多同学的理解。本文目录如下:1.k近邻算法的基本概念,原理以及应用2.k近邻算法中k的选取,距离的度量以及特征归一化的必要性3.k近邻法的实现:kd树原理的讲解4.kd树详细例

2017-03-25 22:06:35 12810 4

转载 常见的两种注意力机制

为什么需要注意力机制seq2seq模型已经在机器翻译、自然语言处理领域取得了很大的进步,基于贝叶斯条件概率公式,seq2seq由一个编码器和一个解码器构成,编码器将源序列A编码成一个固定长度的特征向量,这个向量作为输入被传送到解码器得到目标序列B。seq2seq虽然相比传统的n-gram统计模型更具非线性刻画能力,但其也有自身的缺点。主要缺点主要有两个:第一是长程记忆能力有

2017-03-25 18:45:13 23684 1

转载 深度学习中的激活函数导引

深度学习大讲堂致力于推送人工智能,深度学习方面的最新技术,产品以及活动。请关注我们的知乎专栏!摘要近年来,深度学习在计算机视觉领域取得了引人注目的成果,其中一个重要因素是激活函数的发展。新型激活函数ReLU克服了梯度消失,使得深度网络的直接监督式训练成为可能。本文将对激活函数的历史和近期进展进行总结和概括。激活函数的定义与作用在人工神经网络中,神经元节点的激活函数定义了

2017-03-25 17:31:07 11488 1

转载 RELU 激活函数及其他相关的函数

本博客仅为作者记录笔记之用,不免有很多细节不对之处。还望各位看官能够见谅,欢迎批评指正。更多相关博客请猛戳:http://blog.csdn.net/cyh_24如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmo

2017-03-25 17:11:21 6480

原创 PyTorch 参数初始化

import torch.nn.init as initself.conv1 = nn.Conv2d(3, 20, 5, stride=1, bias=True) init.xavier_uniform(self.conv1.weight, gain=np.sqrt(2.0))init.constant(self.conv1.bias, 0.1)

2017-03-24 15:55:07 10924

转载 Python shuffle() 函数

描述shuffle() 方法将序列的所有元素随机排序。语法以下是 shuffle() 方法的语法:import randomrandom.shuffle (lst )注意:shuffle()是不能直接访问的,需要导入 random 模块,然后通过 random 静态对象调用该方法。参数lst -- 可以是一个序列或者元组。

2017-03-24 14:16:25 8033

转载 Python的星号(*、**)的作用

Python的星号(*、**)的作用1. 函数的可变参数当函数的参数前面有一个星号*的时候表示这是一个可变的位置参数,两个星号**表示是可变的关键字参数。#!env python#coding=utf-8#def foo(*args, **kwarg): for item in args: print item for k,v in

2017-03-24 14:15:13 6794

转载 人脸对齐 python代码

file4.close()  file5.close()   step5 特征点校准从二进制文件中读取特征点位置信息[python] view plain copyprint 'Face Alignment - Face Alignment. step(6/6)'    file6 = open(pointli

2017-03-23 22:43:29 9717 1

转载 opencv 仿射变换 根据眼睛坐标进行人脸对齐 计算变换后对应坐标

使用OpenCV对人脸图像进行仿射变换, 实现人脸对齐功能     人脸图像及68个面部关键点                             仿射变换后人脸图像及关键点   仿射变换将原坐标(x, y)变换为新坐标(x', y')的计算方法:   通过上面的公式, 可计算出原图像经过变换后的新图像。   Opencv仿射变换函数wa

2017-03-23 21:41:20 8871 2

转载 PaperWeekly 第二十五期 --- 增强学习在image caption任务上的应用

引言  第二十二期的PaperWeekly对Image Captioning进行了综述。今天这篇文章中,我们会介绍一些近期的工作。(如果你对Image Captioning这个任务不熟悉的话,请移步二十二期PaperWeekly 第二十二期---Image Caption任务综述)  Image Captioning的模型一般是encoder-decoder的模型。模型对$p(

2017-03-23 12:27:53 8659

转载 一周论文 | Image Caption任务综述

引言  Image Caption是一个融合计算机视觉、自然语言处理和机器学习的综合问题,它类似于翻译一副图片为一段描述文字。该任务对于人类来说非常容易,但是对于机器却非常具有挑战性,它不仅需要利用模型去理解图片的内容并且还需要用自然语言去表达它们之间的关系。除此之外,模型还需要能够抓住图像的语义信息,并且生成人类可读的句子。  随着机器翻译和大数据的兴起,出现了Image Cap

2017-03-23 12:26:03 17672 1

转载 Understanding LSTM Networks

Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each word based on your understanding of previous words. You don’t thro

2017-03-23 12:24:52 6183

转载 PyTorch - 打印梯度

x = Variable(torch.randn(5, 5), requires_grad=True)y = Variable(torch.randn(5, 5), requires_grad=True)z = x + y# this will work only in Python3z.register_hook(lambda g: print(g)) # if you're

2017-03-22 13:43:39 14812

转载 开源|2017 CVPR(Oral Paper):多目标实时体态估测 项目开源

本目录下的代码赢得了2016年MSCOCO关键点挑战赛以及2016年ECCV最佳演示奖,并发表在2017年CVPR的口头论文(Oral Paper)中。  演示视频:    在论文中,我们提出了一种自下而上的方法进行多人姿态估计,这种方法不需要任何行人检测的算法。  论文地址:https://arxiv.org/abs/1611.08050  

2017-03-22 12:43:06 10354

转载 ReLU深度网络能逼近任意函数的原因

今天读了一遍谷歌大脑工程师Eric Jang的一个解答,想把这个知识与大家分享!最近也发现,有很多牛人喜欢在博客中分享DL的相关知识,所以个人感觉有空可以在博客中度阅读一些相关内容,对自己基础和深度了解有很大的帮助,也在此感谢那些为DL&ML默默共享的大牛们,让我们一起努力学习!!!那就不多说了,开始对这个话题的理解。嘿嘿!有很多人问:为什么ReLU深度网络能逼近任意函数?对此,其

2017-03-22 01:33:33 7064

转载 聊聊主成分分析

本文聊聊主成分分析(principal component analysis, PCA),首先谈谈协方差。方差和协方差是用来衡量一系列点在它们的重心或均值周围的分散程度的。方差可以标度这些点在一个维度的偏差, 而协方差是用来衡量一个维度是否会对另外一个维度有所影响的。协方差对两个维度进行衡量,进而查看这两个维度之间是否有关系。显然,某个维度跟自身之间的协方差就是方差。

2017-03-22 01:15:36 6799

转载 深度学习 自然语言处理 资料推荐

本次首先推荐邱锡鹏老师的两个报告:1. Deep learning for natural language processinghttp://nlp.fudan.edu.cn/xpqiu/slides/20160618_DL4NLP@CityU.pdf主要讨论了深度学习在自然语言处理中的应用。其中涉及的模型主要有卷积神经网络,递归神经网络,循环神经网络网络等,应用领域主要

2017-03-22 01:14:07 7187

转载 深度增强学习前沿算法思想

作者: Flood Sung,CSDN博主,人工智能方向研究生,专注于深度学习,增强学习与机器人的研究。  责编:何永灿,欢迎人工智能领域技术投稿、约稿、给文章纠错,请发送邮件至heyc@csdn.net   本文为《程序员》原创文章,未经允许不得转载,更多精彩文章请订阅2017年《程序员》2016年AlphaGo计算机围棋系统战胜顶尖职业棋手李世石,引起了全世界的

2017-03-22 01:09:07 6422

转载 论文引介 | Adversarial Learning for Neural Dialogue Generation

文章原名:Adversarial Learning for Neural Dialogue Generation作者:Jiwei Li, Will Monroe, Tianlin Shi, Sebeastien Jean, Alan Ritter and Dan Jurafsky单位:Stanford University, New York University and Ohio

2017-03-22 01:04:06 6309

转载 自动驾驶大量资料

https://handong1587.github.io/deep_learning/2015/10/09/dl-and-autonomous-driving.htmlDeep Learning and Autonomous Driving Published: 09 Oct 2015  Category: deep_learningJump to...

2017-03-22 00:58:31 14108

转载 雅可比矩阵 和 海森矩阵

雅可比矩阵 假设F:Rn→Rm 是一个从欧式n维空间转换到欧式m维空间的函数。这个函数由m个实函数组成: y1(x1,...,xn), ..., ym(x1,...,xn). 这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵,这就是所谓的雅可比矩阵:此矩阵表示为: ,或者 这个矩阵的第i行是由梯度函数的转置yi(i=1,...,m)表示的

2017-03-22 00:50:04 10051

转载 神经网络与深度学习(2):梯度下降算法和随机梯度下降算法

本文总结自《Neural Networks and Deep Learning》第1章的部分内容。  使用梯度下降算法进行学习(Learning with gradient descent)1. 目标我们希望有一个算法,能让我们找到权重和偏置,以至于网络的输出y(x) 能够拟合所有的训练输入x。2. 代价函数(cost function)定义一个Cost functio

2017-03-22 00:44:04 7525

转载 Jacobian矩阵和Hessian矩阵

1. Jacobian在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式. 还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中. 它们全部都以数学家卡尔·雅可比(Carl Jacob, 1804年10月4日-1851年2月18日)命名;英文雅可比量”Jacobian”可以发音为[ja ˈko bi ən]

2017-03-22 00:35:49 6353

转载 译文 | 批量归一化:通过减少内部协变量转移加速深度网络训练

作者:Sergey Ioffe   Christian Szegedy翻译:七月在线DL翻译组译者:陈媛媛 管枫 任远航责编:翟惠良 July声明:本译文仅供学习交流,有任何翻译不当之处,敬请留言指正。转载请注明出处。原文:https://arxiv.org/pdf/1502.03167v3.pdf——前言: 我们将训练过程中深度网络内部

2017-03-22 00:16:56 14604 1

转载 Awesome - Most Cited Deep Learning Papers

https://github.com/terryum/awesome-deep-learning-papersA curated list of the most cited deep learning papers (since 2012)We believe that there exist classic deep learning papers which are wo

2017-03-21 00:28:24 6510

directshow_SDK开发笔记

directshow_SDK开发笔记directshow_SDK开发笔记directshow_SDK开发笔记

2011-04-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除