自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 二叉树的非递归遍历

void preOrder(BinTree *root) //非递归前序遍历 { stack<BinTree*> s; BinTree *p=root; while(p!=NULL||!s.empty()) { while(p!=NULL) { cout<<p->data<<" ";

2017-02-27 15:54:12 486

原创 堆排序

最近在看算法,今天系统的学习了一下堆排序,趁热打铁今天来总结一下。 堆说白了,就是一颗完全二叉树,如果父节点的值都大于子节点我们就称之为大根堆,如果父节点的值都小于子节点我们就称之为小根堆。一般来说,在编程实现的时候我们一般使用数组来存储这个二叉树结构。 如果数组 a从下标 11 开始的位置存储元素,那么第ii节点的左右孩子节点分别为2∗i2*i和2∗i+12*i+1,它的父节点为 i/2i/2

2017-02-27 10:56:06 362

原创 Deep memory network 框架

最近看论文,发现了一个新的概念“Deep memory network”,那么今天就来梳理一下这个框架的基本原理及使用场景。其实从提出的时间上来讲,这个框架一点都不新,由Weston et al 在2014提出。这个框架描述是:“A memory network consists of a memory mm and four components I,G,OI, G, O and RR, wher

2017-02-27 09:25:07 3638 1

原创 使用context信息的情感分析模型

和过去写的《 融入了外部Linguistically信息的情感分析模型》博客提到的基本原理一样,今天要介绍的模型在进行情感分析的时候同样不仅仅只考虑单条的文本信息,也引入了外部的信息,只不过这个信息不再是Linguistically,而是context的。这篇博客参考了论文《Modeling Rich Contexts for Sentiment Classification with LSTM》。

2017-02-21 10:26:43 829

原创 融入了外部Linguistically信息的情感分析模型

最近看了几篇nlp相关的顶会论文,又发现了一条提高文本分类精度的新思路,即增加外部的信息,就是这么简单的一句话,就蕴含了很丰富的道理,下面我来娓娓道来。常规的处理自然语言的方法(无论是统计语言模型方法还是神经网络语言方法)所分析的对象都是一句话或者一篇文档,也就是说我们得到的关于某句话的所有信息只能全部来自于这句话的文本内容(传统的论文创新无非就是在处理这些文本的方式上进行改变,包括各种CNN和LS

2017-02-20 16:57:59 1370

原创 Sentiment Classification with User and Product information

这两天又看了2篇和文本情感分类相关的论文,使用的基础模型还是深度学习中在情感分析中比较常见的CNN和RNN架构。但是不同的是,这些算法模型在做情感分类的时候凭借的依据不仅仅是单条的文本信息,还考虑了发这条文本的用户特征以及所评论的物品特征。从理论上讲,这是一种引入了额外的信息去帮助情感分析的手段,貌似这是一个比较靠谱的方向。下面就分别的来介绍一下这些模型策略。首先参考的论文是《Learning Se

2017-02-14 11:56:06 946 2

原创 Aspect-level Sentiment Classification using attention mechanism

这篇论文其实是无意间发现的,其中运用到了attention的思想。其实当我发现机器翻译里可以引入attention机制后,我就一直在琢磨,文本的情感分类是不是也可以引入这种思想,但是不知道该如何用,该在什么领域用,终于《Attention-based LSTM for Aspect-level Sentiment Classification》EMNLP 这篇论文给了我一定的启示,发现竟然还有这种方

2017-02-12 21:42:23 3296 5

原创 493. Reverse Pairs

Given an array nums, we call (i, j) an important reverse pair if i < j and nums[i] > 2*nums[j].You need to return the number of important reverse pairs in the given array. Example1:Input: [1,3,2,3,1]

2017-02-12 16:33:26 1726

原创 Neural Machine Translation(NMT)技术概述

在神经网络语言模型处理NLP领域,我做的研究一直都和文本分类相关,其实还有很多其他的应用领域,比方说:语言翻译、词性标注、命名实体识别等。感觉还是有必要了解一下如何用神经网络语言模型对这些应用进行建模的。因此,这几天看了几篇有关Neural Machine Translation(NMT)的论文,对这个领域基本有了比较全面、正确的认识。在这个过程中,正好学习了业界最流行的attention思想,下面

2017-02-11 16:30:48 7848

原创 batch-normalization 技术分析

这两天重新回顾了一下batch-normalization技术,主要参考了论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》与大牛张俊林的博客:http://blog.csdn.net/malefactor/article/details/51476961。不

2017-02-07 10:39:28 1803

原创 一种提高卷积结果非线性的方法

众所周知,卷积神经网络(CNN)是一种常见的深度学习模型,其应用在文本分类和图像识别领域都取得了不错的效果。这里我们以二维的卷积核为例,一个大小为M*N的卷积核,完成了对输入内容以M*N为单位特征提取,就是相当完成了维度为M*N的两个向量(卷积核与输入内容)的一次内积操作。最后为了增加结果的非线性特性,往往会把最后的结果进行非线性函数的处理(比方说Relu、Sigmoid、Tanh)。 其实上面的

2017-02-03 16:01:28 1656

原创 Super Ugly Number

Write a program to find the nth super ugly number.Super ugly numbers are positive numbers whose all prime factors are in the given prime list primes of size k. For example, [1, 2, 4, 7, 8, 13, 14, 16,

2017-02-01 10:39:50 267

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除