机器学习
TonLP
自然语言处理太难,个人主页http://chenyutong.win
展开
-
LTM(Lifelong Topic Modeling)介绍
LTM(Lifelong Topic Modeling)介绍论文题目是《Topic Modeling using Topics from Many Domains, Lifelong Learning and Big Data》(Chen and Liu, 2014) 摘要:Topic modeling has been commonly used to discover topics from原创 2016-11-05 20:15:11 · 5134 阅读 · 0 评论 -
LML(Lifelong Machine Learning)介绍
LML(Lifelong Machine Learning)介绍最近做评论分析碰到一些瓶颈,阅读了众多论文,还是觉得刘兵老师靠谱,实用派的翘楚。于是了解了他近年来发的论文,发现了一个很新颖的词”lifelong”,而且还在KDD 2016做tutorial,题为《Lifelong Machine Learning》。何为Lifelong Machine Learning传统的ML(他们叫做ML 1.原创 2016-11-04 23:15:20 · 5327 阅读 · 0 评论 -
通过word embedding和关联规则改进Aspect提取效果
思路来源于论文《Improving Opinion Aspect Extraction Using Semantic Similarity and Aspect Association》(Liu, Zhang et al.,2016)原创 2016-11-08 17:05:21 · 1775 阅读 · 1 评论 -
卷积神经网络反向传播推导
以TensorFlow的卷积神经网络为例卷积-池-卷积-池-全连接-softmax 前向传导C1层:卷积神经网络的输入是28×28的矩阵AA,经过F1F_1个5×5的卷积核K1i(i=1,2,...,F1)K_i^1(i=1,2,...,F_1)的卷积生成F1F_1个24×24大小的feature maps: C1i=conv2(A,K1i,′VALID′)+b1iC_i^1=conv2(A,原创 2016-12-22 21:46:52 · 3512 阅读 · 0 评论 -
循环神经网络(一般RNN)推导
本文章的例子来自于WILDMLvanillaRNN是相比于LSTMs和GRUs简单的循环神经网络,可以说是最简单的RNN。RNN结构RNN的一个特点是所有的隐层共享参数(U,V,W)(U, V, W),整个网络只用这一套参数。RNN前向传导st=tanh(Uxt+Wst−1)s_t=tanh(Ux_t+Ws_{t-1}) ot=softmax(Vst)o_t=softmax(Vs_t)sts_t为原创 2016-12-26 13:42:51 · 17377 阅读 · 7 评论 -
RBM(Restricted Bolzmann Machines)原理
玻尔兹曼机是一种随机网络,它基于能量模型进行建模。能量模型我们一般认为物体的能量越高越不稳定,能量越低越趋于稳定。比如说,斜坡上的一个箱子,它位于越高的位置,则拥有更高的重力势能。能量模型把箱子停在哪个位置定义为一种状态,每个状态对应着一个能量。这个能量由能量函数来定义,箱子位于某个位置(某个位置)的概率。比如箱子位于斜坡1/2高度上的概率为p,它可以用E表示成p=f(E)p=f(E)。能量概率模型原创 2017-01-04 21:29:43 · 3982 阅读 · 0 评论 -
TensorFlow的卷积神经网络例子解析
TensorFlow教程地址:https://www.tensorflow.org/tutorials/mnist/pros/ 讲的是经典的机器学习问题MNIST。 使用卷积神经网络进行训练。载入MNIST数据MNIST数据可以从这里下载from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.re原创 2016-12-22 15:19:41 · 7741 阅读 · 4 评论