nlp task
just__we
just we就是just we 既不伟大也不卑微
展开
-
NLP Task5
朴素贝叶斯定义:P(C|X)称为C的后验概率,与之相对的,P©称为C的先验概率。而基于贝叶斯公式(公式如下):但在比较不同的A值的后验概率时,分母P(B)总是为常数,将其忽略掉后,后验概率为P(A|B)=P(B|A)P(A)而先验概率P(A)可以通过计算训练集的每一个类的训练样本所占比例获得,对类条件概率P(X|C)的估计,我们只谈论朴素贝叶斯方法,因为朴素贝叶斯假设事物属性之间相互条件独...原创 2019-05-20 21:00:40 · 127 阅读 · 0 评论 -
TASK 7 卷积神经网络
卷积神经网络此为单个神经元输入层对于数据输入层,主要做的就是对数据进行预处理,其中包括:去均值:把输入数据的各个维度中心化为0,如下图所示,目的是把样本的中心拉回坐标原点上去。归一化:幅度归一化到同样的范围,如下所示,即减少各个维度数据取值范围的差异带来的干扰,比如我们有两个维度的特征A和B,A的特征是0-10,B的特征是0-10000,如果直接使用这两个特征是会有问题的,好的做法...原创 2019-05-24 20:01:50 · 231 阅读 · 0 评论 -
循环和递归神经网络
为什么需要RNN神经网络只能一个个的输入,前一个输入和后一个输入是没有关系的。但某些任务需要能够更好的处理序列的信息,即前面和后面的输入是有关系的。RNN结构x为一个向量,代表输入层和输出层的值;s是一向量,代表着隐藏层的值;U是输入层的权重矩阵,o也为一个向量,它表示输出层的值,V是隐藏层到输出层的权重矩阵。循环神经网络的隐藏层s的值不仅仅取决于当前输入的x,还取决于上一次隐藏层的值h。...原创 2019-05-26 20:13:47 · 886 阅读 · 0 评论 -
TASK6
前馈神经网络前馈神经网络是一种最简单的神经网络,各神经元分层排列。每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层.各层间没有反馈。输入层神经网络的第一层,用来接收、处理数据隐藏层位于输出层和输入层之间的神经网络层次输出层神经网络的最后一层,用来输出激活函数神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经...原创 2019-05-22 20:08:36 · 210 阅读 · 0 评论 -
TASK 10
Transformertransform由Google的一篇论文提出:Attention is All You Needtransformer由Encoders和Decoders组成:论文中讲述,每个Encoders和Decoders中分别有六个encoder和decoder组成:对于每个encoder,他们的结构是相同的,但不会共享权值。每层encoder由两个部分组成,如下图:...原创 2019-05-30 20:14:17 · 136 阅读 · 0 评论 -
attention
原理介绍相关论文Hierarchical Attention Networks for Document ClassificationWord Encoder:①给定一个句子si,例如 The superstar is walking in the street,由下面表示[wi1,wi2,wi3,wi4,wi5,wi6,wi1,wi7],我们使用一个词嵌入矩阵W将单词编码为向量...转载 2019-05-28 14:20:11 · 163 阅读 · 0 评论